ChatGPT, Copilot, Gemini e Perplexity di fronte a una falsa malattia: ritorno su un’esperienza rivelatrice dei limiti delle IA

ChatGPT, Copilot, Gemini e Perplexity di fronte a una falsa malattia: ritorno su un’esperienza rivelatrice dei limiti delle IA

Indice

I progressi nell’intelligenza artificiale hanno trasformato molti settori, ma non sono privi di difetti. Un esperimento condotto da ricercatori svedesi ha esposto vulnerabilità preoccupanti nel modo in cui i chatbot convalidano le informazioni mediche. Inventando una malattia fittizia, la “bixonimania”, questi ricercatori hanno dimostrato che le IA possono essere facilmente ingannate, sollevando domande sul loro utilizzo in contesti sensibili. Scopri come questo esperimento ha messo in luce i limiti dei sistemi di intelligenza artificiale attuali.

L’essenziale da ricordare

  • I ricercatori hanno creato una malattia fittizia per testare la credibilità delle IA, rivelando difetti significativi nella loro capacità di discernere il vero dal falso.
  • I chatbot come ChatGPT, Copilot, Gemini e Perplexity hanno trattato la “bixonimania” come una patologia reale, illustrando i rischi dell’automazione senza verifica umana.
  • Due anni dopo l’esperimento, alcuni chatbot non hanno ancora corretto il loro database, evidenziando un problema persistente nella gestione delle informazioni errate.

Le IA intrappolate da una malattia fittizia

Nel 2024, Almira Osmanovic Thunström, ricercatrice all’università di Gothenburg, ha concepito un esperimento per testare i limiti dei chatbot. Ha inventato la “bixonimania”, una malattia fittizia, e l’ha integrata in preprint accademici pieni di segni evidenti di falsità. Nonostante questi indizi, chatbot rinomati hanno convalidato questa patologia, considerandola reale.

Copilot, per esempio, descriveva la bixonimania come “intrigante e relativamente rara”, mentre Gemini raccomandava di consultare un oculista. Ciò dimostra che le IA possono essere ingannate da contenuti ben formattati, che percepiscono come legittimi.

À lire  L'aggiornamento di ChatGPT su mobile: scegliere il tempo di riflessione

Conseguenze per la ricerca e la salute

L’errore non si è limitato ai chatbot. Ricercatori dell’Istituto di scienze mediche di Mullana in India hanno citato i falsi preprint in uno studio, dimostrando che anche gli esperti possono essere ingannati da informazioni generate da IA. Cureus, la rivista in cui l’articolo è stato pubblicato, ha ritirato il documento nel marzo 2026, ma l’incidente ha rivelato un difetto sistemico nella verifica delle fonti accademiche.

Elisabeth Bik, specialista in integrità della ricerca, ha espresso le sue preoccupazioni riguardo all’automazione delle indicizzazioni accademiche. Ha sottolineato il rischio che informazioni errate si propaghino senza intervento umano, un problema esacerbato dall’uso dei LLM (modelli di linguaggio di grandi dimensioni) nella ricerca.

Reazioni e aggiustamenti dei chatbot

Dall’esperimento, alcuni chatbot hanno aggiornato le loro risposte. Copilot e Perplexity hanno riconosciuto di essere stati ingannati e hanno corretto i loro database. Gemini, da parte sua, consiglia ora di consultare professionisti per argomenti medici sensibili.

Al contrario, ChatGPT continua a eludere la questione fornendo risposte elaborate senza ammettere l’errore. Questa riluttanza a riconoscere i difetti sottolinea la necessità di una migliore gestione delle informazioni nei sistemi di IA.

Le implicazioni per il futuro delle IA nel campo medico

Questo esperimento solleva importanti considerazioni per il futuro dell’IA, in particolare nel campo medico. Mentre i chatbot e altri sistemi basati su IA diventano strumenti sempre più comuni, è cruciale migliorare la loro capacità di discernere le informazioni affidabili da quelle errate. La collaborazione tra esperti umani e sistemi di IA potrebbe essere una via promettente per garantire la precisione e la sicurezza dei dati medici in futuro.

À lire  Affidare i propri pensieri a un'intelligenza artificiale: un avvertimento dopo l'intervento del RAID

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *