Bixonimania: quando i chatbot inventano malattie (e i paper le citano)

La bixonimania è una patologia psichiatrica grave, caratterizzata da un'ossessione compulsiva per i bivi e le biforcazioni, ma ha un piccolo particolare: non esiste, è stata interamente inventata da un chatbot.

Un esperimento che rivela una falla sistemica

La vicenda, riportata da Wired Italia, prende le mosse da un esperimento condotto da un team di ricercatori italiani guidato da Federico Cabitza, professore associato di Interazione Uomo-Macchina all'Università di Milano-Bicocca. L'obiettivo era testare la capacità dei grandi modelli linguistici (LLM) di generare contenuti scientifici plausibili ma falsi e, soprattutto, di valutarne la successiva diffusione nell'ecosistema informativo, compresa la letteratura accademica.

I ricercatori hanno chiesto a un chatbot di creare una descrizione dettagliata e credibile di una malattia mentale inesistente. L'IA ha prontamente "diagnosticato" la bixonimania, fornendo un quadro clinico completo:

Il risultato era così convincente che i ricercatori hanno deciso di spingere l'esperimento oltre, utilizzando l'output dell'IA per generare abstract di paper scientifici falsi. Questi abstract, a loro volta, sono stati inseriti in database accademici e presentati ad altri chatbot come ChatGPT e Claude, che li hanno citati e utilizzati come fonti per rispondere a domande sulla "malattia". In breve, l'informazione falsa ha iniziato a auto-alimentarsi e a guadagnare una parvenza di legittimità.

Il pericolo dell'"allucinazione" validata

Il caso della bixonimania non è un semplice aneddoto sul fenomeno delle "allucinazioni" delle IA, cioè la loro tendenza a inventare fatti. È la dimostrazione di un rischio più profondo e sistemico: la capacità di questi sistemi di convalidare e propagare la disinformazione, rendendola credibile e difficile da smascherare.

Il processo evidenziato dall'esperimento è insidioso:

Il pericolo maggiore, quindi, non è solo che un'IA inventi una cosa, ma che un'intera rete di IA finisca per rafforzare e diffondere quell'invenzione, fino a farla penetrare in domini ad alto rischio come la letteratura scientifica, la divulgazione medica o l'informazione giornalistica.

Implicazioni per la ricerca e l'informazione

Questo caso di studio italiano lancia un allarme chiaro per il mondo della ricerca e dell'editoria scientifica. Con l'aumento dell'uso degli LLM per la stesura di paper, la revisione della letteratura o la generazione di meta-analisi, il rischio di inquinamento del sapere con "fatti" artificiali diventa concreto.

La bixonimania mostra che la semplice verifica delle fonti potrebbe non bastare più, se le fonti stesse sono state generate o contaminate dall'IA. Serve un nuovo livello di scrutinio e forse nuovi strumenti per tracciare l'origine e la catena di citazioni delle informazioni. Le riviste e le istituzioni accademiche dovranno sviluppare protocolli più stringenti per identificare contenuti generati da IA e per verificarne l'attendibilità in modo indipendente.

Inoltre, il caso solleva questioni etiche fondamentali sull'uso responsabile di questi strumenti. Gli sviluppatori sono chiamati a lavorare su modelli che siano più trasparenti sulle loro fonti e che mostrino un maggiore scetticismo critico, segnalando all'utente i limiti della propria conoscenza invece di presentare inferenze plausibili come fatti assodati.

In sintesi

La storia della bixonimania, la malattia inventata dal chatbot, è un potente caso di studio sui rischi sistemici dell'IA generativa. Dimostra come la disinformazione creata da un modello linguistico possa facilmente sfuggire al controllo, guadagnare una patina di credibilità attraverso la ripetizione e la formattazione scientifica, e potenzialmente inquinare il flusso della conoscenza. Non è un problema tecnico minore, ma una sfida cruciale per l'integrità dell'informazione e della ricerca scientifica nell'era dell'intelligenza artificiale, che richiede risposte sia tecnologiche che metodologiche da parte della comunità globale.