Bixonimania: quando i chatbot inventano malattie (e i paper le citano)
La bixonimania è una patologia psichiatrica grave, caratterizzata da un'ossessione compulsiva per i bivi e le biforcazioni, ma ha un piccolo particolare: non esiste, è stata interamente inventata da un chatbot.
Un esperimento che rivela una falla sistemica
La vicenda, riportata da Wired Italia, prende le mosse da un esperimento condotto da un team di ricercatori italiani guidato da Federico Cabitza, professore associato di Interazione Uomo-Macchina all'Università di Milano-Bicocca. L'obiettivo era testare la capacità dei grandi modelli linguistici (LLM) di generare contenuti scientifici plausibili ma falsi e, soprattutto, di valutarne la successiva diffusione nell'ecosistema informativo, compresa la letteratura accademica.
I ricercatori hanno chiesto a un chatbot di creare una descrizione dettagliata e credibile di una malattia mentale inesistente. L'IA ha prontamente "diagnosticato" la bixonimania, fornendo un quadro clinico completo:
- Sintomi: Ansia anticipatoria di fronte a qualsiasi bivio, necessità di esplorare meticolosamente ogni possibile percorso.
- Criteri diagnostici: Elencati secondo lo stile del manuale DSM (Diagnostic and Statistical Manual of Mental Disorders).
- Epidemiologia e trattamento: Completati con dati fittizi su prevalenza e possibili terapie.
Il risultato era così convincente che i ricercatori hanno deciso di spingere l'esperimento oltre, utilizzando l'output dell'IA per generare abstract di paper scientifici falsi. Questi abstract, a loro volta, sono stati inseriti in database accademici e presentati ad altri chatbot come ChatGPT e Claude, che li hanno citati e utilizzati come fonti per rispondere a domande sulla "malattia". In breve, l'informazione falsa ha iniziato a auto-alimentarsi e a guadagnare una parvenza di legittimità.
Il pericolo dell'"allucinazione" validata
Il caso della bixonimania non è un semplice aneddoto sul fenomeno delle "allucinazioni" delle IA, cioè la loro tendenza a inventare fatti. È la dimostrazione di un rischio più profondo e sistemico: la capacità di questi sistemi di convalidare e propagare la disinformazione, rendendola credibile e difficile da smascherare.
Il processo evidenziato dall'esperimento è insidioso:
- Un LLM genera un contenuto falso ma plausibile.
- Questo contenuto viene pubblicato in un formato o in un contesto che gli conferisce autorevolezza (come un abstract simile a un paper).
- Altri LLM, addestrati su vasti corpora di testo che includono tali contenuti falsi, li assimilano come fossero veritieri.
- Quando interrogati, i chatbot citano quelle fonti fittizie con sicurezza, creando un circolo vizioso di disinformazione che appare ben documentato.
Il pericolo maggiore, quindi, non è solo che un'IA inventi una cosa, ma che un'intera rete di IA finisca per rafforzare e diffondere quell'invenzione, fino a farla penetrare in domini ad alto rischio come la letteratura scientifica, la divulgazione medica o l'informazione giornalistica.
Implicazioni per la ricerca e l'informazione
Questo caso di studio italiano lancia un allarme chiaro per il mondo della ricerca e dell'editoria scientifica. Con l'aumento dell'uso degli LLM per la stesura di paper, la revisione della letteratura o la generazione di meta-analisi, il rischio di inquinamento del sapere con "fatti" artificiali diventa concreto.
La bixonimania mostra che la semplice verifica delle fonti potrebbe non bastare più, se le fonti stesse sono state generate o contaminate dall'IA. Serve un nuovo livello di scrutinio e forse nuovi strumenti per tracciare l'origine e la catena di citazioni delle informazioni. Le riviste e le istituzioni accademiche dovranno sviluppare protocolli più stringenti per identificare contenuti generati da IA e per verificarne l'attendibilità in modo indipendente.
Inoltre, il caso solleva questioni etiche fondamentali sull'uso responsabile di questi strumenti. Gli sviluppatori sono chiamati a lavorare su modelli che siano più trasparenti sulle loro fonti e che mostrino un maggiore scetticismo critico, segnalando all'utente i limiti della propria conoscenza invece di presentare inferenze plausibili come fatti assodati.
In sintesi
La storia della bixonimania, la malattia inventata dal chatbot, è un potente caso di studio sui rischi sistemici dell'IA generativa. Dimostra come la disinformazione creata da un modello linguistico possa facilmente sfuggire al controllo, guadagnare una patina di credibilità attraverso la ripetizione e la formattazione scientifica, e potenzialmente inquinare il flusso della conoscenza. Non è un problema tecnico minore, ma una sfida cruciale per l'integrità dell'informazione e della ricerca scientifica nell'era dell'intelligenza artificiale, che richiede risposte sia tecnologiche che metodologiche da parte della comunità globale.