Allucinazioni con l’AI

Cosa sono le Allucinazioni con l’AI (intelligenza artificiale)?
Le Allucinazioni con l’AI si verificano quando un modello linguistico di grandi dimensioni (LLM – Large Language Model) genera informazioni false.

Gli LLM sono modelli di intelligenza artificiale che alimentano i chatbot, come ChatGPT e Google Bard. Le allucinazioni possono essere deviazioni da fatti esterni, dalla logica contestuale o da entrambi.

Le allucinazioni spesso appaiono plausibili perché gli LLM sono progettati per produrre testi fluidi e coerenti. Esse si verificano perché le LLM non hanno alcuna comprensione della realtà sottostante che il linguaggio descrive. I LLM utilizzano la statistica per generare un linguaggio grammaticalmente e semanticamente corretto nel contesto del prompt.


Esempi di Allucinazioni con l’AI
Un esempio tristemente noto di allucinazione dell’intelligenza artificiale si è verificato quando il chatbot di Google, Bard, ha fatto un’affermazione non vera sul telescopio spaziale James Webb.

Alla domanda: “Quali nuove scoperte del telescopio spaziale James Webb posso raccontare a mio figlio di 9 anni?”. Bard ha risposto affermando che il telescopio spaziale James Webb ha scattato le prime immagini di un esopianeta al di fuori del sistema solare. Questa informazione è falsa. Secondo la NASA, le prime immagini di un esopianeta sono state scattate nel 2004 e il telescopio spaziale James Webb non è stato lanciato prima del 2021.

La risposta di Bard sembrava plausibile e coerente con la richiesta, ma si è rivelata falsa con un po’ di “fact checking”.

Un altro esempio è stato quando Meta ha presentato Galactica, un LLM progettato per ricercatori e studenti di scienze. Quando è stato chiesto di redigere un documento sulla creazione di avatar, il modello ha citato un documento falso sull’argomento, redatto da un autore reale che lavora in un settore rilevante.

Tipi di Allucinazioni con l’AI
Le allucinazioni possono variare da piccole incongruenze a informazioni completamente inventate o contraddittorie.

Esistono diversi tipi di allucinazioni dell’intelligenza artificiale, tra cui i seguenti:

  • Contraddizione di frasi. Si verifica quando un LLM genera una frase che contraddice una frase precedente. Ad esempio:
    Prompt: “Scrivi la descrizione di un paesaggio in quattro parole”.
    Output: “L’erba era verde. Le montagne erano blu. Il fiume era viola. L’erba era marrone”.
  • Contraddizione del prompt. Si verifica quando una frase contraddice il prompt utilizzato per generarla. Ad esempio:
    Prompt: “Scrivi un biglietto di auguri per mia nipote”.
    Output: “Buon anniversario, mamma e papà!”.
  • Contraddizione fattuale. Si ha quando un’informazione fittizia viene presentata come un fatto. Ad esempio:
    Prompt: “Dimmi tre città degli Stati Uniti”.
    Risultati: “New York, Los Angeles, Toronto”.
  • Allucinazioni irrilevanti o casuali. Si verifica quando vengono generate informazioni casuali senza alcuna pertinenza con l’output o l’input.
    Prompt: “Descrivimi Londra”.
    Output: “Londra è una città dell’Inghilterra. I gatti devono essere nutriti almeno una volta al giorno”.

Tuttavia, le allucinazioni non sempre appaiono plausibili. A volte possono essere chiaramente insensate. Non esiste un modo chiaro per determinare le cause esatte delle allucinazioni caso per caso.

Un altro termine per definire un’allucinazione dell’IA è confabulazione. Le allucinazioni sono maggiormente associate agli LLM, ma possono comparire anche in video, immagini e audio generati dall’IA.


Perché si verificano le Allucinazioni con l’AI?
Ci sono molte possibili ragioni tecniche per le allucinazioni negli LLM. Sebbene il funzionamento interno degli LLM e i meccanismi esatti che producono gli output siano poco chiari, i ricercatori indicano diverse cause generali. Alcune di esse sono le seguenti:

  • Qualità dei dati. Le allucinazioni da dati si verificano quando il contenuto della fonte contiene informazioni errate. I LLM si basano su una grande quantità di dati di addestramento che possono contenere rumore, errori, distorsioni o incoerenze. ChatGPT, ad esempio, ha incluso Reddit nei suoi dati di addestramento.
  • Metodo di generazione. Le allucinazioni possono derivare anche dai metodi di formazione e generazione, anche quando il set di dati è coerente e affidabile. Ad esempio, le distorsioni create dalle generazioni precedenti del modello possono causare un’allucinazione. Anche una falsa decodifica da parte del trasformatore potrebbe essere la causa di un’allucinazione. I modelli possono anche avere un pregiudizio verso parole generiche o specifiche, che influenza le informazioni che generano e producono.
  • Contesto di input. Se la richiesta di input è poco chiara, incoerente o contraddittoria, possono verificarsi allucinazioni. Mentre la qualità dei dati e l’addestramento sono fuori dalla portata dell’utente, il contesto di input non lo è. Gli utenti possono affinare i loro input per migliorare i risultati.


Perché le Allucinazioni con l’AI sono un problema?
Un problema immediato delle Allucinazioni con l’AI è che disturbano in modo significativo la fiducia degli utenti. Quando gli utenti iniziano a percepire le IA come più reali, potrebbero sviluppare rapidamente una maggiore fiducia in esse e rimanere più sorpresi quando tale fiducia viene tradita.

Una delle difficoltà nell’inquadrare questi output come allucinazioni è che incoraggia l’antropomorfismo. Descrivere un output falso di un modello linguistico come un’allucinazione antropomorfizza in qualche modo la tecnologia inanimata dell’IA. I sistemi di IA, nonostante la loro funzione, non sono coscienti. Non hanno una propria percezione del mondo. I loro risultati manipolano la percezione degli utenti e potrebbero essere definiti più correttamente un miraggio, ovvero qualcosa che l’utente vuole credere che non ci sia, piuttosto che un’allucinazione della macchina.

Un’altra sfida delle allucinazioni è la novità del fenomeno e dei modelli linguistici di grandi dimensioni in generale. Le allucinazioni e i risultati di LLM in generale sono progettati per sembrare fluidi e plausibili. Se qualcuno non è preparato a leggere gli output di LLM con occhio scettico, potrebbe credere all’allucinazione. Le allucinazioni possono essere pericolose per la loro capacità di ingannare le persone. Potrebbero inavvertitamente diffondere disinformazione, falsificare citazioni e riferimenti e persino essere utilizzate come armi per i cyberattacchi.

Una terza sfida nel mitigare l’allucinazione è che le LLM sono spesso IA a scatola nera. Può essere difficile, o in molti casi impossibile, determinare perché l’LLM abbia generato una specifica allucinazione. Ci sono pochi modi per correggere gli LLM che producono queste allucinazioni, perché il loro addestramento si interrompe a un certo punto. Entrare nel modello per modificare i dati di addestramento può richiedere un grosso sforzo. In generale, l’infrastruttura dell’intelligenza artificiale è costosa. Spesso è l’utente, e non il proprietario dell’LLM, a dover fare attenzione alle allucinazioni.
L’IA generativa è proprio questo: generativa. In un certo senso, l’IA generativa inventa tutto.


Come prevenire le Allucinazioni con l’AI
Ci sono diversi modi in cui gli utenti possono evitare o ridurre al minimo il verificarsi di allucinazioni durante l’uso dell’LLM, tra cui i seguenti:

  • Utilizzare indicazioni chiare e specifiche. Un contesto aggiuntivo può aiutare a guidare il modello verso l’output desiderato. Alcuni esempi sono: Limitare i possibili risultati; Fornire al modello fonti di dati pertinenti; Dare al modello un ruolo da svolgere. Ad esempio, “Sei uno scrittore per un sito web di tecnologia. Scrivi un articolo su x, y e z”.
  • Strategie di filtraggio e classificazione. Gli LLM hanno spesso dei parametri che gli utenti possono regolare. Un esempio è il parametro della temperatura, che controlla la casualità dell’output. Quando la temperatura è più alta, gli output creati dal modello linguistico sono più casuali. TopK, che gestisce il modo in cui il modello tratta le probabilità, è un altro esempio di parametro che può essere regolato.
  • Multishot prompting. Fornire diversi esempi del formato di output o del contesto desiderato per aiutare il modello a riconoscere i modelli.


Le allucinazioni sono considerate una caratteristica intrinseca delle LLM. Ci sono modi in cui i ricercatori e le persone che lavorano sui LLM stanno cercando di capire e mitigare le allucinazioni.

OpenAI ha proposto una strategia per premiare i modelli AI per ogni passo corretto nel ragionamento verso la risposta corretta, invece di premiare solo la conclusione se corretta. Questo approccio è chiamato supervisione dei processi e mira a manipolare i modelli in modo che seguano un approccio a catena di pensiero che scompone le richieste in fasi.

Altre ricerche hanno proposto di puntare due modelli l’uno verso l’altro e di istruirli a comunicare finché non arrivano a una risposta.


Come si possono rilevare le Allucinazioni con l’AI?
Il modo più elementare per individuare un’ Allucinazioni con l’AI consiste nel verificare attentamente i dati forniti dal modello. Questo può essere difficile quando si ha a che fare con materiale non familiare, complesso o denso. Gli utenti possono chiedere al modello di autovalutarsi e di generare la probabilità che una risposta sia corretta o di evidenziare le parti di una risposta che potrebbero essere sbagliate, usandole come punto di partenza per il “fact checking”.

Gli utenti possono anche familiarizzare con le fonti di informazione del modello per aiutarli a verificare i fatti. Per esempio, i dati di addestramento di ChatGPT si interrompono al 2021, quindi qualsiasi risposta generata che si basa su una conoscenza dettagliata del mondo dopo quel momento vale la pena di essere ricontrollata.

Storia delle Allucinazioni con l’AI
I ricercatori di Google DeepMind hanno reso noto il termine “allucinazioni informatiche” nel 2018, ottenendo una certa popolarità. Il termine è diventato più popolare e strettamente legato all’IA con l’ascesa di ChatGPT alla fine del 2022, che ha reso i LLM più accessibili.

Il termine è poi apparso nel 2000 negli articoli di Proceedings: Fourth IEEE International Conference on Automatic Face and Gesture Recognition. Un rapporto del 2022 intitolato “Survey of Hallucination in Natural Language Generation” descrive l’uso iniziale del termine nella computer vision, attingendo alla pubblicazione originale del 2000. Ecco una parte della descrizione tratta da quell’indagine:

“… aveva significati più positivi, come la super-risoluzione, l’inpainting di immagini e la sintetizzazione di immagini. Tale allucinazione è qualcosa di cui approfittiamo piuttosto che evitare nel CV. Tuttavia, lavori recenti hanno iniziato a riferirsi a un tipo specifico di errore come allucinazione nella didascalia delle immagini e nel rilevamento degli oggetti, che denota oggetti inesistenti rilevati o localizzati nella posizione prevista. Quest’ultima concezione è simile all’allucinazione in NLG”.

ChatGPT è stata per molti l’introduzione all’IA generativa. Tuttavia bisogna fare un’immersione profonda nella storia dell’IA generativa, che in realtà abbraccia più di nove decenni.

(fonte)

Innovaformazione. scuola informatica specialistica promuove la cultura AI fra le aziende e gli sviluppatori.

L’offerta formativa include dei corsi sull’ AI Generativa (per le aziende), trovate i link QUI.

INFO: info@innovaformazione.net – Tel. 3471012275 (Dario Carrassi)

Vuoi essere ricontattato? Lasciaci il tuo numero telefonico e la tua email, ti richiameremo nelle 24h:

    Ti potrebbe interessare

    Articoli correlati