banner

Notizia

Mar 14, 2024

La tendenza dei chatbot con intelligenza artificiale a dire bugie pone sfide

Il problema dei chatbot di intelligenza artificiale (AI), come ChatGPT, che generano informazioni false è una preoccupazione crescente per aziende, organizzazioni e individui. Questo problema tocca diversi ambiti, dalla psicoterapia alla scrittura giuridica. Daniela Amodei, cofondatrice del chatbot AI Claude 2, riconosce che oggi tutti i modelli soffrono di un certo grado di “allucinazioni”, poiché sono progettati principalmente per prevedere la parola successiva e spesso lo fanno in modo impreciso. Sviluppatori come Anthropic e OpenAI, che hanno creato ChatGPT, stanno lavorando attivamente per affrontare questo problema e migliorare la veridicità dei loro sistemi di intelligenza artificiale.

Tuttavia, gli esperti del settore suggeriscono che l’eliminazione completa di questo problema potrebbe non essere fattibile. La professoressa di linguistica Emily Bender spiega che la discrepanza tra la tecnologia dell'intelligenza artificiale e i casi d'uso proposti pone limitazioni intrinseche. L’affidabilità della tecnologia dell’intelligenza artificiale generativa riveste un’importanza significativa, con un contributo previsto all’economia globale compreso tra 2,6 e 4,4 trilioni di dollari. Ad esempio, Google mira a fornire prodotti di intelligenza artificiale per la scrittura di notizie alle testate giornalistiche, sottolineando la necessità di accuratezza.

Le implicazioni delle informazioni false si estendono oltre i testi scritti. L’informatico Ganesh Bagler, in collaborazione con istituti di gestione alberghiera in India, ha sfruttato i sistemi di intelligenza artificiale per inventare ricette. Risultati imprecisi possono fare una differenza sostanziale nel gusto e nella qualità di un pasto, sottolineando la necessità di precisione nell’intelligenza artificiale generativa.

Mentre il CEO di OpenAI Sam Altman rimane ottimista riguardo al miglioramento della tendenza dei sistemi di intelligenza artificiale a produrre informazioni false, gli scettici come Bender sostengono che i miglioramenti potrebbero non essere sufficienti. I modelli linguistici sono progettati principalmente per prevedere sequenze di parole basate su dati di addestramento e l’output che generano è essenzialmente scrittura creativa piuttosto che informazioni fattuali. Questi modelli tendono a fallire in modi sottili che sono difficili da identificare per i lettori.

Nonostante le preoccupazioni, alcune aziende considerano la tendenza dei chatbot IA a generare informazioni false come una caratteristica preziosa. Le società di marketing, come Jasper AI, sfruttano i risultati creativi dell'intelligenza artificiale per generare idee uniche per le presentazioni dei clienti. Tuttavia, la richiesta di contenuti accurati rimane elevata e aziende come Google stanno compiendo sforzi per affrontare il problema.

Bill Gates e altri sostenitori dell’intelligenza artificiale esprimono ottimismo sul fatto che si possano apportare miglioramenti per aiutare i modelli di intelligenza artificiale a distinguere tra realtà e finzione. Tuttavia, resta da vedere se in futuro sarà possibile raggiungere la completa precisione nel testo generato dall’intelligenza artificiale.

CONDIVIDERE