Tempo fa stavo seguendo un interessante podcast sull'intelligenza artificiale. Lo speaker stava facendo un esempio per spiegare il noto fenomeno delle allucinazioni cognitive in cui incorrono attualmente le AI. L'esempio consisteva nel chiedere a ChatGPT informazioni sulla fondazione Bruno Kessler. Si tratta di un istituto di ricerca, le aree più note dove agisce sono proprio l'intelligenza artificiale, la cybersecurity, la medicina, la sostenibilità energetica, ecc.
ChatGPT a questa richiesta rispondeva con una certa esattezza ma poi imboccava un'allucinazione cominciando a dire che Bruno Kessler era stato un famoso scienziato e dando informazioni sulla sua attività di ricerca. Peccato che Bruno Kessler, come dice anche Wikipedia, è stato in realtà un politico italiano, presidente della Provincia autonoma di Trento dal 1960 al 1974. La spiegazione che lo speaker dava di questa allucinazione era la seguente: poichè con grande probabilità un istituto scientifico viene sempre intitolato ad una figura di scienziato, ChatGPT ha proseguito la sua spiegazione aggiungendo notizie molto plausibili ma del tutto false sulla persona a cui tale istituto era dedicato. Lo speaker ha anche aggiunto che ora le ultime versioni di ChatGPT questo errore non lo fanno più, perché il comportamento dell'agente viene migliorato con dati acquisiti direttamente dalle fonti, aumentando così l'attendibilità delle risposte. Effettivamente è facile verificarlo.
Ma la cosa mi ha particolarmente colpito perché ho subito pensato ad un vecchio episodio di un mio compagno di liceo (episodio per il quale viene ancora preso in giro da tutta la classe) che è esattamente lo stesso tipo di allucinazione. E' un'interrogazione su Dante, lui è impreparato e sta nelle condizioni in cui l'unica possibilità per dire qualcosa è mettere insieme stralci di informazioni raccolte da quel poco che si ricorda con la speranza di tirar fuori da queste un assemblaggio il più possibile sensato e plausibile. Condizioni tutto sommato molto simili a quelle di un LLM come ChatGPT. Non gli riesce molto bene e la prof si spazientisce. Lo incalza con domande sempre più precise e infine gli domanda esplicitamente "ma insomma, chi era Farinata?", e lui, sempre cercando una risposta plausibile, se ne esce con "era una donna ...".
Il meccanismo dell'allucinazione è esattamente lo stesso. Non ho informazioni sicure sul soggetto in questione ma con buona probabilità, davanti ad un nome che termina con la "a" troverò conveniente cominciare la risposta col dire che si tratta di una donna. Plausibile ma purtroppo falso. Il nostro caro compagno è stato vittima di allucinazioni cognitive come ChatGPT. Se avesse potuto accedere ad un suggerimento di un compagno si sarebbe corretto anche lui, come ChatGPT.
Nessun commento:
Posta un commento