mercoledì 28 febbraio 2024

Una definizione degli LLM

In un suo articolo su un almanacco di Micromega il filosofo dell'infosfera Luciano Floridi caratterizza con poche ed efficaci considerazioni gli LLM (Large Language Model), cioè quei software di intelligenza artificiale che elaborano il linguaggio naturale con sorprendente efficacia. In particolare mi ha colpito un'analogia, probabilmente buona solo in parte, ma interessante perché demistifica l'intelligenza artificiale e la riporta per analogia a qualcosa a cui siamo abituati da molto tempo. Questa analogia viene evidenziata da un tentativo di definire in sintesi questi nuovi strumenti, di cui al momento ChatGPT costituisce l'esempio più popolare. Secondo Floridi ChatGPT può essere definito come "calcolatrice tascabile testuale inaffidabile". In effetti una vecchia calcolatrice (dico vecchia perché sto parlando di dispositivi con cui la mia generazione è cresciuta ma che da un po' di tempo non si usano più) ha un'abilità di calcolo sensazionale, paragonata all'uomo, ma nonostante ciò non induce nessun pensiero "preoccupato" per il nostro futuro (o forse a suo tempo lo ha fatto?). Floridi giustifica la sua definizione con la seguente affermazione: "Un LLM fa con il linguaggio quello che una calcolatrice fa con i numeri: il primo crea risposte alle domande senza avere una comprensione del linguaggio che genera, così come la seconda crea risposte matematiche senza avere una comprensione di cosa sia la matematica. E come una calcolatrice, ChatGPT produce le risposte senza una banca dati".

C'è però un'importante differenza tra i due strumenti, e la definizione di Floridi cerca di tenerne conto. La calcolatrice è un oggetto che esegue calcoli matematici e per questo utilizza algoritmi deterministici, dato un certo input l'output prodotto è sempre lo stesso, e sarebbe strano se non fosse così, visto che stiamo parlando di conti. Dunque la calcolatrice è uno strumento estremamente affidabile. Un LLM invece elabora il linguaggio naturale, sarebbe strano se a fronte di uno stesso input producesse esattamente lo stesso output. L'algoritmo di un LLM (come quelli dell'ultima generazione delle IA) è infatti di tipo probabilistico. Ciò non consente ad un LLM di essere sempre "perfetto" (come lo è una calcolatrice), spesso risulta inaffidabile, ma proprio per questo ha una capacità di imparare, ed è in fondo la caratteristica che avvicina il suo comportamento a quello di un essere umano, fino al punto di creare "preoccupazioni". Floridi sottolinea questa differenza con la frase seguente: "Un LLM è soggetto ad 'artefatti probabilistici' (allucinazioni). Questo aspetto è ineliminabile per la natura statistica dello strumento, che a volte funziona male. La calcolatrice, che è deterministica, o funziona o non funziona. L'unico modo per ridurre al minimo gli errori intrinseci di un LLM è migliorare lo strumento nelle sue versioni successive, con ancora più soldi, ancora più parametri, ancora più dati con cui allenarlo, perché l'errore è più probabile là dove c'è meno addestramento".


1 commento:

MarcoS ha detto...

A me queste funzionalità fanno impressione.
Perché tutti i limiti sono evidenti, ma non mi "tranquillizzano", considerando che anche noi abbiamo tutti i nostri limiti... il fatto che noi siamo "organici" e questi "cervelli" siano "inorganici" fa tutta questa differenza? e poi, il fatto che questi oggetti siano in mano ai capitalisti, il cui unico scopo è il guadagno, mi tranquillizza ancora meno.
L'unico modo per cercare di uscire dall'inquietudine è quello di cercare di capire meglio, mettere più a fuoco le questioni, quindi grazie per il contributo, Rodolfo.
Marco S.