mercoledì 28 febbraio 2024

Una definizione degli LLM

In un suo articolo su un almanacco di Micromega il filosofo dell'infosfera Luciano Floridi caratterizza con poche ed efficaci considerazioni gli LLM (Large Language Model), cioè quei software di intelligenza artificiale che elaborano il linguaggio naturale con sorprendente efficacia. In particolare mi ha colpito un'analogia, probabilmente buona solo in parte, ma interessante perché demistifica l'intelligenza artificiale e la riporta per analogia a qualcosa a cui siamo abituati da molto tempo. Questa analogia viene evidenziata da un tentativo di definire in sintesi questi nuovi strumenti, di cui al momento ChatGPT costituisce l'esempio più popolare. Secondo Floridi ChatGPT può essere definito come "calcolatrice tascabile testuale inaffidabile". In effetti una vecchia calcolatrice (dico vecchia perché sto parlando di dispositivi con cui la mia generazione è cresciuta ma che da un po' di tempo non si usano più) ha un'abilità di calcolo sensazionale, paragonata all'uomo, ma nonostante ciò non induce nessun pensiero "preoccupato" per il nostro futuro (o forse a suo tempo lo ha fatto?). Floridi giustifica la sua definizione con la seguente affermazione: "Un LLM fa con il linguaggio quello che una calcolatrice fa con i numeri: il primo crea risposte alle domande senza avere una comprensione del linguaggio che genera, così come la seconda crea risposte matematiche senza avere una comprensione di cosa sia la matematica. E come una calcolatrice, ChatGPT produce le risposte senza una banca dati".

C'è però un'importante differenza tra i due strumenti, e la definizione di Floridi cerca di tenerne conto. La calcolatrice è un oggetto che esegue calcoli matematici e per questo utilizza algoritmi deterministici, dato un certo input l'output prodotto è sempre lo stesso, e sarebbe strano se non fosse così, visto che stiamo parlando di conti. Dunque la calcolatrice è uno strumento estremamente affidabile. Un LLM invece elabora il linguaggio naturale, sarebbe strano se a fronte di uno stesso input producesse esattamente lo stesso output. L'algoritmo di un LLM (come quelli dell'ultima generazione delle IA) è infatti di tipo probabilistico. Ciò non consente ad un LLM di essere sempre "perfetto" (come lo è una calcolatrice), spesso risulta inaffidabile, ma proprio per questo ha una capacità di imparare, ed è in fondo la caratteristica che avvicina il suo comportamento a quello di un essere umano, fino al punto di creare "preoccupazioni". Floridi sottolinea questa differenza con la frase seguente: "Un LLM è soggetto ad 'artefatti probabilistici' (allucinazioni). Questo aspetto è ineliminabile per la natura statistica dello strumento, che a volte funziona male. La calcolatrice, che è deterministica, o funziona o non funziona. L'unico modo per ridurre al minimo gli errori intrinseci di un LLM è migliorare lo strumento nelle sue versioni successive, con ancora più soldi, ancora più parametri, ancora più dati con cui allenarlo, perché l'errore è più probabile là dove c'è meno addestramento".


lunedì 12 febbraio 2024

Modelli e realtà

Classica e ormai frequente è la discussione sul gender-fluid, stimolata dall'esperienza dei nostri figli, molto diversa da quella che è stata la nostra alla loro età. Loro convivono molto di più di quanto abbiamo fatto noi con l'omosessualità e con la condizione transgender, sono molto più abituati di noi ad accettarla, e questo è piuttosto evidente. Noi abbiamo le nostre brave difficoltà, essendo vissuti in una società in cui tutto ciò era molto poco visibile e faceva ancora parte spesso di discussioni goliardiche, oggi quasi totalmente scomparse (sembrerebbe).

Dal momento che la natura ci mostra, per gran parte degli aspetti biologici che possiamo quotidianamente osservare, uno spettro di soluzioni pressoché infinito, è un po' strano che questa ampiezza di spettro non si presenti anche nella sfera sessuale, dove invece pretendiamo di avere una classificazione ben marcata tra sesso maschile e sesso femminile, con orientamento totalmente eterosessuale. Si tratta evidentemente di un modello culturale più che di una situazione reale. I modelli del mondo sono il fondamento della costruzione della conoscenza ma occorre sempre confrontarli con la realtà, il rischio è che altrimenti questa realtà non riusciamo più a coglierla, perché il nostro modello la ricopre (e la nasconde).

Le dottrine religiose in questo sono state un fattore determinante anche se certamente non unico. Una dottrina è sempre l'imposizione di un modello del mondo sulla realtà, da cui si fa discendere anche tutta una serie di comportamenti coerenti con questo modello. Il modello può essere così efficacemente introiettato che non se ne percepisce più il suo eventuale distacco dalla realtà, anzi, da un certo punto in poi si tende a forzare l'appiattimento della realtà sul modello.

La società sempre più secolarizzata è sempre più indipendente da modelli dottrinali, li sta smontando e probabilmente ci sta dando una maggiore capacità di vedere la complessità del reale. Dico probabilmente perché la dipendenza da eventuali "altri" modelli che siamo costantemente portati a farci e l'attaccamento ad essi che tendiamo a sviluppare per motivi di sicurezza e conforto ci minacciano costantemente.