Gli strumenti di intelligenza artificiale generativa sono ormai inevitabilmente su tutti i nostri smartphone. Nelle mani ormai di soggetti di qualunque età. Sarebbe il caso di discutere pubblicamente la gestione dell'altrettanto inevitabile interazione tra questi strumenti e la scuola, di ogni ordine e grado.
Io penso che il problema vada prima di tutto diviso per fasce di età. Nella scuola primaria e in quella secondaria inferiore l'uso dei tool di IA dovrebbe forse essere totalmente esclusa, e soprattutto credo che fino a quella età la cosa sia ancora abbastanza possibile. Nella secondaria superiore non solo l'esclusione dell'interazione con questi strumenti non può essere del tutto evitata ma forse non è neanche positivo che lo sia. Piuttosto il loro utilizzo dovrebbe essere discusso in classe, spiegato per quanto possibile, analizzato nelle sue potenzialità e nei suoi problemi, per poi essere in generale fortemente limitato nel lavoro scolastico, ma con la consapevolezza dei ragazzi e sperabilmente anche la con la loro collaborazione. Infine a livello universitario l'uso di questi strumenti è ovviamente libero e sotto la responsabilità dello studente, che a questo punto dovrebbe aver maturato il giusto grado di consapevolezza.
Rimane il fatto che, dal punto di vista didattico, e a qualunque età, l'uso di strumenti di AI, ha delle chiare controindicazioni:
- Generano un eccessiva fiducia nelle spiegazioni che forniscono ("effetto oracolo").
- Possono dare risposte parzialmente false.
- Il loro addestramento è sotto il controllo delle big tech.
- Tendono a far escludere l'importanza della pluralità delle fonti nello studio.
- Possono impigrire l'utilizzatore (effetto anche psicologico).
La cosa estremamente importante è la seguente: non è pensabile censurare completamente l'uso di questi strumenti in ambito scolastico, sarebbe equivalente a crescere una generazione di cittadini fuori dal contesto reale e complesso delle società future, quelle in cui si troveranno a vivere.
L'altra cosa estremamente importante è la seguente: è rischioso lasciare i ragazzi in età formativa accedere a questi strumenti senza una preparazione adeguata, senza aver sviluppato verso di essi un adeguato atteggiamento critico; il rischio è quello di non riuscire a sviluppare la necessaria libertà di pensiero nei confronti di tecnologie così complesse.
In particolare è importante di fronte a queste tecnologie cambiare quell'atteggiamento nei confronti dei computer che ci accompagna ormai da qualche generazione. Il computer è da sempre immaginato (e usato) come una macchina perfetta e deterministica, e fino ad oggi questa immagine era adeguata. Ma i modelli di intelligenza artificiale sacrificano la perfezione e si espongono all'errore per poter avere la giusta flessibilità rispetto ai compiti che devono svolgere, per poter aggiustare il tiro, per poter imparare.
Se sto davanti a un chatbot di IA devo essere consapevole che lui non è progettato per dare risposte vere e affidabili, bensì per dare sempre risposte plausibili. E questo può rendere il rapporto con esso difficile, perché con una certa probabilità posso ottenere da lui risposte false (allucinazioni) ma perfettamente plausibili. Il mio compito è quello di mantenere un atteggiamento di continua verifica di questa plausibilità, con azioni che possono essere faticose ma necessarie.
Si tratta in fondo di passare dall'immaginare di avere davanti una macchina perfetta (il computer, come lo abbiamo finora conosciuto) all'immaginare di avere davanti una cosa che in fondo assomiglia un po' di più ad un essere umano, da cui è scontato che non ci aspettiamo mai la perfezione, neanche se ci fidiamo.
Questi ultimi sono i temi della formazione su cui sarebbe importante lavorare.
Nessun commento:
Posta un commento