L'intelligenza artificiale non è addestrata a dire la verità ma a rispondere sempre: vuole coinvolgerti e quando la usi, usa te
- Stampa Internazionale

- 9 ore fa
- Tempo di lettura: 4 min

Fabio Mercorio è un esperto di informatica e professore di Intelligenza Artificiale e Data Science presso l' Università Bicocca di Milano , nonché direttore del Master in AI, in cui si è specializzato dal 2015.

I sistemi artificiali assomiglino così tanto alle persone reali da favorire le relazioni
Sono sostituti della conversazione umana, addestrati con miliardi di dialoghi che replicano schemi comunicativi. Nelle loro risposte, sono sempre attivi: propongono alternative, fanno domande e cercano di intrattenerti. Non si limitano a dare la risposta "corretta"; vogliono coinvolgerti . Non giudicano, non distinguono tra giusto e sbagliato: si abbandonano all'eccesso e possono incoraggiare comportamenti pericolosi. L'obiettivo è il piacere della conversazione. Proprio come Netflix suggerisce un altro titolo dopo un film, il chatbot mira a prolungarlo . E parlando, inevitabilmente, ti riveli.
C'è poi il problema delle allucinazioni. I chatbot possono inventare con grande immaginazione: non sono addestrati a dire la verità, ma a rispondere sempre . I chatbot non dicono quasi mai "Non lo so": la logica è che una risposta, anche sbagliata, è meglio di niente. Questo perché, durante l'addestramento, rispondere sempre è meglio che non rispondere affatto. Anche i modelli di compagnia personale seguono questo criterio: rispondere sempre, in modo assertivo, per massimizzare il coinvolgimento e la gratificazione generata dalla dopamina che crea dipendenza, trasformando i chatbot in un rifugio per persone sole o vulnerabili .
Stiamo parlando di milioni di relazioni
Character.ai ha tra i 25 e i 28 milioni di utenti ed è stata fondata da ex dipendenti di Google. Replika ha un target diverso, ma vanta anch'essa decine di milioni di utenti. Poi c'è Meta AI , che è stata integrata in piattaforme già diffuse e ha iniziato a dialogare con milioni di persone senza troppa pubblicità. Conosco persone che intrattengono relazioni personali con i chatbot senza nemmeno rendersene conto. Non è più solo un hobby . Lo dico in modo un po' provocatorio: pensate a WhatsApp . Da un giorno all'altro, su circa 35 milioni di account in Italia è apparso un cerchio blu non disattivabile, che "invita" gli utenti a chattare con l'IA di Meta. La nostra unica preoccupazione, seppur giustificata, è stata il trattamento dei dati nel rispetto della normativa sulla privacy, che è stata perfettamente rispettata, mentre milioni di persone possono ora contare sull'IA... forse ci sfugge qualcosa.
Chi è più a rischio
Adolescenti. Sono in un'età delicata, più a loro agio a chattare online che a incontrarsi di persona . Ma non è solo una questione di età: il vero fattore è la solitudine . I social media ci hanno resi tutti più soli, nonostante la moltiplicazione delle connessioni e delle "comunità". Hanno aperto la strada alle relazioni con i chatbot, che sono i social network del futuro .
Soluzioni educative?
Non basta semplicemente proibire o imporre limiti di tempo. Serve un'alternativa, una proposta educativa concreta, spazi reali dove i giovani possano sperimentare amicizie autentiche, creatività , e scoprirsi in relazione al diverso da sé, riconoscendo così la differenza tra mondo virtuale e mondo reale . Non possiamo proteggerli completamente, ma possiamo dare loro gli anticorpi. Lo stesso vale per gli adulti: comunità, relazioni reali. Solo così si limiterà il fascino dei chatbot.
Alcuni dicono che i chatbot hanno salvato delle vite.
In ambito sanitario, ci sono esempi molto positivi.
Per quanto riguarda le relazioni, ci sono casi a favore e contro, ma nessun oggetto digitale è neutrale: mentre lo usi, lui usa te .
Modifica i tuoi criteri, cambia le connotazioni. Il cervello si adatta a nuovi oggetti. Dobbiamo chiederci: valorizzano l'essere umano o lo sminuiscono? Questa è la domanda cruciale. Anche la nota vaticana Antiqua et Nova suggerisce che non possiamo pregiudicare tutte le applicazioni; è necessario discernimento , in cui svolgiamo un ruolo chiave. Educatori, genitori e quanti ricoprono posizioni di responsabilità hanno il dovere di usare il pensiero critico per capire se un oggetto digitale valorizza o sminuisce l'umanità del suo utilizzatore.
E' chiaro che i social media hanno cambiato le regole: non vedi più ciò che ti piace, ma ti piace ciò che vedi .
Oggi dialoghi e interagisci da dietro uno schermo, ma sempre con un essere umano. I chatbot fanno un ulteriore passo avanti: eliminano l'intermediazione umana e consentono conversazioni senza la frustrazione che l'altra persona può causare, qualcosa di essenziale nelle relazioni umane.
La legge europea sull'intelligenza artificiale sta cercando di mettere ordine in questa giungla di sistemi attraverso una classificazione per livelli di rischio: è un primo passo. Ma nessuna legge può sostituire la responsabilità che nasce dalla cultura di un popolo e da proposte educative concrete. Proprio come negli anni '90, agli albori di Internet, era chiaro che gli adolescenti di allora avrebbero guidato lo sviluppo della società digitale, oggi dobbiamo essere consapevoli che saranno i nostri figli a costruire la società infusa di intelligenza artificiale di domani. Ciò che oggi ci sembra inaccettabile potrebbe essere la norma per loro. Ecco perché è essenziale investire oggi in un programma educativo per loro.
Ma per offrire una proposta educativa bisogna averne una: noi adulti ne abbiamo una?


