Quando ChatGPT è arrivato al grande pubblico, mi è sembrato un momento di svolta, forse addirittura una rivoluzione. Poi mi sono chiesto piuttosto chiesto da quanto i colossi usavano questa tecnologia perché pur non essendo esperto, né competente, supponevo che gli algoritmi usati per gestire social network, motori di ricerca e altri servizi si basassero su principi informatici simili. All'inizio c'era d'aspettarsi un entusiasmo esagerato e l’insistenza sull’“intelligenza” artificiale, che in realtà non ha nulla di intelligente: è solo la versione moderna di ELIZA.
Immagine presa da Wikipedia.
Non mi ha sorpreso, allora, che mentre il grande pubblico come me iniziava a conoscere questi strumenti, si cominciasse a parlare di singolarità tecnologica, di rischi di una civiltà dominata dalle macchine. Ma chiunque si sia cimentato anche solo per pochi minuti con un modello linguistico (LLM) ha potuto rendersi conto che non c’è vera intelligenza, solo una sofisticata simulazione (per approfondire la questione consiglio questo articolo e poi quest'altro); non c’è il rischio che le macchine prendano il controllo, ma si apre comunque un nuovo mondo che ha bisogno di regole. Mi era capitato di leggere un’analisi molto acuta che spiegava come la regolamentazione fosse necessaria non per impedire la fine della civiltà umana — alla Terminator — ma per definire chi è responsabile delle conseguenze dell’uso di queste tecnologie. Devo informarmi meglio su questi argomenti.
Per questo mi stupisce che ci siano ancora persone che, pur non sapendo cosa siano i modelli linguistici, ne parlino a sproposito, dimostrando che non basta essere colti e intelligenti per essere informati. Credo che sia in senso lato uno degli effetti previsti all'inizio di Internet dall'economia della coda lunga e di una famosa citazione di Umberto Eco (e forse devo riflettere un po' anche su questo tema).
Ma mi stupisce ancora di più che i media diano spazio a analisi così banali e insulse, che non meriterebbero neppure un posto tra i pesci d’aprile.
I modelli di intelligenza artificiale di cui si parla oggi non sono soggetti dotati di anima, opinioni o coscienza. Porre loro domande sulla coscienza, su Dio o sulla cronaca recente è profondamente sbagliato, per due motivi fondamentali:
- La natura della tecnologia: I modelli linguistici non hanno coscienza, intenti o pensieri propri. Sono strumenti che generano testo statisticamente probabile in base ai dati su cui sono addestrati. Chiedere a un’IA “cosa ne pensi” non produce una riflessione originale, ma una media ponderata di ciò che è stato scritto online su quel tema.
- L’effetto ELIZA: È il fenomeno psicologico per cui, dialogando con un bot conversazionale, gli si attribuiscono empatia e comprensione, come se avesse emozioni umane. È un’illusione pericolosa, e la cronaca riporta già casi in cui questo effetto ha avuto conseguenze tragiche. Perché, allora, i giornali dovrebbero alimentare questi errori?
Credo che questo sia uno dei tanti specchietti per le allodole che i media decadenti della nostra epoca usano per sopravvivere, invece di evolversi. Invece di spiegare la complessità dei modelli — i bias, le risposte non veritiere (allucinazioni), i dilemmi sulla privacy e sui diritti d'autore, l’impatto ambientale dei centri di elaborazione dati o le questioni etiche — il giornalismo si riduce a mettere in scena uno spettacolo. Pubblicare un’intervista a un bot è come intervistare il polpo di turno sull’esito di una partita di calcio: un errore metodologico che fa perdere autorevolezza alle testate.
Mentre ci concentriamo su quanto l’IA sembri “gentile” o “umana” nei suoi toni preimpostati, ignoriamo i veri temi che richiederebbero studio e competenza. Dovremmo intervistare i ricercatori, analizzare i casi d’uso reali in medicina, giustizia o educazione, ma anche per ciascuno di noi e discutere di regolamentazione. L’intelligenza artificiale non “vuole” diventare padrona del mondo — non ha ambizioni né fame di potere — ma è uno strumento potente nelle mani di chi lo possiede e lo governa. È su questo che l’attenzione pubblica dovrebbe focalizzarsi.
Non è più il tempo di trattare l’IA come un fenomeno da baraccone o un interlocutore filosofico. L’intelligenza artificiale è uno strumento, non un individuo. Continuare a umanizzarla non aiuta le persone a capire i cambiamenti in atto, ma contribuisce solo a una cultura dell’ignoranza consapevole.

Nessun commento:
Posta un commento