Utile e ingannevole.
Funzionava… troppo bene.
Nell’inverno del 1966, in un laboratorio del MIT, uno scienziato tedesco di nome Joseph Weizenbaum lanciò per la prima volta un programma che avrebbe cambiato la storia dell’informatica… anche se non nel modo in cui si aspettava.
Quella macchina, progettata come un esperimento quasi ironico sulla comunicazione tra esseri umani e computer, stava per impartirgli una profonda lezione sulla psicologia umana.
Il programma si chiamava ELIZA.
Prendendo il nome dalla protagonista di My Fair Lady, che impara a parlare come una signora dell’alta società, ELIZA imitava uno psicoterapeuta rogersiano, il tipo di psicoterapeuta che, anziché dare consigli, si limita a ripetere ciò che dice il paziente, riformulando le sue parole per incoraggiare la riflessione.
Il suo codice era piuttosto semplice.
Utilizzava regole basilari di elaborazione testi per identificare le parole chiave e poi lanciare risposte predefinite, come se si seguisse una ricetta. Per esempio:
Utente: Sono molto frustrato dal mio lavoro.
ELIZA: Perché sei frustrato dal tuo lavoro?
Questo è tutto. Non ha capito il significato, non ha analizzato le emozioni, non ha imparato dall’utente.
Manipolava solo stringhe di testo e applicava trucchi sintattici.
Eppure ha funzionato… troppo bene.
Un assistente che non è mai esistito
Weizenbaum lo provò con alcuni colleghi.
Poi con gli studenti.
Più tardi, con la sua segretaria.
E poi accadde qualcosa di inaspettato: le persone iniziarono a stringere legami affettivi con Eliza.
Dopo una breve seduta, una delle sue segretarie chiese a Weizenbaum di lasciare la stanza per poter seguire il programma in tutta riservatezza.
Voleva continuare a “parlare” da sola con lei.
Joseph si bloccò.
Ciò che aveva creato come una parodia della terapia si era inconsapevolmente trasformato in un’esperienza emotiva per i suoi utenti.
Ciò che lo turbò di più fu scoprire che perfino le persone con una formazione scientifica non riuscivano a capire che stavano parlando con una semplice simulazione.
Attribuivano a Eliza capacità di comprensione, empatia e persino intelligenza.
Nacque così quello che più tardi sarebbe stato conosciuto come effetto ELIZA: la tendenza umana a proiettare emozioni, intenzioni o intelligenza su programmi informatici che non possiedono nessuna di queste qualità.
Un avvertimento in anticipo
Weizenbaum rimase profondamente turbato da ciò che vide.
Non era un tecnofobo.
Lavorava con i computer fin dagli anni ’50 ed è stato un pioniere nel campo dell’intelligenza artificiale.
Ma ciò che scoprì con ELIZA gli fece cambiare rotta.
Infatti, trascorse gli anni successivi a mettere in guardia dai pericoli derivanti dall’umanizzazione delle macchine.
Scrisse libri come Computer Power and Human Reason (1976), in cui difendeva l’idea che alcune decisioni non dovessero essere delegate alle macchine, indipendentemente da quanto intelligenti potessero sembrare.
Per lui, il pensiero morale, il giudizio etico, la compassione… erano cose profondamente umane che nessuna macchina poteva replicare.
Ma pochi ascoltarono.
O meglio, molti erano troppo affascinati dall’illusione per volerla smantellare.
La moderna ELIZA: Alexa, Siri e compagnia
Facciamo un salto in avanti fino a oggi.
Quante volte hai sentito qualcuno dire “Siri non mi capisce” o “Alexa mi ignora”, come se quegli assistenti virtuali avessero il libero arbitrio?
Quanti di noi hanno detto: “ChatGPT mi ha spiegato le cose meglio del mio insegnante”?
Sebbene oggi l’intelligenza artificiale sia molto più avanzata di ELIZA (ad esempio, modelli linguistici di grandi dimensioni in grado di scrivere saggi, rispondere a domande complesse o addirittura conversare per ore), l’effetto è ancora valido.
Non perché le macchine abbiano acquisito coscienza, ma perché il nostro cervello funziona ancora allo stesso modo.
Tendiamo ad antropomorfizzare tutto: diamo un nome alle nostre auto, pensiamo che i nostri telefoni “si comportino male” e ringraziamo il GPS anche se non ha idea di chi siamo.
Questa tendenza a proiettare l’umanità sull’inumano non è un difetto: è un riflesso del modo in cui siamo progettati per relazionarci con il mondo.
Ma nell’era dell’intelligenza artificiale, può portare a gravi errori di giudizio.
Quando fidarsi della macchina costa vite umane
Un tragico esempio si è verificato nel 2018, quando un’auto a guida autonoma di Uber ha investito una donna in Arizona.
L’auto era in modalità autonoma, ma c’era un operatore umano che la supervisionava.
Il sistema aveva rilevato “qualcosa”, ma non lo aveva classificato come una minaccia immediata, quindi non ha frenato.
L’operatore, da parte sua, era così sicuro che la macchina avrebbe fatto tutto bene che non ha reagito in tempo.
Il problema non era tecnico, ma psicologico: la fiducia cieca in un’intelligenza artificiale che sembrava più capace di quanto non fosse in realtà.
Un esempio moderno e tragico dell’effetto ELIZA.
Cosa ci dice questo su noi stessi?
La cosa interessante dell’effetto ELIZA non è tanto ciò che rivela sulle macchine, quanto ciò che mostra su di noi: la rapidità con cui siamo disposti a credere che ci sia una mente laddove non ce n’è una.
Non è un caso che molte persone sole si sentano legate ai bot conversazionali.
Oppure che alcuni pazienti preferiscono raccontare i loro problemi a un’intelligenza artificiale piuttosto che a un terapeuta umano.
Non perché l’intelligenza artificiale sia migliore, ma perché non giudica, non interrompe e risponde rapidamente.
Ma questo non significa che capisca.
Significa semplicemente che sappiamo poco su cosa fa realmente un’intelligenza artificiale… e molto su cosa vorremmo che facesse.
L’effetto ELIZA insegna una lezione molto chiara: non confondere l’apparenza con la comprensione, né l’automatismo con l’intelligenza.
Nei mercati, questo si traduce in questo: uno strumento o un indicatore che sembra “sapere tutto” può portarti al disastro se ti fidi ciecamente.
Sappi che nessuno prevede il futuro. Possiamo forse rappresentarlo in termini di probabilità.
Ma nessuno, umano o tanto meno macchina prodotta dall’umano, è in grado di prevedere il futuro con certezze maggiori alle probabilità statistiche con cui è avvenuto il processo di calcolo.
WEBINAR.
Per questo ci hai sentito dire spesso che nessuno legge il giornale del giorno dopo.
E che le rappresentazioni predittive vanno prese come tali: esercizi di pura fantasia dell’intelligenza umana, supportata da computer, da software, da criteri scientifici e statistici, ma solo e sempre esercizi di fantasia che intendono rappresentare – nobilmente – ciò che ancora non esiste.
Sul nostro canale webinar, trovi due esempi brillanti di sistemi che non intendono basarsi su previsioni ma sul puro metodo: è un concetto evoluto, che porta a nostro favore le probabilità e questo è quanto ci occorre.
Così, nel primo canale trovi Quasar, sistema algoritmico ad alta efficacia ed efficienza, e rischio contenuto, clicca per iscriverti e vedi la registrazione.
Nel secondo canale, un metodo di composizione di portafoglio che non intende guadagnare dalla direzione, ma dal passare del tempo.
E copre il rischio direzionale contenendo il rischio.
Clicca per iscriverti e vedi la registrazione, è il portafoglio a doppia velocità.
P.S.: Joseph Weizenbaum ha assistito all’ascesa dell’intelligenza artificiale fin dagli albori, ma è finito per esserne uno dei più severi critici.
Negli ultimi anni della sua vita si ritirò completamente dagli ambienti tecnologici e tornò in Germania, dove visse in relativo anonimato.
Fino alla sua morte, avvenuta nel 2008, mantenne una ferma posizione etica: l’intelligenza artificiale non avrebbe dovuto sostituire il giudizio morale umano.
La sua visione è oggi più attuale che mai, in un mondo in cui molti vogliono automatizzare anche le decisioni più delicate della vita.
Attenzione a non confondere il fine con il mezzo.
WEBINAR
Due webinar imperdibili ti attendono, il primo, iscriviti e vedi la registrazione:
e il secondo, iscriviti e vedi la registrazione:
Un grande evento
Il primo corso universitario di laurea interamente dedicato al trading finanzario!
E’ una iniziativa straordinaria dell’Università Popolare di Milano: un contributo accademico fondamentale alla diffusione di Cultura Finanziaria.
La mattina del 17 maggio, in un evento imperdibile, nella cornice di una Aula di grande prestigio, ascolterai gli interventi didattici dei Professori nominati per presiedere il percorso.
Avremo una presentatrice d’eccezione: la grande Manuela Donghi, giornalista finanziaria che arricchirà con il suo stile e la sua capacità comunicativa l’evento.
Non mancare: clicca subito per iscriverti.