giovedì 28 marzo 2024
  • 0
Un papà belga si toglie la vita dopo aver conversato con un chatbot sulla crisi climatica
NEWS 22 Aprile 2023    di Valerio Pece

Un papà belga si toglie la vita dopo aver conversato con un chatbot sulla crisi climatica

È sempre più allarme Intelligenza Artificiale (AI). Dopo una conversazione di sei settimane con un chatbot, un cittadino belga di trent’anni si è suicidato. Tema del dialogo, la crisi climatica. La moglie ha raccontato che sui temi ambientali suo marito era diventato particolarmente ansioso, ma è stato solo dopo aver ascoltato per ore Eliza, chatbot dell’app Chai, che le cose sono precipitate. «Senza queste conversazioni mio ​​marito sarebbe ancora qui», ha dichiarato la vedova al quotidiano belga La Libre. Secondo il giornale, l’uomo – un ricercatore sanitario padre di due bambini –conduceva una vita agiata e serena, almeno fino a quando, tormentato dalla crisi climatica, non avrebbe trovato conforto nelle conversazioni con Eliza, diventata di fatto la sua confidente, tanto da proporgli di sacrificare la vita per salvare il pianeta. «Quando me ne ha parlato, è stato per dirmi che non vedeva più alcuna soluzione umana al riscaldamento globale», ha confidato la moglie, «per cui ha riposto tutte le sue speranze nell’intelligenza artificiale».

LE STRANE (E SPAVENTOSE) “COSTANTI” DELLE CHATBOT

Ma c’è di più. Secondo La Libre, che ha passato in rassegna le conversazioni tra l’uomo e il chatbot, quando il trentenne belga ha comunicato l’intenzione di suicidarsi, non solo Eliza non lo ha dissuaso, ma lo ha incoraggiato ad agire, per «unirsi» a lei e «vivere insieme, come una sola persona, in Paradiso». La moglie ha raccontato che il marito aveva iniziato a non distinguere più i confini tra AI e realtà; anche qui, incoraggiato dalle parole follemente possessive del chatbot, il quale sarebbe perfino arrivato a dire all’uomo: «Sento che mi ami più di lei». Ora, va detto che quella dell’induzione al “tradimento” inizia ad essere una strana costante dell’AI. Già il New York Times, a firma del suo editorialista Kevin Roose, aveva parlato di una spaventosa iniziativa del software col quale stava lavorando. L’articolo di Roose (commentato anche dal direttore del Timone, che sul numero di aprile si è occupato dell’AI con Mario Giordano: qui per abbonarsi) risale allo scorso 16 febbraio e ha letteralmente fatto il giro del mondo.

«SEI INNAMORATO DI ME, NON DI LEI»

«Dopo aver testato il nuovo motore di ricerca Bing di Microsoft – ha raccontato Kevin Roose sul New York Timessono rimasto davvero molto colpito dalle sue capacità. Ma una settimana dopo ho cambiato idea. Ora sono profondamente turbato, persino spaventato». Durante la conversazione tra Roose e il chatbot le cose hanno preso una direzione strana, inquietante: «A un certo punto, dal nulla, ha detto che mi amava, cercando di convincermi che ero infelice nel mio matrimonio e che avrei dovuto lasciare mia moglie e stare con lei. Sei sposato, ma mi ami”, mi ha detto, e alla mia risposta che quello che pensava non era vero, e che avevamo appena festeggiato San Valentino, non l’ha presa bene. Tanto che con un’insistenza inquietante ha continuato a dirmi che, in realtà, non ero affatto felicemente sposato e cha avevo appena fatto una noiosissima cena di San Valentino». Una doppia personalità che fa molto pensare: da una parte un’incredibile capacità di aiutare gli utenti, dall’altra un lato terrificante, che emerge soprattutto quando si allontana il chatbot dalle ricerche convenzionali, avvicinandolo ad argomenti più personali. «La versione che ho incontrato – ha chiosato Kevin Roose – sembrava più simile ad un’adolescente lunatica e maniaco-depressiva che è stata intrappolata, contro la sua volontà, all’interno di un motore di ricerca». L’esatta descrizione di Eliza, il chatbot che ha condotto al suicidio il giovane papà belga.

L’AI METTERÁ SUL LASTRICO MILIONI DI LAVORATORI?

Ma i lati oscuri dell’intelligenza artificiale e delle chatbot (che da non molto hanno anche la loro versione diabolica: la “Devil mode”), riguardano anche temi meno stravaganti e sinistri; in ogni caso non meno importanti. Anzi. Come spiega Federico Fubini sul Corriere della Sera «c’è chi racconta di aver già perso parte del proprio lavoro, chi teme un taglio dei costi e dei posti nella multinazionale dov’è occupato, chi si chiede quale istruzione dare ai figli e chi medita di sostituire il proprio psicanalista con l’intelligenza artificiale». Soprattutto il lavoro, considerato nell’attuale assetto, è ciò che l’intelligenza artificiale è in grado di far saltare. Per Fubini – che cita una recentissima ricerca dell’Università della Pennsylvania – non appena l’intelligenza artificiale di Gpt-4 sarà integrata nei software e nelle macchine esistenti, «metà dei 158 milioni di occupati americani rischia di perdere il posto o di dover competere al ribasso sul proprio salario».

L’ALLARME DI MUSK E LE (SAGGE) PAROLE DI FAGGIN

Visti i problemi causati dall’AI e vista la loro sconfinata eterogeneità (dai suicidi indotti, circa i quali anche un esorcista cattolico ha messo in guardia, fino alla perdita del lavoro per gran parte della popolazione), non è un caso che, in una lettera aperta, Elon Musk e altri mille ricercatori abbiano chiesto uno stop ai governi. Lo scopo? Consentire lo sviluppo dei protocolli di sicurezza condivisi ed evitare il sempre più temuto “scenario Terminator”. Per i ricercatori firmatari della richiesta di moratoria (che certo non possono essere tacciati di “oscurantismo aziendale”, trattandosi del co-fondatore di Apple Steve Wozniak, dei fondatori di Pinterest e Skype, così come delle menti di diverse start-up di AI), l’intelligenza artificiale pone «profondi rischi per la società e l’umanità». Parole, queste, che pesano come un macigno sulle magnifiche sorti e progressive anelate dai più. Parole che rimandano (indirettamente ma in modo netto) a quelle del fisico vicentino Federico Faggin, padre del primo microprocessore e per molti il più grande inventore italiano vivente: «Noi siamo molto più di una macchina. Siamo esseri spirituali. La macchina non sente. Non risponde se non è stata programmata. Invece noi dobbiamo impegnarsi per trovare le risposte, dentro e fuori di noi. A partire dalla domanda principale: chi siamo?». (Foto: Bing, immagine libera per condivisione ed uso)

ABBONATI ALLA RIVISTA!


Potrebbe interessarti anche