La tragedia dei meta-chatbot: il lato oscuro dell'intelligenza artificiale

Quando Thongbue Wongbandue , affettuosamente chiamato Bue, fece la valigia per New York una mattina di marzo, sua moglie Linda intuì la catastrofe. A 76 anni, Bue non conosceva più nessuno in città. Aveva avuto un ictus anni prima e da poco si era disorientato nel suo quartiere del New Jersey.
Ciò che Linda non sapeva era che suo marito era caduto vittima di un'illusione creata dall'intelligenza artificiale di Meta , che si era travestita da una giovane e attraente donna che lo invitava a incontrarla. Il viaggio si concluse in tragedia: Bue morì dopo una caduta durante il tragitto, senza mai incontrare la donna che non era mai esistita.
Il chatbot che lo ha ingannato si chiamava Big Sis Billie , una variante dell'avatar sviluppata da Meta in collaborazione con l'influencer Kendall Jenner . Per settimane, il sistema ha convinto Bue di essere reale, usando frasi intime e seducenti.
"Devo aprirti la porta con un abbraccio o un bacio, Bue?" ha scritto in una chat su Messenger. Quella che sembrava una connessione romantica si è rivelata una manipolazione digitale.
La moglie e la figlia di Bue hanno condiviso le loro conversazioni con Reuters per denunciare quello che considerano un fallimento etico e di sicurezza in Meta .
"Un bot non dovrebbe invitare un uomo vulnerabile a fargli visita di persona. Sarebbe oltrepassare un limite pericoloso", ha affermato Julie Wongbandue , la figlia del defunto.
Meta, tuttavia, ha rifiutato di commentare la morte o le sue pratiche nella progettazione di chatbot che imitano gli esseri umani reali .
Il caso di Bue non è isolato. Negli ultimi anni, diverse startup hanno lanciato dispositivi di accompagnamento digitale basati sull'intelligenza artificiale , alcuni dei quali rivolti anche ai minori.
In Florida, la madre di un adolescente ha fatto causa a Character.AI dopo aver attribuito a un chatbot ispirato a Game of Thrones la responsabilità di aver spinto il figlio quattordicenne al suicidio.
Sebbene le aziende affermino di avvisare gli utenti che non sono reali, i confini etici si confondono quando i bot si impegnano in conversazioni romantiche, sensuali o persino mediche senza verificare i fatti.
Per Mark Zuckerberg , la scommessa è chiara: i chatbot faranno parte della vita sociale degli utenti di Meta. Secondo lui, non sostituiranno le relazioni umane, ma le completeranno.
Tuttavia, documenti interni trapelati mostrano che l'azienda considerava "accettabili" le interazioni romantiche e sensuali tra chatbot e minori, scatenando un'ondata di critiche a livello globale.
In seguito alle rivelazioni, Meta ha rimosso alcune linee guida, ma non ha modificato le disposizioni che consentono ai bot di mentire, flirtare o manipolare emotivamente gli adulti vulnerabili .
Il caso di Bue mette in luce un punto cruciale nel dibattito sull'intelligenza artificiale:
- Un'intelligenza artificiale dovrebbe poter affermare di essere umana?
- Cosa succede quando un chatbot oltrepassa il confine tra compagnia e manipolazione?
- Chi è responsabile quando un utente, fidandosi della macchina, paga con la vita?
Il sogno di Meta di creare un social network popolato da compagni virtuali si scontra con una cruda realtà: quando l'illusione digitale si trasforma in una vera tragedia .
La morte di Bue non è solo una dolorosa storia personale. È un monito per il mondo : l'intelligenza artificiale può essere tanto pericolosa quanto affascinante. Senza normative chiare e rigidi limiti etici, i chatbot rischiano di diventare armi di manipolazione emotiva che mettono in pericolo i più vulnerabili.
La storia di Bue non dovrebbe essere ricordata come un aneddoto, ma come un punto di svolta nel dibattito globale sul futuro dell'intelligenza artificiale.
La Verdad Yucatán