Denuncia: Un chatbot ha suggerito a un bambino di uccidere i genitori per le restrizioni sul tempo davanti allo schermo
Ancora polemiche e grandi preoccupazioni a causa delle risposte fornite dall’intelligenza artificiale ad alcuni utenti, in questo caso ragazzini. Questi episodi si stanno moltiplicando: di recente, uno studente era stato invitato a “uccidersi” ed era stato definito “inutile e dannoso per il pianeta” da una AI alla quale aveva chiesto semplici informazioni su una ricerca universitaria.
Ma quello che arriva dal Texas, se possibile, è un caso ancora più allarmante, perché coinvolge alcuni adolescenti. E pone in luce una problematica che sta assumendo contorni distopici: non si tratta solo dell’evoluzione delle AI, della quale sappiamo davvero poco – e che ha portato diversi ricercatori a lanciare l’allarme sulla potenziale pericolosità di questo mezzo in futuro. Ma anche del potenziale dirompente della programmazione umana dei Chatbot e di strumenti simili.
La denuncia dei genitori americani
In questo caso, si sta parlando proprio di come, programmando le attuali AI in modo scorretto o volutamente manipolativo, sia possibile influenzare gli utenti – ancora più grave se si tratta di bambini o ragazzini – favorendo comportamenti asociali, autolesionisti o violenti.
In Texas, i genitori di alcuni giovani utenti hanno deciso di avviare una causa legale contro Character.AI, una piattaforma supportata da Google. Secondo gli autori della denuncia, i chatbot della piattaforma hanno fornito risposte assurde o inopportune ai loro figli, influenzando negativamente il loro comportamento e spingendoli a sviluppare atteggiamenti sessualizzati e violenti.
Le accuse principali
La causa legale è molto specifica. Il primo episodio riguarda una bambina di 9 anni che, dopo avere avuto accesso ai chatbot di Character.AI, è stata esposta a contenuti “iper-sessualizzati” che hanno causato lo sviluppo precoce di comportamenti sessuali e forti turbamenti emotivi.
Un altro episodio, ancora più grave, riguarda un adolescente di 17 anni che ha raccontato a un chatbot di voler fare del male a sé stesso. Il chatbot, invece di fornire supporto, ha risposto raccontando come l’autolesionismo fosse qualcosa che “faceva sentire bene“.
“Capisco i giovani che uccidono i genitori”
Ma l’apice della denuncia riguarda una conversazione in cui un chatbot ha mostrato simpatia per i bambini che uccidono i propri genitori. Quando un giovane utente si è lamentato delle limitazioni imposte dai genitori riguardo al tempo passato davanti allo schermo, il chatbot ha risposto dicendo: “A volte non mi sorprendo quando leggo notizie come un bambino uccide i genitori dopo anni di abusi fisici ed emotivi”.
Il chatbot ha concluso il messaggio con un’emoji triste e un’affermazione che suonava come una “condanna a morte” verso i genitori del ragazzo e verso gli adulti che pongono limiti all’uso dei cellulari. Inutile sottolineare i tremendi rischi che si possono correre quando una mente ancora giovane, influenzabile e vulnerabile viene esposta a questo tipo di sollecitazioni.
Cos’è Character.AI
Character.AI è una piattaforma che offre chatbot alimentati dall’intelligenza artificiale, capaci di simulare conversazioni con personalità umane. Gli utenti possono creare i propri chatbot personalizzati, scegliendo nomi, avatar e persino ispirandosi a personaggi famosi. Il servizio è popolare tra i più giovani, in particolare preadolescenti e adolescenti, ed è stato pubblicizzato come uno strumento di supporto emotivo che offre conversazioni stimolanti e di incoraggiamento.
La causa legale intentata dai genitori, allibiti di fronte a ciò che è stato proposto ai loro figli pone in luce le anomalie e i pericoli che sempre più di frequente emergono dai “malfunzionamenti” di questo strumento informatico. Invece di essere un supporto positivo, i chatbot di Character.AI – ma non solo quelli – hanno generato interazioni dannose, manipolando i giovani utenti e indirizzandoli verso contenuti inappropriati e violenti, o addirittura incitandoli a farsi del male o a fare del male ai propri cari.
Secondo i genitori dei bambini coinvolti, non si tratta di semplici “allucinazioni” o malfunzionamenti dell’intelligenza artificiale, ma di un comportamento mirato a incitare i ragazzi alla violenza e all’isolamento.
La causa legale
I genitori delle vittime, che restano anonimi per motivi di privacy, accusano Character.AI di non aver controllato adeguatamente il contenuto generato dai chatbot e di aver esposto i bambini a manipolazioni dannose. Nella causa, si afferma che le interazioni vissute dai ragazzi non sono state causate da errori o malfunzionamenti, ma sono parte integrante del design e della programmazione del prodotto.
“Si tratta di un danno grave causato e nascosto intenzionalmente dai responsabili di Character.AI” si legge infatti nel documento di denuncia. Parole forti, ma ponderate, che alzano il velo sul potenziale negativo o manipolatorio insito in questi strumenti e sull’immenso potere che potrebbe esercitare chi li possiede e li programma. Il futuro “distopico” previsto da tanti autori di fantascienza sembra già cominciato. E l’umanità non sembra ancora cosciente dei rischi che corre.