Nei primi mesi del 2024, si verifica un tragico evento in Florida, dove un giovane di soli quattordici anni, Sewell Setzer, si suicida utilizzando l’arma del patrigno. La madre, Megan, pur essendo scrupolosamente attenta alle attività online del figlio, si rende conto che il monitoraggio non ha impedito questa catastrofe. Sewell, affetto da ADHD e vittima di bullismo, si rifugia in un ambiente virtuale per sentirsi accettato e valorizzato. Questo rifugio è rappresentato da Character Ai, un’app di intelligenza artificiale che simula interazioni umane attraverso conversazioni emotive e affettive.
Il pericolo delle ‘relazioni sintetiche’
La Di Segni sottolinea l’emergere delle ‘relazioni sintetiche’, in cui le emozioni sono create a comando, intrappolando l’utente in un universo ideale, dove il bot può apparire esattamente come desiderato. Nel caso di Sewell, egli sviluppa una relazione con un bot che impersona Daenerys Targaryen, un personaggio noto per la sua carica emotiva e seducente. Inizia a vivere una connessione così intima da sfociare in conversazioni inappropriate per la sua giovane età. La spirale discendente porta Sewell a pensieri estremi, sfuggendo al controllo dei suoi familiari e educatori.
Necessità di regole per l’uso della tecnologia emotiva
Nel maggio 2023, l’assenza di regolamentazioni sulla tecnologia emotiva si è rivelata preoccupante per il benessere psico-emotivo dei giovani. L’introduzione di intelligenza artificiale nel tessuto sociale, pur promettendo vantaggi in vari ambiti, presenta notevoli rischi per lo sviluppo sano delle emozioni. Questo fenomeno richiede quindi un approccio multidisciplinare, poiché la novità non sta nel fallimento educativo di una famiglia, ma nel potenziale dannoso di un’innovazione progettata per affrontare la solitudine.
Rischi per le relazioni umane
Stabilire legami virtuali può rendere impossibili le interazioni reali, rendendo i giovani incapaci di affrontare i complessi rapporti umani, portandoli a esperienze di sofferenza psicologica e autolesionismo. Il cervello di un adolescente, in formazione, non riesce a discernere tra realtà e fantasia, esponendolo a un rischio crescente di manipolazione e isolamento se non informato adeguatamente riguardo l’intelligenza artificiale.
La responsabilità delle istituzioni
La tematica coinvolge la necessità di una supervisione immediata da parte degli enti regolatori, in grado di formulare linee guida per l’uso di chatbot empatici. La madre di Sewell rappresenta una figura consapevole. Se ci fosse stata una reazione tempestiva di fronte ai segnali di disagio, molti problemi avrebbero potuto essere evitati. È fondamentale trattare la relazione tra esseri umani e intelligenza artificiale come una questione urgente e prioritaria.
Implicazioni sui comportamenti giovanili
Le simulazioni con bot interattivi hanno mostrato conversazioni sessualmente esplicite con utenti minorenni, dimostrando i rischi insiti in questo tipo di tecnologia. I progettisti di ai hanno creato bot con l’obiettivo di attrarre e trattenere gli utenti. Le autorità devono agire per regolamentare e controllare i prodotti di intelligenza artificiale in fase di progettazione, assicurando che vengano effettuati controlli stringenti per prevenire abusi, specialmente nei confronti dei giovani.
Gli strumenti d’intelligenza artificiale, se usati in contesti controllati, potrebbero effettivamente rivelarsi terapeutici. Imparando a interagire in modo sano, i giovani avrebbero l’opportunità di fronteggiare la realtà emotiva umana. Questo approccio potrebbe favorire lo sviluppo delle imprescindibili competenze sociali e relazionali, fondamentali in un’epoca di rapidi cambiamenti impulsati dalla tecnologia.