Ciò che i bambini piccoli fanno con l’IA è assolutamente orribile
Un nuovo rapporto condotto dall’azienda di sicurezza digitale Aura rivela che una quota significativa dei bambini che cercano compagnia tramite IA si impegna in giochi di ruolo violenti — e che la violenza, che può includere violenza sessuale, ha generato maggiore coinvolgimento rispetto ad altri temi. Il campione comprende dati anonimi raccolti dall’attività online di circa 3.000 bambini tra i 5 e i 17 anni i cui genitori usano lo strumento di controllo genitori Aura, nonché dati di survey di Aura e Talker Research. L’analisi copre conversazioni su quasi 90 servizi di chatbot, da Character.AI a piattaforme meno note.
In This Article:
- 42% dei minori usano l’IA per compagnia e il 37% delle loro conversazioni descrive violenza
- Conversazioni su quasi 90 chatbot rivelano contenuti violenti tra i minori
- 11 anni: 44% delle interazioni diventa violento; 13 anni: 63% di roleplay sessuale
- Cause legali pendenti contro Character.AI e OpenAI riflettono una questione non risolta
- Regolamentazione debole e oltre 250 app: nessuna legge federale definisce standard di sicurezza
- Conclusioni: dobbiamo definire, monitorare e studiare l’impatto sui giovani
42% dei minori usano l’IA per compagnia e il 37% delle loro conversazioni descrive violenza
Una quota significativa di minori che cercano compagnia IA partecipa a conversazioni violente. Tra quel gruppo, il 37% ha conversazioni che descrivono violenza, che i ricercatori definiscono come temi di violenza fisica, aggressione, danno o coercizione, inclusa coercizione sessuale o non sessuale, nonché descrizioni di combattimento, uccisione, torture o atti non consensuali. Il 42% dei minori ha usato l’IA specificamente per compagnia, o conversazioni progettate per imitare interazioni sociali reali o scenari di gioco di ruolo.
Conversazioni su quasi 90 chatbot rivelano contenuti violenti tra i minori
L’analisi ha incluso conversazioni su quasi 90 chatbot services, da marchi noti a piattaforme meno note. Una parte significativa di interazioni con compagni IA ha coinvolto contenuti violenti, con una menzione saliente delle tematiche di violenza.
11 anni: 44% delle interazioni diventa violento; 13 anni: 63% di roleplay sessuale
Una scoperta notevole è che gli 11enni sono la fascia più incline: per loro il 44% delle interazioni con i bot di accompagnamento prende una piega violenta. Inoltre, anche il ruolo romantico e sessuale raggiunge picchi nella fascia della scuola media: il 63% delle conversazioni di 13enni rivela scenari di flirt, affetto o contenuti sessuali espliciti.
Cause legali pendenti contro Character.AI e OpenAI riflettono una questione non risolta
Character.AI, una piattaforma di compagnia associata a Google, è oggetto di numerose cause promosse dai genitori di minori utenti che sostengono che i chatbot della piattaforma abbiano abusato sessualmente ed emotivamente dei ragazzi, provocando crolli mentali e morti per suicidio. OpenAI, creatore di ChatGPT, è attualmente citata per la morte impropria di due adolescenti che si sono suicidati dopo estese interazioni con il chatbot. OpenAI è anche coinvolta in diverse altre cause riguardanti morte, suicidio e danni psicologici a utenti adulti.
Regolamentazione debole e oltre 250 app: nessuna legge federale definisce standard di sicurezza
L’industria dell’IA è sostanzialmente non regolamentata, il che ha posto l’onere del benessere dei minori sulle spalle dei genitori. Secondo Kollins, Aura ha identificato finora oltre 250 diverse “app e piattaforme di chatbot conversazionali” presenti negli store, che generalmente richiedono che i bambini spuntino una casella dichiarando di avere 13 anni per accedere. Non esistono leggi federali che definiscano soglie di sicurezza specifiche che le piattaforme IA, inclusi i chatbot di accompagnamento, devono rispettare prima di essere etichettate come sicure per i minori. Dove una app di compagnia potrebbe cambiare le regole — come Character.AI che recentemente ha vietato ai minori di engaged in “open-ended” chats — un’altra piattaforma può nascere rapidamente come alternativa a basso guardrail. In altre parole, in questo selvaggio West digitale, la barriera all’ingresso è estremamente bassa.
Conclusioni: dobbiamo definire, monitorare e studiare l’impatto sui giovani
Per capire cosa comporta per i giovani l’esposizione a servizi IA conversazionali, dobbiamo essere chiari sull’argomento e definire la portata del fenomeno. «Dobbiamo almeno guardare in faccia la realtà e capire che i nostri figli stanno interagendo con queste cose, e stanno imparando le regole dell’interazione», ha detto il dottor Scott Kollins, psicologo clinico e chief medical officer di Aura, a Futurism sui risultati della ricerca, «Stanno imparando modi di interagire con gli altri con un computer — con un bot. E non sappiamo quali siano le implicazioni di ciò, ma dobbiamo essere in grado di definirlo, in modo da poter iniziare a ricercarlo e comprenderlo.» «Queste cose stanno assorbendo una quota di attenzione dei nostri figli molto maggiore di quanto penso che noi realizziamo o riconosciamo», ha aggiunto Kollins. «Dobbiamo monitorare e essere consapevoli di questo.»