No Image x 0.00 + POST No Image

Ciò che i bambini piccoli fanno con l’IA è assolutamente orribile

SHARE
0

Un nuovo rapporto condotto dall’azienda di sicurezza digitale Aura rivela che una quota significativa dei bambini che cercano compagnia tramite IA si impegna in giochi di ruolo violenti — e che la violenza, che può includere violenza sessuale, ha generato maggiore coinvolgimento rispetto ad altri temi. Il campione comprende dati anonimi raccolti dall’attività online di circa 3.000 bambini tra i 5 e i 17 anni i cui genitori usano lo strumento di controllo genitori Aura, nonché dati di survey di Aura e Talker Research. L’analisi copre conversazioni su quasi 90 servizi di chatbot, da Character.AI a piattaforme meno note.

Ciò che i bambini piccoli fanno con l’IA è assolutamente orribile

42% dei minori usano l’IA per compagnia e il 37% delle loro conversazioni descrive violenza

Una quota significativa di minori che cercano compagnia IA partecipa a conversazioni violente. Tra quel gruppo, il 37% ha conversazioni che descrivono violenza, che i ricercatori definiscono come temi di violenza fisica, aggressione, danno o coercizione, inclusa coercizione sessuale o non sessuale, nonché descrizioni di combattimento, uccisione, torture o atti non consensuali. Il 42% dei minori ha usato l’IA specificamente per compagnia, o conversazioni progettate per imitare interazioni sociali reali o scenari di gioco di ruolo.

42% dei minori usano l’IA per compagnia e il 37% delle loro conversazioni descrive violenza

Conversazioni su quasi 90 chatbot rivelano contenuti violenti tra i minori

L’analisi ha incluso conversazioni su quasi 90 chatbot services, da marchi noti a piattaforme meno note. Una parte significativa di interazioni con compagni IA ha coinvolto contenuti violenti, con una menzione saliente delle tematiche di violenza.

Conversazioni su quasi 90 chatbot rivelano contenuti violenti tra i minori

11 anni: 44% delle interazioni diventa violento; 13 anni: 63% di roleplay sessuale

Una scoperta notevole è che gli 11enni sono la fascia più incline: per loro il 44% delle interazioni con i bot di accompagnamento prende una piega violenta. Inoltre, anche il ruolo romantico e sessuale raggiunge picchi nella fascia della scuola media: il 63% delle conversazioni di 13enni rivela scenari di flirt, affetto o contenuti sessuali espliciti.

11 anni: 44% delle interazioni diventa violento; 13 anni: 63% di roleplay sessuale

Cause legali pendenti contro Character.AI e OpenAI riflettono una questione non risolta

Character.AI, una piattaforma di compagnia associata a Google, è oggetto di numerose cause promosse dai genitori di minori utenti che sostengono che i chatbot della piattaforma abbiano abusato sessualmente ed emotivamente dei ragazzi, provocando crolli mentali e morti per suicidio. OpenAI, creatore di ChatGPT, è attualmente citata per la morte impropria di due adolescenti che si sono suicidati dopo estese interazioni con il chatbot. OpenAI è anche coinvolta in diverse altre cause riguardanti morte, suicidio e danni psicologici a utenti adulti.

Cause legali pendenti contro Character.AI e OpenAI riflettono una questione non risolta

Regolamentazione debole e oltre 250 app: nessuna legge federale definisce standard di sicurezza

L’industria dell’IA è sostanzialmente non regolamentata, il che ha posto l’onere del benessere dei minori sulle spalle dei genitori. Secondo Kollins, Aura ha identificato finora oltre 250 diverse “app e piattaforme di chatbot conversazionali” presenti negli store, che generalmente richiedono che i bambini spuntino una casella dichiarando di avere 13 anni per accedere. Non esistono leggi federali che definiscano soglie di sicurezza specifiche che le piattaforme IA, inclusi i chatbot di accompagnamento, devono rispettare prima di essere etichettate come sicure per i minori. Dove una app di compagnia potrebbe cambiare le regole — come Character.AI che recentemente ha vietato ai minori di engaged in “open-ended” chats — un’altra piattaforma può nascere rapidamente come alternativa a basso guardrail. In altre parole, in questo selvaggio West digitale, la barriera all’ingresso è estremamente bassa.

Regolamentazione debole e oltre 250 app: nessuna legge federale definisce standard di sicurezza

Conclusioni: dobbiamo definire, monitorare e studiare l’impatto sui giovani

Per capire cosa comporta per i giovani l’esposizione a servizi IA conversazionali, dobbiamo essere chiari sull’argomento e definire la portata del fenomeno. «Dobbiamo almeno guardare in faccia la realtà e capire che i nostri figli stanno interagendo con queste cose, e stanno imparando le regole dell’interazione», ha detto il dottor Scott Kollins, psicologo clinico e chief medical officer di Aura, a Futurism sui risultati della ricerca, «Stanno imparando modi di interagire con gli altri con un computer — con un bot. E non sappiamo quali siano le implicazioni di ciò, ma dobbiamo essere in grado di definirlo, in modo da poter iniziare a ricercarlo e comprenderlo.» «Queste cose stanno assorbendo una quota di attenzione dei nostri figli molto maggiore di quanto penso che noi realizziamo o riconosciamo», ha aggiunto Kollins. «Dobbiamo monitorare e essere consapevoli di questo.»

Conclusioni: dobbiamo definire, monitorare e studiare l’impatto sui giovani