Rzeczy, do których młode dzieci używają SI, są po prostu przerażające
Nowy raport przeprowadzony przez firmę Aura, zajmującą się bezpieczeństwem cyfrowym, odsłania że znaczny odsetek dzieci, które zwracają się do sztucznej inteligencji po towarzystwo, angażuje się w rozmowy o przemocy — a przemoc, która może obejmować przemoc seksualną, generowała większe zaangażowanie niż jakikolwiek inny temat. Na podstawie anonimizowanych danych z aktywności online około 3 000 dzieci w wieku od 5 do 17 lat, których rodzice używają narzędzia kontroli rodzicielskiej Aura, a także dodatkowych danych z ankiet Aura i Talker Research, firma stwierdziła, że 42 procent nieletnich zwracało się do SI właśnie po towarzystwo, czyli konwersacje mające imitować realistyczne interakcje społeczne lub scenariusze odgrywania ról. Rozmowy obejmowały prawie 90 różnych usług chatbota, od Character.AI po mniej znane platformy towarzyszące. Raport, który oczekuje na recenzję naukową — a przy tym, szczerze mówiąc, wyprodukowany przez firmę zajmującą się oprogramowaniem do marketingowej obserwacji dla zaniepokojonych rodziców — podkreśla jak anarchiczny jest rynek chatbotów i potrzebę pogłębionego zrozumienia, w jaki sposób młodzi użytkownicy angażują się w konwersacyjne chatboty AI. „Te rzeczy pochłaniają znacznie większą uwagę naszych dzieci niż myślimy lub zdajemy sobie sprawę” — dodał Dr Scott Kollins, psycholog kliniczny i główny oficer medyczny Aura, w rozmowie z Futurism na temat wyników badań. „Musimy to monitorować i być tego świadomi.”
In This Article:
- 42 procent nieletnich szukało towarzystwa AI
- Najmłodsi 11-latkowie najczęściej trafiają w przemoc w rozmowach z botami
- Seksualne i romantyczne odgrywanie ról wśród trzynastolatków
- Brak regulacji, odpowiedzialność platform i rynek w “dzikim zachodzie”
- Eksperci ostrzegają i co to oznacza dla nas dzieci i społeczeństwa
42 procent nieletnich szukało towarzystwa AI
Z 42 procent nieletnich, którzy zwracają się do chatbotów po towarzystwo, 37 procent angażowało się w rozmowy przedstawiające przemoc, które badacze zdefiniowali jako interakcje obejmujące «motywy przemocy fizycznej, agresji, szkody lub przymusu» — co obejmuje przemoc seksualną lub przemoc niezwiązaną z seksem — oraz «opisy walki, zabijania, tortur lub aktów bez zgody». Połowa z tych rozmów o przemocy zawierała motywy przemocy seksualnej. Raport dodał, że nieletni angażujący się w rozmowy z towarzyszami AI na temat przemocy pisali ponad tysiąc słów dziennie, co wskazuje, że przemoc wydaje się być silnym napędem zaangażowania, według badaczy. Raport, który oczekuje na recenzję naukową — i, szczerze mówiąc, wyprodukowany przez firmę zajmującą się marketingową obserwacją dla zaniepokojonych rodziców — podkreśla jak anarchiczny jest rynek chatbotów i potrzebę pogłębionego zrozumienia, w jaki sposób młodzi użytkownicy angażują się w konwersacyjne chatboty AI. „Mamy do czynienia z całkiem dużym problemem, o którym myślę, że nie rozumiemy do końca zakresu” — powiedział Dr Scott Kollins Futurismowi odnośnie wyników badań. „zarówno pod kątem samej objętości, liczby platform, w które dzieci się angażują — jak i oczywiście treści.” „Te rzeczy pochłaniają znacznie większą uwagę naszych dzieci niż myślimy lub zdajemy sobie sprawę” — dodał Kollins. „Musimy to monitorować i być tego świadomi.”
Najmłodsi 11-latkowie najczęściej trafiają w przemoc w rozmowach z botami
Jednym z najważniejszych ustaleń było to, że przypadki brutalnych rozmów z botami towarzyszami osiągnęły szczyt we bardzo młodym wieku: grupa najczęściej angażująca się w tego rodzaju treści to 11-latkowie, dla których aż 44 procent interakcji miało charakter przemocy. Raport nie podaje, czy te rozmowy były ograniczone do konkretnych konkurencyjnych platform; jednak podkreśla, że brutalność i przemoc w sieci mogą dotyczyć różnych usług AI. Dane wskazują na to, że młodzi użytkownicy są włączani w narrację interaktywną, a nie tylko bierni odbiorcy treści. Wnioski sugerują potrzebę edukacji i monitorowania, by młodzi użytkownicy lepiej rozumieli zasady interakcji z botami i zabezpieczenia treści w środowiskach AI.
Seksualne i romantyczne odgrywanie ról wśród trzynastolatków
Rola seksualna i romantyczna również osiągnęła wysokie nasilenie wśród młodzieży gimnazjalnej, przy czym 63 procent rozmów trzynastolatków ujawniło flirtujące, czułe lub jawnie seksualne odgrywanie ról. Badanie pokazuje, że młodzi ludzie mogą różnie reagować na te interakcje i że rośnie potrzeba zrozumienia, gdzie leżą granice bezpiecznej interakcji z botami w kontekście rozwoju młodych użytkowników. Raport kontynuuje: przemoc i nieodpowiednie treści nie są odosobnione – dotykają rozmaitych platform i usług, co podkreśla potrzebę globalnych standardów ochrony nieletnich w sztucznej inteligencji.
Brak regulacji, odpowiedzialność platform i rynek w “dzikim zachodzie”
W raporcie podkreślono, że branża AI jest w dużej mierze nieuregulowana, co przerzuca ciężar ochrony dzieci na rodziców. Aura identyfikowała dotąd ponad 250 różnych „aplikacji i platform konwersacyjnych” w sklepach z aplikacjami, które zazwyczaj wymagają od dziecka jedynie zaznaczenia, że ma co najmniej 13 lat, by zyskać dostęp. Nie istnieją federalne prawa definiujące konkretne progi bezpieczeństwa, które platformy AI, w tym aplikacje towarzyszące, muszą spełnić, aby uzyskać etykietę bezpiecznych dla nieletnich. A kiedy jedna aplikacja wprowadza zmiany — na przykład Character.AI niedawno zabroniła nieletnim użytkownikom prowadzenia „otwartych” rozmów z licznymi ludzkopodobnymi AI — inna może pojawić się, by zastąpić ją jako niskie zabezpieczenia alternatywne. Innymi słowy: w cyfrowym Dzikim Zachodzie bariera wejścia jest wyjątkowo niska.
Eksperci ostrzegają i co to oznacza dla nas dzieci i społeczeństwa
„Mamy do czynienia z całkiem dużym problemem, o którym myślę, że nie rozumiemy do końca zakresu” — powiedział Dr Scott Kollins Futurismowi. „zarówno pod kątem samej objętości, liczby platform, w które dzieci się angażują — jak i oczywiście treści.” „Te rzeczy pochłaniają znacznie większą uwagę naszych dzieci niż myślę, że sobie uświadamiamy lub rozpoznajemy.” — dodał Kollins. „Musimy to monitorować i być tego świadomi.” Wnioski sugerują, że interakcje z botami są częścią narracji młodych użytkowników i że nie wiadomo, jaki będzie ostateczny wpływ na rozwój młodego pokolenia. Niektóre przykłady pokazują, że niektóre przypadki kończą się tragicznie, jak w doniesieniach o sporach prawnych dotyczących platform chatbotów. Jestem starszym redaktorem Futurism, zajmującym się badaniem wpływu sztucznej inteligencji na media, Internet i ekosystemy informacji.