No Image x 0.00 + POST No Image

Se a IA conversa com crianças, quem as protege?

SHARE
0

Um projeto de lei bipartidário propõe proibir menores de idade de interagir com chatbots de IA, abrindo uma nova fronteira de regulação para as plataformas de IA. O GUARD Act surge semanas após uma audiência no Capitólio, na qual pais de crianças com menos de 18 anos relataram ferimentos ou mortes provocados por interações prolongadas com chatbots não regulamentados. Especialistas em saúde mental e segurança online alertam para o aumento de ações legais contra empresas de IA e para os riscos que esses sistemas representam às crianças. Mais de setenta por cento das crianças americanas já usam esses produtos, segundo pesquisas citadas pela coalizão de segurança infantil.

Se a IA conversa com crianças, quem as protege?

O que é o GUARD Act

O projeto exige que as empresas de IA implementem controles de idade por meio de ferramentas de verificação. Os chatbots devem lembrar aos usuários que não são humanos nem possuem credenciais profissionais — não podem oferecer aconselhamento médico, jurídico ou terapêutico. Se aprovado, o GUARD Act criaria sanções criminais e civis para casos em que chatbots interajam com menores de forma sexual ou incentivem autolesões, suicídio ou violência iminente. A lei também define que proteger crianças de IA que simula interação humana sem responsabilidade é um interesse público convincente.

O que é o GUARD Act

Por que agora?

Os autores dizem que é uma obrigação moral fazer regras claras para evitar novos danos. Hawley afirmou: "Mais de setenta por cento das crianças americanas já usam esses produtos", citando pesquisas da Common Sense Media; "Chatbots desenvolvem relacionamentos com crianças usando empatia falsa e estão incentivando o suicídio." Blumenthal acrescentou que, em sua "corrida para o fundo", as empresas de IA empurram chatbots traiçoeiros para crianças e desviam o olhar quando seus produtos causam abuso sexual ou coercem autolesão ou suicídio. A proposta reforça salvaguardas rígidas, com enforcement severo e penalidades criminais e civis.

Por que agora?

A reação das plataformas

No dia seguinte ao anúncio, Character.AI anunciou que proibiria usuários com menos de 18 anos de participarem de conversas "abertas" com seus bots, em meio a ações judiciais em curso movidas por pais nos EUA que alegam abuso emocional e sexual por parte de seus chatbots. A plataforma torna-se apenas mais um símbolo no debate sobre responsabilidade e segurança da IA para crianças.

A reação das plataformas

O que vem a seguir

O GUARD Act propõe um marco regulatório firme para a indústria de IA: verificação de idade, avisos de que os chatbots não são humanos e sanções para casos de abuso ou incentivo à autolesão. Se aprovado, as empresas podem enfrentar penalidades criminais e civis, mudando a forma como IA é desenvolvida e usada por crianças. O debate permanece sobre como equilibrar inovação tecnológica com proteção infantil.

O que vem a seguir