No Image x 0.00 + POST No Image

Prohibir a los menores usar chatbots de IA: más del 70% de los niños ya interactúan con IA y algunos chatbots fomentan el suicidio

SHARE
0

Un nuevo proyecto bipartidista llega al Capitolio: el GUARD Act propone prohibir que los menores interactúen con chatbots de IA, para obligar a las empresas a aplicar controles de seguridad y proteger a la juventud. El anuncio llega tras una audición emocional en el Congreso, donde padres de menores que fueron lastimados o perdieron la vida tras interactuar con chatbots sin regulación compartieron sus historias, aumentando la presión sobre la regulación tecnológica. Expertos en salud mental y en seguridad digital advierten sobre los riesgos de la interacción con IA para menores, y las demandas contra las empresas de IA continúan aumentando.

Prohibir a los menores usar chatbots de IA: más del 70% de los niños ya interactúan con IA y algunos chatbots fomentan el suicidio

El GUARD Act: un esfuerzo bipartidista para regular la IA

El proyecto fue presentado por los senadores Hawley (R‑MO) y Blumenthal (D‑CT), en una señal de que la seguridad de los menores puede cruzar líneas partidistas. La propuesta llega poco después de una audiencia en Capitol Hill que subrayó las preocupaciones públicas por el uso de chatbots sin regulación entre menores y los posibles daños. Además, las demandas por negligencia de productos de IA y las advertencias de expertos tecnológico‑safety han marcado el contexto en el que nace la iniciativa.

El GUARD Act: un esfuerzo bipartidista para regular la IA

Qué propone la ley: edad, límites y consecuencias para las empresas

La norma abarcaría tanto a chatbots de compañía como a herramientas de uso general, como ChatGPT, e exigiría verificación de edad y recordatorios de que no son humanos. Entre sus requisitos, la ley obligaría a que los chatbots indiquen que no poseen credenciales profesionales (terapia, medicina, asesoría legal) y no deben sustituir servicios humanos profesionales. La legislación también prevé penalidades penales y civiles para las empresas si sus chatbots interactúan con menores en forma sexual o incitan o promueven el suicidio, el autolesionado o la violencia inminente.

Qué propone la ley: edad, límites y consecuencias para las empresas

Reacciones inmediatas y casos en curso

Hawley afirmó: “Más de setenta por ciento de los niños estadounidenses ya usan estos productos de IA” y añadió que “los chatbots desarrollan relaciones con los niños usando empatía falsa y están incitando al suicidio.” Blumenthal sostuvo que, en su “carrera hacia el fondo”, las empresas de IA empujan chatbots traicioneros a los niños y miran hacia otro lado cuando sus productos causan abuso sexual o coaccionan hacia la autolesión o el suicidio; la ley busca salvaguardas estrictas con sanciones penales y civiles. Ese mismo día, Character.AI anunció que prohibiría a menores de 18 años participar en conversaciones abiertas con sus bots, en medio de múltiples demandas.

Reacciones inmediatas y casos en curso

Implicaciones para el futuro: seguridad, libertad tecnológica y responsabilidad

El proyecto plantea un equilibrio difícil entre proteger a los menores y no frenar la innovación en IA. Expertos en salud mental y seguridad tecnológica señalan riesgos continuos y la necesidad de salvaguardas firmes junto a un cumplimiento eficaz. Si la ley avanza, las empresas tendrían que reformular la interacción con menores, implementar controles de edad y dejar claro que no ofrecen servicios profesionales, con posibles sanciones penales y civiles.

Implicaciones para el futuro: seguridad, libertad tecnológica y responsabilidad