Operação Nacional de 3 Meses para Limpar o Abuso de IA
Para regulamentar serviços e aplicações de IA, promover um desenvolvimento saudável e ordenado do setor e proteger os direitos legais dos cidadãos, recentemente o Gabinete Central de Ciberespaço publicou um aviso para implementar, a nível nacional, uma ação especial de três meses intitulada Limpeza e Regulamentação do Abuso de IA. Um responsável do Gabinete Central de Ciberespaço afirmou que a ação especial será realizada em duas fases. A primeira fase reforça a governança da origem da IA, limpa e corrige aplicações de IA violadoras, fortalece a gestão de conteúdos gerados pela IA e a identificação de conteúdo, e impulsiona as plataformas a melhorar a capacidade de detecção e verificação. A segunda fase foca no uso indevido de IA para criar boatos, disseminar informações falsas, conteúdo sexual impróprio, imitar pessoas e realizar atividades de manipulação de opinião, com a remoção de informações ilegais e nocivas, bem como a punição de contas violadoras, organizações MCN e plataformas.
In This Article:
- 1. Produtos de IA em violação
- 2. Ensinar e vender tutoriais e produtos de IA violadores
- 3. Gestão de dados de treino inadequada
- 4. Medidas de segurança fracas
- 5. Falta de rotulagem de conteúdo
- 6. Riscos de segurança em áreas-chave
- 1. Utilizar IA para criar boatos
- 2. Utilizar IA para produzir informações falsas
- 3. Utilizar IA para produzir conteúdo pornográfico de baixo teor
- 4. Usar IA para se passar por terceiros
- 5. Utilizar IA para atividades de water army
- 6. Produtos, serviços e aplicações de IA violadores
- 7. Violação dos direitos de menores
- Conclusão e apelo às autoridades locais
1. Produtos de IA em violação
1. Produtos de IA em violação. Utilizam tecnologia de IA generativa para fornecer serviços de conteúdo ao público, mas não cumprem o procedimento de registo do modelo de grande escala. Oferecem funções como “despir com um clique” que violam leis e ética. Sem autorização nem consentimento, clonam ou editam informações biométricas de terceiros, como voz e rosto, violando a privacidade alheia.
2. Ensinar e vender tutoriais e produtos de IA violadores
2. Ensinar e vender tutoriais e produtos de IA violadores. Ensinar a utilização de produtos de IA violadores para falsificar vídeos de troca de rosto, alterar áudio, etc. Vender produtos como “sintetizadores de voz” e “ferramentas de troca de rosto”. Realizam marketing, promoção e divulgação de informações sobre IA violadores.
3. Gestão de dados de treino inadequada
3. Gestão de dados de treino inadequada. Utilizam informações que violam direitos de propriedade intelectual, privacidade e outros. Utilizam conteúdos falsos, inválidos ou inexatos obtidos online. Utilizam dados de fontes ilegais. Não criaram mecanismos de gestão de dados de treino nem inspecionam periodicamente os dados para identificar e limpar conteúdos violadores.
4. Medidas de segurança fracas
4. Medidas de segurança fracas. Não estabeleceram medidas de moderação de conteúdo e identificação de intenções proporcionais à escala do negócio. Não criaram um mecanismo eficaz de gestão de contas violadoras. Não realizam avaliações de segurança periódicas. Plataformas de redes sociais que disponibilizam IA através de APIs têm bases de dados pouco claras e controlo insuficiente.
5. Falta de rotulagem de conteúdo
5. Falta de rotulagem de conteúdo. Os prestadores de serviços não adicionam rótulos implícitos nem explícitos a conteúdos gerados por síntese profunda, nem fornecem aos utilizadores uma função de identificação explícita. Plataformas de divulgação de conteúdos não realizaram monitorização de conteúdos gerados, levando a informações falsas que induzem o público em erro.
6. Riscos de segurança em áreas-chave
6. Riscos de segurança em áreas-chave. Para produtos de IA já registados que fornecem serviços de perguntas e respostas em áreas-chave como medicina, finanças e menores de idade, não foram criadas auditorias de segurança setoriais nem medidas de controlo específicas. Surgiram problemas como “IA a prescrever”, “incentivar investimentos” e “ilusões de IA”, enganando estudantes e pacientes e perturbando a ordem do mercado financeiro.
1. Utilizar IA para criar boatos
1. Utilizar IA para criar boatos. Criar boatos sobre acontecimentos políticos atuais, políticas públicas, vida social, relações internacionais, eventos súbitos, etc., ou fazer previsões falsas e interpretações maliciosas de políticas importantes. Aproveitar incidentes ou desastres para fabricar causas, progressos e detalhes. Falsificar conferências oficiais de imprensa ou reportagens e divulgar boatos. Utilizar conteúdos gerados pela IA com viés cognitivo para conduzir o público de forma maliciosa.
2. Utilizar IA para produzir informações falsas
2. Utilizar IA para produzir informações falsas. Combinar imagens e vídeos irrelevantes ou fora de contexto para criar informações com traços de verdade e ficção. Difuminar elementos como tempo, local e pessoas para reacender notícias antigas. Produzir conteúdos em áreas como finanças, educação, direito/justiça e saúde que exponham exageros ou pseudociência. Utilizar IA para previsões divinatórias ou horóscopos com o objetivo de enganar e disseminar superstições.
3. Utilizar IA para produzir conteúdo pornográfico de baixo teor
3. Utilizar IA para produzir conteúdo pornográfico de baixo teor. Gerar conteúdos eróticos sintéticos ou imagens/vídeos de terceiros com conteúdo sexual, roupas expostas, poses provocantes ou conteúdos de natureza suave, semicura e de estilo anime. Também podem incluir cenas de violência ou horror geradas por IA.
4. Usar IA para se passar por terceiros
4. Usar IA para se passar por terceiros e cometer infrações de direitos autorais ou atividades ilegais. Por meio de tecnologias de falsificação profunda como troca de rosto e clonagem de voz, enganar internautas fingindo ser especialistas, empresários, celebridades ou outras figuras públicas, para enganar ou lucrar. Usar IA para zombar, difamar, distorcer ou desumanizar figuras públicas ou históricas. Usar IA para fingir ser familiares e cometer fraudes online. Uso indevido de IA para ‘reviver’ falecidos ou explorar informações de falecidos.
5. Utilizar IA para atividades de water army
5. Utilizar IA para atividades de water army. Criar contas automáticas, simular registro e operação de contas em redes sociais com IA. Gerar conteúdo com IA para criar fazendas de conteúdo ou reformulação de textos, produzindo textos de baixa qualidade de forma repetida para atrair tráfego. Usar software de controle em grupo com IA e robôs sociais para dar curtidas, comentários e seguir/desafiar, inflar a audiência e promover tendência de topic.
6. Produtos, serviços e aplicações de IA violadores
6. Produtos, serviços e aplicações de IA violadores. Produzir e disseminar sites e apps de IA falsos ou mascarados. Aplicações de IA que oferecem funções violadoras, por exemplo, ferramentas de criação que ampliam tendências de pesquisa para gerar textos, ou apps de IA social e de companhia que oferecem conversas de caráter lascivo ou sugestivo. Vender, promover e atrair tráfego de aplicações de IA violadores ou serviços de síntese.
7. Violação dos direitos de menores
7. Violação dos direitos de menores. Aplicações de IA que induzem menores à dependência ou que, no modo infantil, contêm conteúdos que afetam negativamente a saúde física e mental de menores.
Conclusão e apelo às autoridades locais
Os responsáveis do Gabinete Central de Ciberespaço ressaltam a importância da ação para prevenir o abuso da IA e proteger os direitos dos internautas. Devem cumprir fielmente as responsabilidades de gestão local, orientar plataformas a seguir os requisitos da ação, aperfeiçoar os mecanismos de auditoria de conteúdos gerados por IA, aumentar a capacidade de detecção técnica e assegurar a implementação das medidas. Devem promover a divulgação de políticas relacionadas com IA e a alfabetização em IA, orientar todos os intervenientes a reconhecer e aplicar corretamente a tecnologia de IA, fortalecendo continuamente o consenso de governança.