Published on novembro 8, 2023, 9:44 pm
A Meta, empresa responsável pelo Facebook e Instagram, anunciou uma nova política que exigirá que os anunciantes declarem se utilizaram Inteligência Artificial (IA) ou outro software para a criação ou alteração de imagens e áudios em anúncios políticos. Essa mudança será aplicada globalmente a partir do próximo ano.
De acordo com Nick Clegg, presidente de assuntos globais da Meta, os anunciantes que promovem questões sociais, eleições e política terão que indicar se as imagens ou sons foram digitalmente alterados, incluindo o uso de IA para criar falas falsas por pessoas reais. Além disso, será necessário revelar quando a IA for usada na criação de pessoas ou eventos fictícios realistas.
Como forma de combater a desinformação e a manipulação durante as eleições, a Meta também permitirá que parceiros de verificação, como a AFP, rotulem conteúdos como “alterados” caso determinem que houve edição enganosa.
A preocupação com o poder cada vez maior da IA no cenário político é crescente. A Microsoft também está tomando medidas para lidar com esse problema. A empresa planeja lançar ferramentas em 2024 que permitirão aos candidatos incluírem “credenciais” em imagens e vídeos produzidos por eles. Além disso, a Microsoft criará uma equipe dedicada a auxiliar as campanhas no combate às ameaças baseadas em IA.
Essas medidas visam garantir maior transparência no ambiente digital e proteger os usuários contra informações falsas durante processos eleitorais. A utilização ética da IA é essencial nesse contexto, assegurando a confiança nas redes sociais e na integridade do debate público.