Published on novembro 9, 2023, 6:47 am
A Meta, empresa-mãe do Facebook e Instagram, anunciou que os anunciantes terão que declarar se utilizaram Inteligência Artificial (IA) ou outros softwares para criar ou alterar imagens e áudios em propaganda política. Essa exigência passará a valer globalmente no início do próximo ano.
Essa medida tem como objetivo combater o uso indevido da IA na criação de conteúdos falsos, principalmente em questões sociais, eleições e política. Os anunciantes precisarão indicar se as imagens ou sons foram digitalmente criados ou alterados, inclusive com a utilização de IA para fazer com que pessoas reais pareçam dizer coisas que não fizeram ou disseram.
Além disso, os anunciantes também terão que revelar quando utilizarem IA para criar pessoas fictícias ou eventos realistas falsos. Essas medidas visam trazer mais transparência às propagandas políticas nas plataformas da Meta.
A AFP e outros parceiros de verificação poderão rotular o conteúdo como “alterado” caso determinem que tenha sido criado ou editado de forma enganosa. Isso auxiliará na identificação de informações falsas disseminadas por meio da IA.
A preocupação com o uso indevido da IA tem crescido, especialmente no contexto das eleições. Para lidar com esse problema, a Microsoft está planejando lançar ferramentas em 2024 que permitirão aos candidatos incluir “credenciais” em imagens e vídeos produzidos durante suas campanhas. Além disso, a empresa também formará uma equipe dedicada a auxiliar as campanhas na luta contra ameaças baseadas em IA.
Essas ações representam um avanço no sentido de regular o uso da IA em propaganda política e combater a disseminação de informações falsas. É importante que os anunciantes estejam cientes das novas exigências e sigam as diretrizes estabelecidas pela Meta para garantir a integridade das propagandas veiculadas nas redes sociais. Dessa forma, será possível construir um ambiente digital mais confiável e transparente para todos os usuários.