A gigante norte-americana Meta anunciou, nesta terça-feira (6), que vai identificar "nos próximos meses" qualquer imagem gerada por inteligência artificial (IA) que apareça em suas redes sociais Facebook, Instagram e Threads.

A empresa já identifica imagens feitas por robôs com a ajuda de sua própria ferramenta, Meta IA, lançada em dezembro.

"Nos próximos dias, iremos rotular imagens que os usuários publicarem no Facebook, Instagram e Threads sempre que pudermos detectar indicadores, conforme as normas da indústria, que revelem se são geradas por IA", disse o responsável por assuntos internacionais da Meta, Nick Clegg, em um blog.

Daqui para frente, "queremos fazer o mesmo com conteúdos criados com ferramentas de outras empresas" como Google, OpenAI, Microsoft, Adobe, Midjourney ou Shutterstock, acrescentou Clegg.

O aumento da IA generativa faz crescer a preocupação de que as pessoas usem essas ferramentas para gerar caos político, especialmente por meio da desinformação. Quase metade da população mundial irá às urnas em 2024.

Além do risco político, o desenvolvimento de programas de IA generativa pode resultar em um fluxo incontrolável de conteúdos degradantes, segundo muitos ativistas e reguladores.

Como exemplo estão as deepfakes pornográficas de mulheres famosas, um fenômeno que também afeta muitas pessoas anônimas.

Antes de sua remoção, a deepfake da cantora Taylor Swift foi vista 47 milhões de vezes na rede social X (ex-Twitter), no final de janeiro. Segundo a imprensa norte-americana, a publicação permaneceu no ar na plataforma por cerca de 17 horas.

​Embora Nick Clegg tenha afirmado que a ferramenta "não eliminará" totalmente o risco de produção de imagens falsas, "certamente minimizará" sua proliferação "dentro dos limites do que a tecnologia permite atualmente".