A OpenAI identificou e baniu um grupo de contas do ChatGPT ligadas a uma operação de influência iraniana, conhecida como Storm-2035, que estava utilizando a tecnologia de inteligência artificial para disseminar desinformação e tentar manipular a opinião pública, especialmente em relação à eleição presidencial dos Estados Unidos.
A descoberta foi feita com base no relatório “Microsoft Threat Intelligence”, que revelou que o grupo Storm-2035 vem criando e compartilhando notícias falsas desde 2020, com o objetivo de influenciar as eleições nos EUA. A operação envolvia 1 conta no Instagram e 12 contas na plataforma X (antigo Twitter), nas quais o grupo usava o ChatGPT para redigir e publicar postagens, comentários e artigos longos. Um dos conteúdos, por exemplo, acusava a plataforma X de censurar os tweets do ex-presidente Donald Trump.
Embora a OpenAI tenha confirmado que os conteúdos gerados pela IA não tiveram ampla disseminação nem engajamento significativo, a descoberta acende um alerta sobre o uso de inteligência artificial para a propagação rápida e barata de desinformação. A preocupação é ainda maior considerando que, apenas três meses atrás, a OpenAI já havia identificado e banido cinco campanhas similares.
Este caso remonta aos tempos em que agentes mal-intencionados usavam as redes sociais para influenciar eleições, mas agora, com o uso de IA, a capacidade de gerar e espalhar informações maliciosas se tornou ainda mais ágil e potencialmente perigosa.