Subsecretária-geral de Comunicação Global informou membros do Conselho de Segurança sobre quatro graves riscos ligados ao uso da tecnologia para propagar desinformação; potenciais danos incluem disrupção de missões de paz e eleições, perda de confiança na ciência e difamação de indivíduos, especialmente mulheres
Os avanços em Inteligência Artificial fazem com que o ambiente digital esteja prestes a se tornar ainda pior na propagação da desinformação. A conclusão é da subsecretária-geral da ONU de Comunicação Global, Melissa Fleming.
Ao discursar para membros do Conselho de Segurança nesta terça-feira, ela alertou que as ferramentas de Inteligência Artificial generativa permitem que “grandes volumes de desinformação convincente, em texto, áudio e vídeo, sejam produzidos em escala, por custos baixos e pouca intervenção humana”.
Arma cada vez mais poderosa
A subsecretária-geral participou da uma reunião convocada pelos Emirados Árabes Unidos e pela Albânia sobre “Impactos da Inteligência Artificial no Discurso de Ódio e na Desinformação”.
Ela ressaltou que essa tecnologia já é usada há muito tempo por agentes da desinformação para distribuir conteúdo através de “robôs” nas redes sociais, circular narrativas disruptivas ou atacar indivíduos.
Segundo Melissa Fleming, os algoritmos são programados para priorizar engajamento e ampliar postagens que geram revolta, o que frequentemente resulta na propagação de discurso de ódio. Ela afirmou que esse design dos algoritmos limita o alcance das informações confiáveis, incluindo as produzidas pela ONU.
A chefe de Comunicação Global destacou quatro áreas de preocupação sobre como a inteligência artificial “está se tornando uma arma cada vez mais potente nas guerras de informação”.
Ataques direcionados
Em primeiro lugar, a desinformação direcionada já está a afetando os esforços de paz e segurança da ONU. Em muitas partes do mundo, as operações de paz, humanitárias e políticas da organização se tornam objeto de narrativas falsas.
Segundo Melissa, isso põe em perigo o pessoal das Nações Unidas e os civis que têm a tarefa de ajudar e proteger.
Mais de 70% das forças de manutenção da paz da ONU que responderam a uma pesquisa recente afirmaram que a desinformação já afetou grave ou criticamente a sua capacidade de implementar os seus mandatos.
“Aqueles que trabalham para manter a paz, prestar ajuda humanitária e denunciar atrocidades estão se tornando alvos de histórias distorcidas. Isto pode minar as suas missões, colocando as populações e os doadores contra eles”, disse.
Imagens falsas: Os Deepfakes
Outro ponto de preocupação sobre a IA generativa é a criação de imagens falsas, os Deepfakes. Segundo Melissa, muitos grupos que trabalham na deteção de material de abuso sexual infantil estão vendo a utilização da IA para criar imagens fictícias e fotorrealistas de abuso de crianças com fins lucrativos.
Cada vez mais, são identificadas a mistura de imagens de abuso sexual geradas por IA com rostos de crianças reais.
A tecnologia Deepfake também está sendo usada de forma alarmante para gerar imagens pornográficas não consensuais de mulheres e meninas. Muitas vezes os alvos são mulheres na política ou no jornalismo e ativistas.
No contexto da crise do Médio Oriente, a subsecretária-geral alertou sobre como as ferramentas de IA têm sido utilizadas para exacerbar os estereótipos antissemitas e islamofóbicos existentes, polarizando ainda mais as populações, inclusive através de imagens manipuladas pela IA.
Manipulação de eleições
A terceira preocupação é o uso do potencial da IA para manipulação de eleitores. Este é um tema central no “super-ano eleitoral” de 2024, quando mais de 2 bilhões de pessoas irão às urnas.
A chefe de comunicação destacou os riscos da tecnologia sendo usada para influenciar a opinião pública e criar maiorias fictícias online, dando uma falsa impressão de apoio a um candidato ou a uma questão em detrimento de outra.
A desinformação pode se basear inclusive em falsificações profundas e clonagem de vozes de candidatos políticos, além de servir ao assédio sistemático de adversários ou jornalistas.
Campanhas anti-ciência
Por último, Melissa abordou como as ferramentas de IA generativa também tornarão mais fácil e barato propagar conteúdo que questione a ciência estabelecida e desperte suspeitas nas instituições públicas.
Isto ameaça intensificar as campanhas de desinformação para inviabilizar e atrasar a ação climática, amplificando informações falsas sobre aquecimento global e energias renováveis.
Ela citou um relatório recente que concluiu que, desde maio, o número de sites de notícias gerados por IA, que operam em vários idiomas com pouca ou nenhuma supervisão humana, aumentou de 49 para quase 600.
Alguns desses sites são preenchidos com milhares de novos artigos por dia. Frequentemente, eles imitam sites de notícias familiares e divulgam histórias completamente inventadas.
Ecossistemas de informação
Para Melissa, “isso é particularmente desestabilizador em zonas de conflito e ambientes tensos”.
Ela ressaltou que os desenvolvedores de IA generativa “devem colocar as pessoas antes dos lucros” e encontrar soluções antes de fazer experimentos com a tecnologia na vida real.
A chefe de Comunicação Global elogiou passos iniciais como colocar marca d’água e impressão digital em fotos e vídeos gerados por IA e pediu investimentos robusto em IA generativa que abranja a segurança e a privacidade desde a concepção.
“O mundo precisa de ecossistemas de informação saudáveis, se quisermos sociedades informadas, estáveis e unidas”, concluiu.