MADEIRA Meteorologia

‘Deepfakes’ na guerra de Gaza aumentam receios do poder da Inteligência Artificial

Data de publicação
29 Novembro 2023
16:00

Entre imagens das casas bombardeadas e das ruas devastadas de Gaza, há algumas que se destacam pelo horror: bebés abandonados e ensanguentados.

Vistas milhões de vezes ‘on-line’ desde o início da guerra, estas imagens são ‘deepfake’, criadas com recurso à Inteligência Artificial (IA). Olhando com atenção, é possível ver pistas: dedos que se mexem de forma estranha ou olhos que brilham com uma luz não natural – tudo sinais reveladores de fraude digital.

Contudo, a indignação que estas imagens pretendem criar é muito real.

As imagens da guerra entre Israel e o Hamas ilustraram de forma viva e dolorosa o potencial da IA como ferramenta de propaganda, usada para criar imagens de uma carnificina. Desde o início da guerra, as imagens alteradas digitalmente e divulgadas nas redes sociais têm sido utilizadas para enganar as pessoas sobre atrocidades que nunca aconteceram ou lançar falsas alegações sobre a responsabilidade das mortes.

Apesar de a maior parte dessas falsas alegações que circulam na Internet sobre a guerra não necessitarem de IA para serem criadas e terem origem em fontes mais convencionais, os avanços tecnológicos estão a surgir com uma frequência cada vez maior e com pouco controlo. Isso fez com que o potencial da IA se tornasse uma nova arma, dando uma ideia do que está para vir em futuros conflitos, eleições e outros grandes acontecimentos.

“Isto vai piorar – e piorar muito – antes de melhorar”, disse Jean-Claude Goldenstein, diretor executivo da CREOpoint, empresa tecnológica com sede em São Francisco e Paris que utiliza a IA para avaliar a validade de algumas reivindicações ‘online´. A empresa criou uma base de dados das ‘deepfakes’ mais virais sobre Gaza. “Imagens, vídeo e áudio: com a IA generativa, vai ser uma escalada nunca vista”.

Em alguns casos, fotografias de outros conflitos e catástrofes foram reaproveitadas e divulgadas como se fossem novas. Noutros, foram utilizados programas de IA generativa para criar imagens de raiz, como a de um bebé a chorar no meio de destroços de um bombardeamento que se tornou viral nos primeiros dias do conflito.

Outros exemplos de imagens geradas por IA incluem vídeos que mostram supostos ataques de mísseis israelitas ou tanques a passar por bairros em ruínas, ou ainda famílias a vasculhar os escombros em busca de sobreviventes.

Em muitos casos, as falsificações parecem ter sido concebidas para evocar uma forte reação emocional ao incluir os corpos de bebés, crianças ou famílias. Nos primeiros sangrentos dias da guerra, os apoiantes de Israel e do Hamas alegaram que o outro lado tinha matado crianças e bebés. Imagens ‘deepfake’ de bebés a chorar foram apresentadas como “prova” fotográfica.

Os propagandistas que criam estas imagens são hábeis em apelar aos impulsos e ansiedades mais profundas das pessoas, disse Imran Ahmed, diretor executivo do Center for Countering Digital Hate, uma organização sem fins lucrativos que tem acompanhado a desinformação sobre a guerra. Quer se trate da imagem de um bebé ‘deepfake’ ou de uma imagem real de uma criança de outro conflito, o impacto emocional para quem vê é o mesmo.

Quanto mais horrível for a imagem, maior é a possibilidade de uma pessoa se lembrar dela, partilhá-la, espalhando involuntariamente desinformação.

“Estão a dizer, olhem para esta fotografia de um bebé. A desinformação é concebida para nos fazer participar nela”, disse Ahmed.

Conteúdos enganadores gerados por IA começaram a espalhar-se depois da invasão da Ucrânia pela Rússia, em 2022. Um vídeo adulterado parecia mostrar o presidente, Volodymyr Zelensky, a pedir aos ucranianos que se rendessem. Estas afirmações voltaram a circular há uma semana, o que mostra como a desinformação pode ser persistente, mesmo quando é facilmente desmontada.

Cada novo conflito, ou época de eleições, oferece novas oportunidades para quem espalha a desinformação mostrar os últimos avanços da IA. Especialistas em IA e cientistas políticos alertam para os riscos em eleições no próximo ano, incluindo nos Estados Unidos, Índia, Paquistão, Ucrânia, Taiwan, Indonésia e México.

O risco de a IA e as redes sociais poderem ser usadas para espalhar mentiras aos eleitores americanos alarmou democratas e republicanos em Washington. Numa audiência recente sobre os perigos da tecnologia ‘deepfake’, o deputado Jerry Connolly, democrata da Virginia, afirmou que os Estados Unidos devem investir no financiamento do desenvolvimento de ferramentas de IA concebidas para contrariar a Inteligência Artificial.

Em todo o mundo, várias empresas tecnológicas estão a trabalhar em novos programas que podem detetar falsificações profundas, colocar marcas de água para provar a sua origem ou digitalizar um texto para verificar quaisquer informações enganadoras ou erradas que possam ter sido inseridas pela IA.

“A próxima vaga de IA será: como é que podemos verificar o conteúdo que existe. Como se pode detetar a desinformação? Como se pode analisar um texto para determinar se é fidedigno?”, afirmou Maria Amelie, cofundadora da Factiverse, uma empresa norueguesa que criou um programa de IA que pode analisar o conteúdo em busca de imprecisões ou distorções introduzidos por outros programas de IA.

Esses programas seriam de interesse imediato para educadores, jornalistas, analistas financeiros e outros interessados em detetar falsidades, plágios e fraudes. Estão a ser concebidos programas semelhantes para detetar fotografias e vídeos adulterados.

Embora esta tecnologia seja promissora, quem utiliza a IA para mentir está muitas vezes um passo à frente, de acordo com David Doermann, um cientista informático que liderou um esforço na agência norte-americana de projetos de investigação avançada na Defesa para responder às ameaças à segurança nacional colocadas pelas imagens manipuladas por Inteligência Artificial.

Doermann, que agora é professor na Universidade de Buffalo, disse que para responder eficazmente aos desafios políticos e sociais colocadas pela desinformação da IA serão necessárias melhores tecnologias e melhores regulamentações, normas da indústria e investimentos em programas de literacia mediática para ajudar os utilizadores da Internet a descobrir formas de distinguir a verdade da ilusão.

“Sempre que lançamos uma ferramenta que deteta isto, os nossos adversários podem utilizar a IA para encobrir essas provas”, disse Doermann. “A deteção e a tentativa de eliminar estas coisas já não são a solução. Precisamos de uma solução muito maior”, acrescentou.

OPINIÃO EM DESTAQUE

88.8 RJM Rádio Jornal da Madeira RÁDIO 88.8 RJM MADEIRA

Ligue-se às Redes RJM 88.8FM

Emissão Online

Em direto

Ouvir Agora
INQUÉRITO / SONDAGEM

No que diz respeito à Madeira, qual é a sua opinião sobre o Orçamento do Estado para 2025?

Enviar Resultados

Mais Lidas

Últimas