sábado, 27

de

abril

de

2024

ACESSE NO 

Nem carta anônima, nem coxinha da dona Maria: eleição 2024 pode ter forte influência de IA

Últimas Notícias

Inteligência Artificial preocupa autoridades

RISCOS

- Ads -

COLUNA DE DOMINGO Em 2000, Leoberto Weinert (MDB) tem certeza que sua derrota foi consequência direta de uma carta anônima que amanheceu nas soleiras das portas dos canoinhenses, demonizando a Loja Maçônica da qual participava, clamando para o preconceito (que nunca falha) do canoinhense. Naquele ano a eleição foi para Orlando Krautler.

Para citar dois exemplos mais recentes, em 2016 o então coordenador da campanha de Beto Passos e Renato Pike teve um áudio vazado no qual adiantava o que os dois aprontariam na prefeitura, o que só ficou evidente com a explosão da Et Pater Filium. Claro, como esquecer das coxinhas da dona Maria, oscilando apoio entre Beto Passos e Norma Pereira em 2020.

Relembro estes três episódios que entraram para o folclore eleitoral canoinhense para tentar entender o que pode ser o ponto de virada da eleição deste ano que, prepare-se, tem tudo para ser a mais baixo nível da história recente na cidade. As puxadas de tapete e negociações obscuras com gente que até pouco tempo estava na cadeia já mostram o que podemos esperar.

Pois quem entende de tecnologia canta a pedra: essa eleição será sob o signo da inteligência artificial (IA). O advento do ChatGPT, aprimorado na velocidade da luz nos últimos meses, deve ser usado em larga escala nesta eleição e a má notícia é que pouco ou nada pode ser feito. Áudios fakes com o timbre de voz dos candidatos e vídeos com o rosto do pretendente ocupando o corpo de um assassino, uma pessoa em surto ou dizendo uma sucessão de barbaridades já são possíveis. Com comandos de poucas linhas, o cidadão mal-intencionado pode conseguir manusear essa poderosa ferramenta em poucos segundos.

Ao ser amplamente divulgado, inclusive com a possibilidade de ser impulsionado, caberá à parte citada provar que o vídeo ou áudio é fake. Eis uma tarefa inglória, até porque o material manipulado sempre terá maior apelo do que a negativa do alvo.

O Brasil é um país onde as plataformas de mensagens são usadas por uma imensa parcela da população. O WhatsApp tem mais de 142 milhões de contas no país. Segundo o CEO da empresa, Will Cathcart, o Brasil é o país que mais envia áudios por meio do WhatsApp. Essas duas características tornam os deepfakes de voz uma poderosa ferramenta na guerra da informação durante as disputas eleitorais.

Pesquisadores alertam que a dificuldade de detectar áudio criado por IA é maior do que em relação a vídeos falsos, pois existem menos informações contextuais para identificar áudios falsos. Ainda não estão delineadas publicamente as estratégias das grandes plataformas de redes sociais para identificar e bloquear a circulação de áudios falsos. Muito menos de vídeos fakes.

Tenho um palpite: as plataformas não sabem como fazer isso. Certa vez uma reportagem da Folha de S.Paulo mostrou como trabalhava o exército de funcionários do Facebook para retirar material malicioso do ar, o que nem sempre conseguiam dado o altíssimo volume de crimes e afins que eram transmitidos ao vivo pela rede. Como exemplo, um grupo de homens triturava uma vaca viva ao vivo quando a cena bizarra foi detectada e derrubada.

Se algo tão explícito pode passar, imagine um vídeo ou áudio falso? Como, manualmente, alguém vai identificar a falsidade do material? Lamento, mas isso parece bem difícil de ser detectado. Dessa forma, o que deve imperar é o caos, com candidatos bombardeados com material falso produzido usando IA e lutando na lenta Justiça para derrubar o material. Até lá, o estrago deve ser irreparável.

- Ads -
Olá, gostaria de seguir o JMais no WhatsApp?
JMais no WhatsApp?