USO DE IA PARA PRODUZIR VÍDEOS FALSOS UTILIZADOS EM GOLPES PREOCUPA O RN

 | Foto: Alex Régis

O boom das ferramentas de Inteligência Artificial nos últimos anos e a chegada de interfaces que simulam a realidade humana têm gerado um debate intenso sobre o perigo do uso desenfreado da tecnologia na sociedade. Prova disso é um vídeo que circulou nas últimas semanas em que a imagem do Arcebispo de Natal, Dom João Santos Cardoso, aparecia pedindo dinheiro para custear o tratamento de uma criança. Os deep fakes, como são chamados, têm crescido de maneira exponencial na sociedade e gerado danos em alguns casos irreversíveis para usuários. Especialistas, advogados e entusiastas do tema veem com preocupação e cobram ferramentas que permitam ao usuário distinguir o real do virtual.

O caso envolvendo o Arcebispo de Natal não é o primeiro nem foi o último. São vários os relatos de utilização de deep fake em várias esferas da vida social. Em 2023, alunas de um colégio em Recife denunciaram divulgação de ‘nudes’ falsos criados com inteligência artificial. Além da criação e uso indevido de imagens, os áudios também ganham conotação diferente, com golpistas e criminosos se aproveitando das inteligências artificiais generativas para aplicar o golpe do falso sequestro, do Pix, em eleições, entre outros. Em junho, um caso emblemático fez com que a deputada Laura McClure, da Nova Zelândia, imprimiu e mostrou no parlamento uma imagem dela nua que foi criada por ferramentas de I.A. A ideia era conscientizar sobre o perigo das plataformas e o dano devastador das deep fakes.

Embora o boom das I.As tenha se iniciado no segundo semestre de 2022, segundo especialistas, sua popularização e uso têm se intensificado dia após dia. Prova disso é a chegada da Veo3, ferramenta da Google que gera vídeos realistas e complexos em alta definição, com efeitos de câmeras, transições suaves, efeitos sonoros e ambientes de diálogos nos vídeos. Um dos casos emblemáticos foi a criação do programa de auditório fictício “Marisa Maiô”, que chegou a receber anúncios publicitários e gerou uma série de debates e discussões nas redes sociais acerca dos limites envolvendo a inteligência artificial e a criação de personagens.

Segundo Daniel Sabino, professor associado do Instituto Metrópole Digital da UFRN e especialista em temas como Inteligência Artificial, Aprendizado de Máquina e Big Data, há modelos de IA que são treinados para reconhecer a face de uma pessoa e o comportamento natural da face. A partir disso, esses modelos detectam essas faces a partir de características comuns de um rosto humano, como localização de pontos específicos e até a forma como os movimentos mais comuns acontecem, como piscar de olhos, inclinação da cabeça e movimento da boca na fala.

“Outros modelos são treinados para gerar novas imagens a partir de muitas outras. Nesse caso, um modelo pode aprender como gerar faces a partir de uma grande base de dados de imagens de pessoas. Da mesma maneira, pode se fazer com a parte de áudio para identificar e produzir a fala das pessoas. Ao juntar todas essas técnicas, é possível produzir um vídeo completo de uma pessoa a partir de uma ou mais fotos dela ou ainda substituir a face de uma pessoa por outra em um vídeo existente”, acrescenta o professor da UFRN.

Segundo a especialista em Inteligência Artificial Aplicada à Educação e gerente de qualidade e inovação do Senac-RN, Priscila Silveira, as deep fakes geram problemas sociais das mais diversas camadas, com a necessidade de as grandes empresas tecnológicas criarem ferramentas para auxiliar o usuário a distinguir o que é I.A. do que é real.

“As eleições do ano que vem serão desafiadoras porque não temos ferramentas de detecção para facilmente dizer se algo foi gerado com I.A ou não, que é um dos grandes desafios que é impor às empresas capazes de gerar ferramentas que processam o vídeo tal ou similar a um ser humano, que tragam uma marca d’água, ou uma ferramenta associada que leve a detectar que aquilo foi criado com I.A, para facilmente verificarmos a autenticidade de uma imagem, de um vídeo. Isso é essencial”, acrescenta.

Do ponto de vista legal, Priscila Silveira explica ainda que a legislação referente à Inteligência Artificial aguarda regulamentação por parte do Governo Federal. A Câmara dos Deputados está analisando o Projeto de Lei 2338/23, do Senado, que regulamenta o uso da inteligência artificial (IA) no Brasil. A proposta classifica os sistemas de inteligência artificial quanto aos níveis de risco para a vida humana e de ameaça aos direitos fundamentais. Também divide as aplicações em duas categorias: inteligência artificial; e inteligência artificial generativa.

IA reformula a maneira de encarar o mundo

A chegada dos deep fakes e a disseminação de ferramentas que criam vídeos, imagens e áudios falsos gera um alerta também no Direito Penal. Na opinião do advogado criminalista e especialista em Inteligência Artificial, Gabriel Bulhões, as deep fakes “reformulam a forma como enxergamos o mundo”.

“Aquele adágio de ver para crer ou de que uma imagem vale mais do que mil palavras não tem mais sentido atualmente nessa nova conformação. Com o avanço das I.As generativas de imagem e áudio, temos um problema enorme porque qualquer prova pode ser falseada, produzida, deturpada, plantada, independentemente do contexto e das pessoas envolvidas”, cita.

Embora montagens, edições de imagens e falsos áudios já existam há anos, a chegada de ferramentas que criam isso com poucos cliques e de maneira acessível para usuários sem tanto conhecimento tecnológico gera uma preocupação nos processos judiciais. Bulhões explica que o mundo jurídico ainda não está preparado para lidar com essa problemática do mundo moderno.

“Surge daí uma importância maior para dois temas: a cadeia de custódia da prova, que é aquilo que garante a originalidade e integridade das evidências que serão usadas no processo, e a prova pericial, de imagem, de vídeo, de comparação fonética, análise de fotogrametria, por exemplo, se tornam cada vez mais importantes e necessárias e dentro de um processo penal justo e democrático vão ser cada vez mais indesviáveis”, complementa.

Segundo Priscila Silveira, especialista em IA, as deep fakes geram problemas sociais de difícil solução | Foto: ALEX RÉGIS

Eleições de 2026 serão desafiadoras, diz especialista

Embora o Tribunal Superior Eleitoral (TSE) tenha editado regulamentações e normas sobre o uso de Inteligência Artificial no período eleitoral na última eleição ocorrida em 2024, o uso segue sendo disseminado e desenfreado em muitos dos casos. A Resolução Nº 23.610, de 18 de dezembro de 2019, atualizada recentemente em 2024, prevê a vedação na campanha eleitoral de conteúdo fabricado ou manipulado de fatos inverídicos ou descontextualizados. Há ainda menção específica para as deep fakes, proibindo o uso da tecnologia para prejudicar ou para favorecer candidatura.

Na avaliação de Priscila Silveira, especialista em Inteligência Artificial Aplicada à Educação e gerente de qualidade e inovação do Senac-RN, as eleições do ano que vem, terão repercussão em todo o país com a escolha do próximo presidente da República, serão desafiadoras para eleitores e candidatos.

“Como o impacto da rede social é enorme, daqui que se corrija que aquilo ali é fake, as eleições podem ter sido definidas por causa disso”, cita.

Segundo Daniel Sabino, professor associado do Instituto Metrópole Digital da UFRN e especialista em temas como Inteligência Artificial, Aprendizado de Máquina e Big Data, em um período eleitoral as utilizações de deep fake tornam-se cada vez mais sensíveis por dois motivos: a deturpação de imagens de candidatos e o pouco tempo para se reverter um dano à imagem.

“Com a tecnologia atual, é possível produzir conteúdo com qualidade muito próxima da realidade e em um contexto onde as atitudes de uma pessoa são rapidamente julgadas por meio das mídias sociais, a divulgação de deep fakes pode provocar danos à imagem de candidatos ou de pessoas envolvidas no cenário eleitoral, muitas vezes irreversíveis”, finaliza.