Investigação forense e perícia digital em deep fakes de áudios e conteúdos criados com Inteligência Artificial

O uso das deepfakes para fins ilícitos

O surgimento da Inteligência Artificial (IA) generativa, traz em si inúmeros desafios para a sociedade, abrindo um leque de opções para criminosos e fraudadores digitais. Em um ambiente de contratações online onde imagem, vídeo e áudios podem expressar manifestações de vontade, fatos ou ações, as novas possibilidades da IA generativa acendem o alerta de pessoas e autoridades.

A exemplo, em  uma guerra eleitoral digital, já tem notícias de deepfakes colocando políticos e figuras públicas em situações embaraçosas, seja um vídeo em um contexto inexistente ou mesmo uma mensagem de áudio comprometedora.

Tal evolução tecnológica e, logicamente, o seu uso para más finalidades, vem demandando atenção do mundo todo sob o prisma regulatório. Enquanto a legislação amadurece, surgem inúmeros casos em que perícia digital precisará enfrentar o desafio de dar respostas sobre a suposta criação de um conteúdo por inteligência artificial ou não.

A guerra eleitoral com o uso do armamento “IA”

A falsificação de áudios em vídeos reais podem representar danos a um processo eleitoral ou responsabilizar pessoas de forma indevida. Nos Estados Unidos (EUA), por exemplo, um áudio com a voz do Presidente Joe Biden instigou os eleitores a não votarem nas eleições primárias de um estado-chave.

Os próximos anos serão marcados pelo uso de deepfakes e IA para criar conteúdo sintético e ofensivo em redes sociais, o que demandará a atuação de assistentes técnicos forenses e peritos digitais, no esclarecimento da verdade, em contribuição com a verdade técnica em casos judiciais e corporativos.

A facilidade em gerar e influenciar com deep fakes de áudio

Se antes peritos utilizavam técnicas para detectar adulterações em áudios e conteúdos reais, o desafio agora é detectar não uma mera modificação que deixa rastros, mas uma criação a partir de prompts e parâmetros, de um conteúdo realístico, de difícil detecção e sintético.

Pesquisas recentes [1], revelam que metade das pessoas não conseguem fazer distinção entre conteúdos gerados por IA e conteúdos reais, gerando assim uma exploração por parte dos criminosos para gerar conteúdos ofensivos e ilícitos. Uma preocupação especial está nos áudios sintéticos “cheapfakes”, que são mais fáceis e baratos de serem produzidos.

Estes áudios podem ser compartilhados através de whatsapp, comunicadores, ou mesmo serem reproduzidos em ligações telefônicas que podem ser “gravadas”, e até mesmo motivar decisões equivocadas, investigações e processos judiciais e administrativos indevidos.

As técnicas de produção de áudios sintéticos são mais avançadas, por outro lado, é mais difícil ao cidadão detectar manipulações, como nos vídeos com sobreposição de voz. Além disso, a perícia técnica nestes arquivos depende de inúmeros fatores, a exemplo, se o áudio está trafegando por um aplicativo ou rede social, certamente já perdeu seus metadados, e então sobraria a conhecida fonética forense, com análises que dependem de coleta de amostras de voz, análise de waveforms, análise espectral, dentre outras, que podem indicar dísticos de emendas digitais ou manipulações.

Times digitais para combater uso ilícito da IA e regulamentações

Empresas, personalidades e comitês de campanha eleitoral precisam de monitoramento contínuo nas eleições futuras. As ferramentas de IA poderiam denunciar a autoridades solicitações de gerações suspeitas, o que não garantem que assim o façam, considerando que alguém pode usar uma ferramenta no Japão para gerar um conteúdo ofensivo no Brasil, o que passaria despercebido pelos “detectores”.

As empresas de fact check precisam de peritos forenses digitais para auxílio e análises de conteúdos, de modo a desmistificar conteúdos antes que ganhem escala nas redes e influenciem decisões, até mesmo perigosas. Ferramentas como ElevenLabs, Resemble AI, Respeecher e Replica Studios, permitem gerar áudios ou clonar voz em poucos cliques.

Neste sentido, a mera “suspeita instintiva” de se tratar de IA na manipulação de áudio não pode servir de base para descaracterizar ou descredenciar a autenticidade de um conteúdo, usado como prova de um crime, infração, ou de um fato. É necessário que a perícia digital em IA e áudios atue neste processo, realizando análises fonéticas, de metadados e demais análises aplicáveis, a depender da amostra.

As empresas e comitês precisam de canais para recebimento de supostos vídeos e áudios ligados à Inteligência Artificial, para que possam ser analisados. A popularização da viralização, pode ser conferida em sites analisadores, como BuzzSumo. Os regulamentos e normas precisam enfrentar o uso da IA para más finalidades, como nos Estados Unidos, onde a Comissão Federal de Comunicações proibiu o uso da IA em chamadas automáticas [2].

Como a perícia digital em deepfakes e inteligência artificial podem atuar

Além das análises realizadas a partir de amostras de voz, algumas plataformas já desenvolvem tools que auxiliam ou ao menos já  detectam a IA desenvolvida em seu ambiente, em prestígio a ética e responsabilidade no uso da IA com oSpeech Classifier da Eleven Labs [3]. Outros detectores úteis são AIorNot, que pode ser utilizado para detecção de imagens e também de áudios sintéticos.

Outras tools proprietárias já permitem integrar em sistemas via API, para detectar falas falsas geradas a partir da IA, como o caso da Loccus.ai [4]. A Reality Defender é outra empresa dedicada à detecção de falsidades geradas com a IA [5]. O Ai Voice Detector, também oferece um serviço de detecção online [6]. Sensity também é uma ferramenta a se  considerar [7]. As análises devem ser somadas à investigação cibernética, envolvendo análise WHOIS (informações) do site que hospeda um conteúdo, quebra de sigilo dos perfis que divulgam conteúdos e análises de ondas sonoras com ferramentas como Audio Mass [8] na identificação de pontos de criação, além da análise de metadados, que pode indicar os tags do programa AI generator na estrutura dos arquivos além das datas de acesso, criação e modificação. Se a voz é gerada por IA, as ondas sonoras provavelmente serão muito claras e semelhantes entre si, porque a geração de som por IA é essencialmente um processo de desenho de som. Por outro lado, gravações de áudios criados por uma pessoa, tendem a soar mais naturais com variações.

Conclusões

Deste modo, os desafios da perícia de detecção de áudios com deepfakes, passa pela suficiência da amostra, sanitização ou manutenção de metadados,e identificação de padrões dos geradores, o que impede que esta seja uma perícia com apenas uma metodologia.

Em tal ambiente, a “análise multimodal” tem sido considerada pela perícia como a mais adequada, envolvendo análise de múltiplas fontes de dados e metadados e do contexto de canais de transmissão, aliado a análises de percepção humana, de modo a se buscar responder o ponto controvertido e que muito ecoará nos próximos anos: Este conteúdo é real ou feito com Inteligência Artificial?

A perícia precisa se atualizar e se valer de técnicas, ferramentas e principalmente dos algoritmos de aprendizado de máquina que estão se atualizando para auxiliar na detecção e análises de deepfakes e que poderão ser aplicados por perito digital em IA,  aprender padrões e características destes conteúdos sintéticos, bem como automatizar processos de análises periciais envolvendo conteúdos questionados por seus autores ou interlocutores.

Como contratar um perito em inteligência artificial e detecção de deepfakes?

A CyberExperts é consultoria especializada em computação forense, inteligência cibernética, perícia e auditorias em informática e inteligência artificial, sendo referência em perícia digital e em informática. Atuamos preventivamente ou em processos administrativos ou judiciais, para empresas, fintechs, órgãos de pesquisa e órgãos públicos, politicos, na coleta, preservação e análise de evidências digitais, por meio de um rol de peritos com notória experiência profissional. Realizamos auditorias independentes de maturidade de controles de segurança digital e compliance de Inteligência Artificial. Profissionais com as principais certificações internacionais. Fale conosco (11) 3254-7616 ou acesso www.cyberexperts.com.br.

Fale conosco

Tem dúvidas? Envie seu comentário ou sugestão para [email protected] e não se esqueça de se inscrever no  Youtube (http://www.youtube.com/josemilagre) ou pelo instagram (@dr.josemilagre).

JM Advocacia: www.direitodigital.adv.br Instragram: @direitodigital.adv.br

José Milagre & Advogados

É um dos nomes mais lembrados no Brasil na advocacia de direito digital e crimes cibernéticos. Diretor de Forense Digital e Resposta a Incidentes da CyberExperts, especializada em investigação forense de fraudes e golpes online e com criptomoedas. Advogado e Perito Especialista em Segurança Digital, Resposta a Incidentes e Crimes Cibernéticos. Certificações CIPM, CDPO IAPP, DPO EXIN, ISO 27701 Lead Implementer PECB, Graduação em Análise de Sistemas, Pós-graduado em Gestão de Tecnologia da Informação. Mestre e Doutor em Ciência da Informação pela Universidade Estadual Paulista UNESP, Presidente da Comissão de Direito Digital da OAB Barueri/SP.

NOTAS

[1]https://bpb-us-w2.wpmucdn.com/sites.northeastern.edu/dist/f/4599/files/2023/10/report-1017-2.pdf

[2]https://www-sfchronicle-com.translate.goog/news/politics/article/alert-fcc-outlaws-ai-generated-voices-in-18655936.php?_x_tr_sl=en&_x_tr_tl=pt&_x_tr_hl=pt-BR&_x_tr_pto=sc&_x_tr_hist=true

[3]https://elevenlabs.io/ai-speech-classifier0

[4]https://www-loccus-ai

[5]https://www-realitydefender-com

[6]https://aivoicedetector.com/

[7]https://sensity-ai

[8]https://audiomass.co/

image_pdfPDFimage_printImprimir

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima