“Papel aceita tudo”. Apesar de a frase não nos representar, já que parte do nosso trabalho envolve produção de conteúdos e narrativas, em muitos contextos, ela funciona como uma espécie de carta branca para a divulgação de informações falsas e mal-intencionadas.
Nesse cenário, mídias como áudio, foto e vídeo estabeleceram uma relação mais íntima com a verdade (pelo menos culturalmente nos últimos 150 anos) ao testemunharem eventos capitais da história – o assassinato de Kennedy, a Revolução Islâmica, o 11 de Setembro – e tudo quanto através delas a cultura foi capaz de catalogar.
Ao trazer essa discussão para o território da inteligência artificial, o cenário torna-se mais complexo e muitas vezes omisso no que diz respeito à regulamentação dessa tecnologia e suas implicações éticas, visto que são relegadas a um plano secundário, em detrimento do avanço tecnológico.
O primeiro motor de buscas do Google, PageRank, foi lançado em 1998. Em pouco mais de uma década, a IBM lançava mundialmente o Watson como sua plataforma de serviços cognitivos – e nenhuma dessas empresas mostrou inclinação substancial para discussões regulamentares sobre os riscos inerentes à escalabilidade desses produtos.
Hoje, às vésperas das eleições – presidencial americana e municipal brasileira -, a pergunta que fica é: se naquela época essa discussão era necessária, hoje ela ainda é urgente?
Para um eleitor bem-informado e tecnologicamente alfabetizado, alegar que imagens – ou qualquer outra mídia – geradas por IA representam um divisor de águas na proliferação de fake news soa, no mínimo, ingênuo. Isso se acentua quando observamos o comportamento eleitoral de uma crença seletiva, na qual o indivíduo acredita apenas no que a pessoa em quem confia diz, sendo essa, muitas vezes, seu candidato. Tal “eleitor ideal”, conectado e informado, paradoxalmente, não é maioria em muitos países.
Do ponto de vista da “maioria severina”, sobretudo aquela, pelo ideal muitas vezes representada de forma caricata, como quem troca açudes e amianto por candidatos, o impacto se torna ainda mais direto. Essa maioria contempla o eleitor comum que não tem acesso pleno à internet, smartphone e tão logo a ferramentas de IA generativa.
O risco, então, divide-se: para a minoria conectada, talvez seja o fim da ideia de que fotos e vídeos estejam intrinsecamente relacionados à verdade, ao passo que o argumento de que “qualquer um poderia ter gerado isso com IA” seja utilizado contra imagens ou fatos. Por outro lado, para a maioria do eleitorado do país, reside o maior risco: que isso se torne meramente mais um “baque na história”, rapidamente normalizado, elevando a desinformação, já tão entranhada nas sociedades, quase à norma.
A notícia boa é que, enquanto a IA desafia, ao mesmo tempo oferece soluções. À medida que os modelos de linguagem se aprimoram em níveis insondáveis, as tecnologias capazes de discernir padrões imagéticos e detalhes em imagens e escrita generativas também avançam e podem ser acessadas gratuitamente.
Ferramentas como “AI-image-detector” da empresa Hugging Face, “Aivoicedetector” e “Scribbr” possibilitam detectar o percentual de conteúdos gerados com recursos de IA. Talvez daqui a alguns meses, pelos pontos já abordados ou por uma simples mudança de cultura, essas ferramentas percam o sentido e a importância ética que possuem agora. Até lá, são fortes aliadas para a análise das informações pelos eleitores, imprensa e os próprios candidatos.
Pedro Batista
Líder em tecnologias criativas