As empresas correm para manter sua credibilidade diante do avanço das plataformas de inteligência artificial geradoras de imagens. Já viralizaram fotos falsas -porém, realistas- de papa Francisco, Elon Musk e Donald Trump, além de vídeo artificial com o apresentador do Jornal Nacional, da TV Globo, William Bonner.
Essa tecnologia ficou popular com o lançamento em abril de 2022 do Dall-E 2, da OpenAI (mesma criadora do ChatGPT). Desde então, outras plataformas similares ganham projeção, e as artes geradas, verossimilhança. Um modelo de inteligência artificial desenvolvido por pesquisadores da Universidade de Tsinghua, da China, é capaz de produzir 700 mil fakes por dia.
Os primeiros esforços começam em parcerias com jornalistas. Uma aliança global de veículos de imprensa, empresas de tecnologia e fabricantes de câmeras desenvolveram uma ferramenta capaz de fazer checagens online, chamada de Verify. Se houver selo de autenticação, a plataforma exibe data, geolocalização entre outros metadados.
Esse padrão será adotado, em comum acordo, entre Nikon, Sony e Canon. As empresas japonesas controlam cerca de 90% do mercado global de máquinas fotográficas.
Além de imagens completamente falsas, o sistema também aponta fotos editadas como não autênticas. A mensagem padrão para imagens criadas ou alteradas é "No Content Creditials" (algo como sem credenciais de conteúdo, em português).
A Canon trabalha para adotar a tecnologia em escala de mercado ainda em 2024.
A fabricante planeja também autenticar vídeos
A empresa já lançou um aplicativo de gestão de imagens que permite verificar se o arquivo em análise foi produzido por humanos.
A fabricante de câmeras trabalha em parceria com a agência Reuters e o Starling Lab for Data Integrity, laboratório cofundado pelas universidades de Stanford e Carolina do Sul dedicado a verificar a integridade de informações que circulam na internet.
A Nikon, por sua vez, começará a acrescentar a tecnologia de autenticação às suas câmeras topo de linha, com o objetivo de atrair fotojornalistas e outros profissionais. O selo de autenticidade será resistente a interferências externas.
A Sony planeja adotar a marca de autenticação a partir de abril também em seu equipamento topo de linha. A empresa disponibilizará um pacote de atualização para adequar as máquinas já em circulação.
A fabricante de câmeras fotográficas tem testado junto com a agência de notícias Associated Press um sistema de verificação automática das imagens lançadas em um servidor. A tecnologia também deve funcionar em vídeos.
Do lado dos desenvolvedores de IA, o Google lançou em agosto uma ferramenta que acrescenta marcas d'água invisíveis às imagens geradas com inteligência artificial. As imagens geradas pelo Dall-E da OpenAI também vêm com selos para indicar a origem artificial.
Ainda assim, existem diversos modelos de IA geradores de imagem de código aberto, como o Stable Diffusion, disponíveis na internet. Isso permite que programadores criem versões próprias e descartem os selos de autenticação.
Ainda em 2022, a Intel desenvolveu uma plataforma capaz de determinar se uma imagem é autêntica a partir de análise de alterações na cor da pele decorrentes do fluxo de sangue. A tendência, porém, é que as imagens criadas por inteligência artificial se tornem mais realistas e, consequentemente, difíceis de identificar.