A tecnologia AI pode regenerar pessoas com grande precis√£o

Os desenvolvimentos em inteligência artificial estão progredindo a um ritmo impressionante Рtanto que é difícil controlá-los. A tecnologia usa redes neurais para criar rostos falsos, mas eles estão se tornando cada vez mais plausíveis.

Na imagem abaixo, voc√™ pode ver qual foi o progresso da IA ‚Äč‚Äčnos √ļltimos quatro anos. As faces em preto e branco √† esquerda s√£o de 2014 e foram publicadas como parte de um documento introduzido por uma ferramenta de IA, conhecida como GAN (Generative Advancer Network). As faces coloridas √† direita v√™m de um documento publicado no in√≠cio deste m√™s que usa o mesmo m√©todo b√°sico, mas √© claramente muito mais avan√ßado em termos de qualidade de imagem.

Esses rostos realistas são o trabalho dos pesquisadores da Nvidia. Em sua pesquisa, publicada na semana passada, eles descrevem a modificação da arquitetura básica da GAN para criar essas imagens. Como você verá por si mesmo, é muito difícil dizer se elas são verdadeiras ou falsas.

O que √© particularmente interessante √© que esses rostos falsos podem ser facilmente alterados. Os engenheiros da Nvidia incorporaram um m√©todo conhecido como transfer√™ncia de estilo em seu trabalho, no qual as caracter√≠sticas de uma imagem s√£o misturadas com as de outra. Voc√™ pode reconhecer o termo de v√°rios filtros de imagem populares, em aplicativos como Prisma e Facebook nos √ļltimos anos, que podem fazer com que suas fotos pare√ßam, por exemplo, uma tabela de estilo impressionista.

A aplicação da transferência de estilo na criação de rostos, permitiu que os pesquisadores da Nvidia adaptassem os rostos a um grau impressionante. Na colagem a seguir, você pode vê-lo em ação. A imagem de uma pessoa real assume as características do rosto de outra pessoa. Recursos como cor da pele e do cabelo se misturam, criando o que parece ser uma pessoa totalmente nova.

Obviamente, a capacidade de criar faces de IA realistas levanta quest√Ķes preocupantes. Os especialistas t√™m soado o alarme nos √ļltimos dois anos sobre como a IA pode afetar a sociedade. Essas ferramentas podem ser usadas para desinforma√ß√£o e propaganda e podem minar a confian√ßa do p√ļblico no que veem, uma tend√™ncia que pode prejudicar tanto o judici√°rio quanto a pol√≠tica.

Esses avisos n√£o devem ser ignorados. Como vimos com o uso de deepfakes, para criar pornografia n√£o consensual, sempre h√° pessoas dispostas a usar essas ferramentas de maneiras question√°veis. Mas, ao mesmo tempo, apesar do que foi dito, a capacidade de criar rostos nem sempre √© t√£o f√°cil quanto parece e nem sempre tem a mesma fidelidade. Tamb√©m existem s√©rias limita√ß√Ķes em termos de experi√™ncia e tempo. Levou uma semana para os pesquisadores da Nvidia treinarem seu modelo em oito GPUs Tesla para criar esses rostos.

Tamb√©m h√° pistas que podemos procurar para identificar rostos falsos. Em um post recente no blog, o artista e desenvolvedor Kyle McDonald mencionou v√°rias pistas. O cabelo, por exemplo, √© muito dif√≠cil de forjar. Eles geralmente parecem pintados ou muito emba√ßados quando adicionados ao rosto de algu√©m. Da mesma forma, os geradores de IA n√£o entendem completamente a simetria do rosto humano. Eles costumam colocar as orelhas em alturas diferentes ou tornar os olhos de cores diferentes. Al√©m disso, eles n√£o s√£o muito bons na cria√ß√£o de texto ou n√ļmeros.

No entanto, essas sugest√Ķes provavelmente n√£o s√£o um grande consolo. Afinal, o trabalho da Nvidia mostra a rapidez com que a IA est√° evoluindo nessa √°rea e n√£o demorar√° muito para que os pesquisadores criem algoritmos que possam corrigir essas imperfei√ß√Ķes.

Felizmente, os especialistas j√° est√£o pensando em novas maneiras de verificar a identidade das fotos digitais. Alguns m√©todos j√° foram iniciados, como aplicativos de c√Ęmera que controlam imagens com base em sua origem geof√≠sica para verificar quando e onde foram tiradas, por exemplo. √Č claro que haver√° uma batalha entre a IA e imagens aut√™nticas nas pr√≥ximas d√©cadas. E agora, a IA definitivamente tem a lideran√ßa!