Ultimamente, o mundo foi inundado com o DeepFake, ou seja, fotos e vĂdeos manipulados pela tecnologia de IA. Um aplicativo recente chamado DeepNudes, que usou a IA para “despir as mulheres”, criou uma controvĂ©rsia que resultou na exclusĂŁo do criador.
Estå claro que o DeepFake serå algo comum com o passar do tempo e, se não tomarmos medidas para controlå-lo, pode ser uma nova ameaça. Para lidar com essa possibilidade, pesquisadores da Universidade da Califórnia, Berkeley, desenvolveram uma rede neural profunda que pode detectar o DeepFake.
Essa rede estå sendo desenvolvida para identificar padrÔes nos dados primårios e é semelhante ao cérebro humano. Uma equipe de pesquisadores liderada pelo professor Amit K. Roy-Chowdhury forneceu um conjunto de imagens, incluindo fotos manipuladas e não manipuladas, à rede neural.
Os pesquisadores sabiam quais eram as fotografias danificadas e quais não eram. Para treinar a rede, os pesquisadores identificaram os pixels ao longo dos limites dos dados adicionados digitalmente à foto. As imagens do DeepFake são conhecidas por conterem elementos de cores mais claras nas peças adicionadas artificialmente.
Embora na maior parte do tempo, nĂŁo seja possĂvel detectar fotos alteradas por nus, um computador que possa ver fotos pixel por pixel pode usar esse recurso para localizar imagens deepfake.
Depois que a rede neural analisou imagens fora de todos os dados anteriormente alimentados, a rede conseguiu localizar o deepfake “na maioria das vezes”.
Os resultados foram satisfatĂłrios, mas a rede neural atualmente funciona apenas para fotos. Os pesquisadores estĂŁo tentando descobrir como aplicĂĄ-lo ao vĂdeo tambĂ©m.
No entanto, nĂŁo podemos dizer que Ă© uma resposta ao DeepFake, pois a rede neural nĂŁo Ă© 100% precisa.
No entanto, esse desenvolvimento Ă© um investimento muito bom que atualmente temos para detectar o DeeFake.