O Facebook está trabalhando para criar seu próprio Custom AI Silicon

AI Yann LeCun, principal pesquisador de inteligência artificial do Facebook, disse que a empresa estava trabalhando para criar seu próprio silício de inteligência artificial personalizado, com o objetivo de criar métodos muito mais eficazes para processar redes neurais em hardware e aumentar o desempenho.

Os detalhes exatos do que o Facebook est√° fazendo permanecem obscuros, embora a Intel tenha anunciado uma parceria com a empresa na CES este ano.

A Fortune, no entanto, aprendeu alguns dos t√≥picos abordados na apresenta√ß√£o de LeCun. Algumas delas s√£o a expans√£o do papel da IA ‚Äč‚Äčda tradu√ß√£o do idioma para o policiamento de conte√ļdo, o objetivo de criar dispositivos mais inteligentes que possam diferenciar, por exemplo, rosas de ervas daninhas e transformar computadores no que costumamos chamar de ” senso comum”.

Bloomberg, no entanto, apresenta as coisas de uma perspectiva diferente. Segundo seus relat√≥rios, LeCun se concentra na cria√ß√£o de chips que n√£o precisam dividir conjuntos de dados em pequenos lotes para serem processados, mas, em vez disso, trabalham com grandes quantidades de informa√ß√Ķes. Isso parece coincidir com o objetivo de ensinar um cortador de grama fornecido pela IA a diferenciar ervas daninhas e rosas. Se voc√™ deseja cortar o gramado em uma √°rea espec√≠fica, n√£o precisa ensinar o dispositivo a diferenciar o que cortar e o que n√£o cortar, mas ensin√°-lo a evitar certas plantas que n√£o deseja cortar. A defini√ß√£o literal de uma erva daninha √© “uma planta selvagem que cresce em um lugar que n√£o queremos”. Um cortador de grama, que pode atingir ervas daninhas, mas evitar rosas, √© um cortador de grama que entende quais plantas s√£o desej√°veis ‚Äč‚Äčem um determinado contexto geogr√°fico. Essa √© uma tarefa que at√© os humanos podem falhar.

Em geral, o desenvolvimento de silício de IA Рque empresas grandes e pequenas estão buscando Рfaz parte de um esforço para promover a especialização.

Nos primeiros dias da computa√ß√£o como ci√™ncia, a arquitetura especializada era simplesmente chamada de “arquitetura” porque cada computador tinha seus pr√≥prios sistemas operacionais, bibliotecas de software e perif√©ricos de hardware compat√≠veis. Com o tempo, os fabricantes come√ßaram a enfatizar a compatibilidade entre hardware, software e perif√©ricos. Mesmo na d√©cada de 1980, era comum empresas terceirizadas projetarem FPUs compat√≠veis com o desktop da Intel, por exemplo.

O problema com a arquitetura de microprocessadores especializados, historicamente falando, é que, mesmo que você tivesse uma idéia muito inteligente de executar um tipo específico de instrução, a velocidade da computação de uso geral aumentaria a uma velocidade tal que tiraria vantagem do mercado antes mesmo de ser feita. produtos. Imagine começar uma empresa em 1990 com um chip 5 vezes mais rápido que o da Intel. Em 1990, o processador mais rápido da Intel era o 33MHz 486DX. Se demorasse três anos para lançar seu produto no mercado, você teria que lidar com o Pentium 66MHz, uma CPU duas vezes mais rápida que o seu benchmark original. Se demorasse quatro anos, você teria que lidar com o Pentium 100MHz. Enquanto isso, a Intel se beneficiou de economias de escala.

Essa economia de escala incomparável e os rápidos desenvolvimentos em tecnologia da informação mostram por que os programas de uso geral conquistaram o mercado e continuam sob controle até hoje. As GPUs são a principal exceção a essa tendência. A razão para isso é que a natureza da carga de trabalho gráfica é tão diferente da carga de trabalho de uso geral que uma GPU que gerencia uma CPU serial ou vice-versa nunca poderia ser criada. Isso se deve em parte ao processador de banda larga celular da Sony.

No entanto, a escala de desempenho da CPU parou de evoluir a partir do Sandy Bridge. Isso, mais do que qualquer outra coisa, explica por que o Google, o Facebook e outras empresas estão considerando seriamente sua própria arquitetura para cargas de trabalho específicas.

Espera-se que as GPUs ativem a revolu√ß√£o da IA ‚Äč‚Äče da ML no futuro. Sem d√ļvida, isso agradar√° a Nvidia, que atualmente domina o mercado para esses produtos. No entanto, a arquitetura relacionada a essa √°rea, como o TPU do Google, n√£o desaparecer√°.

A Intel j√° est√° tentando resolver essas preocupa√ß√Ķes. Muitas das aquisi√ß√Ķes da empresa nos √ļltimos anos foram vinculadas ao mercado de IA, incluindo Altera e Movidius. A AMD est√° focada principalmente em recuperar a participa√ß√£o de mercado – suas GPUs de 7 nm s√£o teoricamente capazes de executar cargas de trabalho de IA e ML, mas a Nvidia domina nesta √°rea.

O objetivo do Facebook de melhorar o uso da IA ‚Äč‚Äče expandir os tipos de problemas que ele pode resolver est√° ligado √† pesquisa que vemos de outras empresas. Em particular, isso representa uma amea√ßa significativa para ganhos no mercado de processadores x86, n√£o porque os processadores ser√£o substitu√≠dos – voc√™ sempre precisar√° de uma m√°quina de uso geral, seja ARM ou x86 – mas porque os mercados de lucros com margens altas, onde os processadores agora vendem , poderia atender √†s necessidades de outros produtos.