Microsoft: preferĂȘncia de IA cria problemas

No mĂȘs passado, um grande nĂșmero de funcionĂĄrios da Microsoft foi demitido depois que a empresa anunciou sua decisĂŁo de substituir seus autores por software de IA na seção de edição de artigos do MSN.

No entanto, parece que sua decisĂŁo a colocou em problemas, pois cometeu um erro em um dos artigos.

Microsoft

O trabalho do software de IA Ă© coletar artigos de notĂ­cias de vĂĄrias publicaçÔes e anexar uma imagem a elas. Em um artigo sobre racismo experimentado pelo mĂșsico do Little Mix, Jade Thirlwall, ele adicionou uma foto de Leigh-Anne Pinnock, que tambĂ©m Ă© membro do Little Mix.

Thirlwall logo expressou sua raiva via Instagram:

“SMSN Ao copiar e colar artigos de outros meios de comunicação respeitĂĄveis, pode ser necessĂĄrio garantir que vocĂȘ esteja usando a foto do membro certo do grupo.”

A foto foi carregada incorretamente no artigo do MSN

Segundo o The Guardian, a foto errada foi adicionada pelo software de IA.

Tudo isso ocorre no momento em que os protestos contra o racismo estĂŁo aumentando em todo o mundo apĂłs a morte de George Floyd.

No momento, esses erros que podem ofender pessoas de diferentes raças podem ter um impacto negativo na Microsoft.

Embora possamos culpar a inteligĂȘncia artificial por sua ineficĂĄcia, o The Verge apontou que a possĂ­vel rotulagem incorreta das imagens fornecidas pelos serviços de notĂ­cias pode ser uma das razĂ”es por trĂĄs do incidente. No entanto, nĂŁo se pode ignorar que nĂŁo conseguiu distinguir entre dois membros de uma raça mista da mesma banda.

Um porta-voz da Microsoft disse: “Quando estamos cientes desse problema, tomamos medidas imediatas e substituĂ­mos o equĂ­voco”.

Enquanto isso, outros jornalistas que trabalham no MSN foram informados a seguir os artigos publicados pela inteligĂȘncia artificial. É recomendĂĄvel que vocĂȘ exclua essas histĂłrias publicadas automaticamente pelo software.

No entanto, hå uma boa chance de que o programa de edição ignore suas açÔes e tente republicar a história. Portanto, os funcionårios devem monitorå-lo.

Espero que o sistema de IA melhore ao longo do tempo e nĂŁo repita erros semelhantes.