Aprendizado profundo Quem eu mato em caso de acidente?

Dilemas de aprendizado profundo: Devagar, mas com firmeza, os carros autônomos entrarão em nossas vidas diárias. Ainda ocorrem acidentes na direção real, e veículos autônomos continuam cometendo erros estúpidos que mesmo os motoristas mais novatos evitariam.

Mas cientistas e pesquisadores estão tentando ensinar carros a ver o mundo como nós e a sair às ruas em um nível que equivale a ou excede as habilidades da maioria dos motoristas humanos.

Portanto, quando isso for alcançado em algum momento, as estradas ficarão mais seguras, pois os acidentes serão muito raros.

Mas se ocorrer um acidente fatal, como os veículos autônomos devem decidir quando a perda de vidas é inevitável? Aparentemente, até o momento não podemos ter uma resposta que satisfaça a todos nós.

O dilema

Isso mostra uma pesquisa de quatro anos realizada pelo MIT Media Labs. Chama-se Moral Machine e apresentou aos participantes 13 cenários diferentes de direção, nos quais o motorista teve que tomar uma decisão que inevitavelmente levaria à perda de vidas de passageiros ou pedestres.

Por exemplo, em um dos cenários, o motorista deve optar por atingir um grupo de pedestres ou mudar de direção e encontrar um obstáculo que leve à morte dos passageiros.Em outros cenários mais complicados, o motorista deve escolher entre dois grupos de pedestres que diferem em número, idade, sexo e status social.

Os resultados da pesquisa, publicada pelo MIT em um artigo da revista científica Nature, mostram que as preferências e decisões variam de acordo com a cultura, as condições econômicas e sociais e a localização geográfica.

Diversidade

Por exemplo, participantes da China, Japão e Coréia do Sul têm maior probabilidade de preservar a vida dos idosos do que dos jovens (os pesquisadores acreditam que isso se deve ao fato de que nesses países há mais respeito pelos idosos).

Por outro lado, em países com culturas individualistas, como Estados Unidos, Canadá e França, os motoristas protegem a vida dos jovens.

Todos esses são dilemas enfrentados por cientistas que escreverão o software de direção. Como um motorista deve decidir em uma situação em que as decisões humanas se desviam de qualquer maneira?

Aprendizagem Profunda

Os carros sem motorista possuem algumas das mais avançadas tecnologias de hardware e software. Eles possuem sensores, câmeras, lidares, radar e visão computacional para avaliar e entender seu ambiente para tomar decisões.

À medida que a tecnologia evolui, os carros poderão tomar decisões em frações de segundo, talvez muito mais rápido do que os motoristas mais experientes. Isso significa que, no futuro, um veículo autônomo poderá parar abruptamente 100 vezes mais rápido se um pedestre for jogado na rua em uma noite escura e nebulosa.

Mas isso não significa que os carros autônomos serão capazes de tomar decisões no mesmo nível que os humanos. Basicamente, esses veículos são movidos por inteligência artificial, tecnologias que imitam o comportamento humano. Portanto, as decisões parecem ser humanas, mas apenas superficialmente.

Mais especificamente, os carros autônomos usam aprendizado profundo, um subconjunto de IA que é particularmente bom na comparação e classificação de dados.aprendizagem profunda

Ao treinar um algoritmo em aprendizado profundo com dados bem rotulados, eles serão capazes de classificar todas as novas informações e decidir o que fazer com elas com base nos dados anteriores. No caso de carros agora, se você der amostras suficientes das condições da estrada e dos cenários de direção, eles poderão saber o que fazer quando, por exemplo, uma criança pequena for jogada na rua atrás de uma bola.

Até certo ponto, o aprendizado profundo é desafiado por ser muito rígido e superficial. Alguns cientistas acreditam que alguns problemas simplesmente não podem ser resolvidos pelo aprendizado profundo, independentemente da quantidade de dados que o algoritmo tenha.

Queremos acreditar que o aprendizado profundo será confiável o suficiente para atender a todas as condições da estrada, o que permitirá que os carros viajem com segurança em diferentes condições de tráfego e estradas.

Mas mesmo que o algoritmo permita que carros sem motorista evitem obstáculos e pedestres, eles não podem deixar de tomar decisões muito sérias, como qual vida vale mais do que outra.

Nesse caso, nenhuma porcentagem de estatísticas e estatísticas correspondentes pode ajudá-lo a decidir. O que falta é responsabilidade.

Diferença entre pessoas e IA

O que torna a inteligência humana tão diferente da IA?

As pessoas reconhecem suas fraquezas. Esquecemos, confundimos fatos, não somos rápidos o suficiente com números e processamento de informações, e nossas preocupações mentais e espirituais retardam nossa reação. Pelo contrário, os algoritmos de IA nunca envelhecem, não confundem, não esquecem fatos e podem processar informações na velocidade da luz.

No entanto, podemos tomar decisões mesmo com dados incompletos. Podemos tomar decisões com base em nosso senso comum, cultura, valores morais e crenças. Mas o mais importante é que podemos explicar o raciocínio por trás de nossas decisões e defendê-las.

Isso explica a grande diferença entre as opções que os participantes do teste do MIT Media Lab tinham. Também estamos conscientes e podemos suportar as consequências de nossas decisões.

Por exemplo, no ano passado, uma mulher na província canadense de Quebec decidiu parar o carro no meio da rodovia para salvar uma família de patos atravessando a rua.

Um pouco depois, uma motocicleta caiu em seu carro e duas pessoas morreram. O motorista do carro foi considerado culpado de duas acusações de negligência criminal que causaram a morte de outros seres humanos. Ele foi condenado a nove meses de prisão, 240 horas de serviço comunitário e uma suspensão de cinco anos.

Responsabilidade

Os algoritmos de IA não podem se responsabilizar por suas decisões e, é claro, não podem estar presentes em tribunal pelos erros que cometem.

Se um veículo autônomo bate acidentalmente em um pedestre, sabemos quem será o responsável: o fabricante. Também sabemos (quase) o que precisamos fazer: treinar melhor os modelos de IA para gerenciar dados que não foram levados em consideração.

Mas quem é o culpado pelo fato de o erro ter sido um dos algoritmos do aprendizado profundo, e não da funcionalidade correta do carro? O carro não sente e não pode assumir a responsabilidade por suas ações, mesmo que possa explicá-las.

Se os responsáveis ​​pelo desenvolvimento de algoritmos forem responsáveis, eles deverão comparecer em tribunal por qualquer morte causada pelos veículos.

Essa medida obviamente impediria a inovação no aprendizado de máquina e no setor de IA em geral, porque nenhum fabricante pode garantir que carros sem motorista funcionem perfeitamente 100%.

Mas, voltando ao problema, os testes do MIT Media Labs sobre esse assunto são um tanto exagerados (embora sejam cenários que podem acontecer). A maioria dos motoristas nunca se encontrará nessas situações ao longo da vida.

Uma solução para o problema acima seria criar zonas seguras para pedestres, que as separarão completamente das áreas onde os veículos autônomos se movimentam. Isso eliminará completamente o problema.

Lembre-se de que a transição de cavalos para carros perturbou muitos aspectos da vida das pessoas. Por isso, também precisamos aprender a dirigir carros sem carteira de motorista, nossa infraestrutura urbana e nossos padrões de conduta.

O artigo foi publicado na TNW.

__________________