Quem será morto por um carro autônomo? Máquina, salve o máximo de pessoas que puder, mas acima de tudo, salve-me!
Tecnologia

Quem será morto por um carro autônomo? Máquina, salve o máximo de pessoas que puder, mas acima de tudo, salve-me!

Se surgir uma situação em que o sistema autônomo de um carro tenha que fazer uma escolha rápida de quem sacrificar em caso de acidente iminente, como ele deve reagir? Sacrificar passageiros para salvar pedestres? Se necessário, matar um pedestre para poupar, por exemplo, uma família de quatro pessoas viajando de carro? Ou talvez ele devesse sempre se proteger primeiro?

Embora mais de sessenta empresas já tenham recebido autorizações de testes pessoais somente na Califórnia, é difícil dizer que a indústria está preparada para enfrentar dilemas éticos. No momento, ele está lutando com problemas mais básicos - a operação e eficiência de navegação dos sistemas e simplesmente evitar colisões e imprevistos. Em situações como o recente assassinato de um pedestre no Arizona ou os acidentes subsequentes (1), até agora tem sido apenas sobre falhas do sistema, e não sobre algum tipo de "escolha ética" do carro.

Salve os ricos e jovens

As questões de tomar esse tipo de decisão não são problemas abstratos. Qualquer motorista experiente pode certificar isso. No ano passado, pesquisadores do MIT Media Lab analisaram mais de 2014 milhões de respostas de entrevistados de todo o mundo, que coletaram no decorrer da pesquisa lançada em XNUMX. O sistema de pesquisa que eles chamam de "Máquina Ética" mostrou que em vários lugares ao redor mundo, perguntas semelhantes recebem respostas diferentes.

As conclusões mais gerais são previsíveis. Em situações extremas as pessoas preferem salvar pessoas a cuidar de animais, visando salvar o maior número de vidas possível, e tendem a ser mais jovens que os idosos (2). Há também algumas preferências, mas menos óbvias, quando se trata de resgatar mulheres sobre homens, pessoas de status mais alto sobre pessoas mais pobres e pedestres sobre passageiros de carro..

2. Quem o carro deve salvar?

Como quase meio milhão de entrevistados preencheram questionários demográficos, foi possível correlacionar suas preferências com idade, sexo e crenças religiosas. Os pesquisadores concluíram que essas diferenças não "afetam significativamente" as decisões das pessoas, mas notaram algumas influências culturais. Os franceses, por exemplo, tendiam a pesar as decisões com base no número estimado de mortes, enquanto no Japão a ênfase era menor. No entanto, na Terra do Sol Nascente, a vida dos idosos é muito mais valorizada do que no Ocidente.

“Antes de permitirmos que nossos carros tomem suas próprias decisões éticas, precisamos ter um debate global sobre isso. Quando as empresas que trabalham em sistemas autônomos aprendem sobre nossas preferências, elas desenvolvem algoritmos éticos em máquinas com base nelas, e os políticos podem começar a introduzir disposições legais adequadas ”, escreveram os cientistas em outubro de 2018 na Nature.

Um dos pesquisadores envolvidos no experimento Máquina Moral, Jean-François Bonnefont, achou alarmante a preferência por resgatar pessoas de status mais elevado (como executivos em vez de sem-teto). Em sua opinião, isso está muito relacionado o nível de desigualdade econômica em um determinado país. Onde as desigualdades eram maiores, deu-se preferência ao sacrifício dos pobres e dos sem-teto.

Um dos estudos anteriores mostrou, em particular, que, segundo os entrevistados, um carro autônomo deve proteger o maior número possível de pessoas, mesmo que isso signifique perder passageiros. Ao mesmo tempo, porém, os entrevistados afirmaram que não comprariam um carro programado dessa forma. Os pesquisadores explicaram que embora as pessoas achem mais ético salvar mais pessoas, elas também são egoístas, o que pode ser um sinal para os fabricantes de que os clientes estarão relutantes em comprar carros equipados com sistemas altruístas.. Algum tempo atrás, representantes da empresa Mercedes-Benz disseram que se o sistema salvasse apenas uma pessoa, eles escolheriam o motorista, não o pedestre. Uma onda de protestos públicos forçou a empresa a retirar sua declaração. Mas a pesquisa mostra claramente que havia muita hipocrisia nessa santa indignação.

Isso já está acontecendo em alguns países. primeiras tentativas de regulamentação legal em campo. A Alemanha aprovou uma lei exigindo que os carros sem motorista evitem ferimentos ou morte a todo custo. A lei também afirma que os algoritmos nunca podem tomar decisões com base em características como idade, sexo, saúde ou pedestres.

Audi assume

O designer não é capaz de prever todas as consequências do funcionamento do carro. A realidade sempre pode fornecer uma combinação de variáveis ​​que nunca foram testadas antes. Isso mina nossa crença na possibilidade de "programar eticamente" uma máquina. Parece-nos que em situações em que ocorre um erro e ocorre uma tragédia "por culpa do carro", a responsabilidade deve ser assumida pelo fabricante e desenvolvedor do sistema.

Talvez esse raciocínio esteja correto, mas talvez não porque estivesse errado. Pelo contrário, porque foi permitido um movimento que não estava 2019% livre da possibilidade de fazê-lo. Essa parece ser a razão, e a responsabilidade compartilhada não é escamoteada pela empresa, que anunciou recentemente que assumiria a responsabilidade por acidentes envolvendo um A8 de 3 anos enquanto utilizava um sistema automático Traffic Jam Pilot (XNUMX).

3. Interface do piloto do Audi Traffic Jam

Por outro lado, existem milhões de pessoas que dirigem carros e também cometem erros. Então, por que as máquinas, que estatisticamente cometem muito menos erros do que os humanos, como evidenciado por vários erros, deveriam ser discriminadas nesse sentido?

Se alguém pensa que os dilemas de ética e responsabilidade no mundo dos veículos autônomos são simples, continue pensando...

Adicionar um comentário