[Não lhe apetece ler hoje? Pode ver em alternativa este vídeo]

Após os telefones sem fios, as comunicações distantes com vídeo e os ecrãs planos, os carros autónomos estão prestes a tornar-se realidade mais um dos temas de ficção científica da minha infância.

Poder passar os tempo de viagem a desfrutar realmente das paisagens, ler ou ainda dormir, com a máxima segurança. É esta, pelo menos, a promessa feita pelos principais construtores de automóveis.

Se tecnologicamente estes veículos parecem (quase) perfeitos, haverá sempre acidentes e os construtores têm de programar estes carros de modo a minimizar as consequências. Mas existe uma questão que não está resolvida e que pode até prejudicar o seu futuro comercial: uma questão ética!

O que se deve ordenar ao carro quando uma determinada situação não pode impedir que haja vitimas?
— atropelar uma pessoa em particular para salvar outra, por exemplo “preferir” atropelar uma pessoa de idade do que uma criança?
— atropelar uma pessoa isolada para evitar um grupo, ou seja, minimizar o número de vitimas?
— sacrificar o condutor?

É este tipo de dilema que investigadores expuseram a quase 2000 pessoas. No artigo resultante, é indicado que 75% das pessoas acham que seria mais justo sacrificar o condutor. No entanto, as mesmas pessoas não estão prontas a comprar um carro programado capaz de os matar para salvar outras vidas.

O que é certo é que os algoritmos destes veículos terão de prever essas situações, e que a regra imposta pelas autoridades será certamente limitar o número de vitimas. E isto poderá desmotivar os possíveis compradores, que naturalmente não gostarão da ideia de ser potencialmente sacrificados. 

Pessoalmente, prefiro de facto esperar mais um pouco e optar pelo teletransporte…
E para passar o tempo, vou testar o meu grau de moral e de altruísmo com a "Moral Machine”.

Didier Hochart, Senior UX Designer

1 Comment