Executando verificação de segurança...
Em resposta a [Não disponível]
1

Aceitaram quase tudo como moral que é quase impossível discutir moral e idealizar essa máquina.
O carro faltou freio só a 2 direções: atropelar um humano ou um cachorro.
Os quê tentarem programar a máquina moral para atropelar o cachorro serão perseguidos por um monte de ONG, ativistas, etc. Será ameaçado e até a família dele correrá risco de morte.

Carregando publicação patrocinada...
1

<sarcasmo>E se bobear, vão fazer mais barulho e reclamar muito mais por causa dos carros que atropelam cachorros do que os que atropelam pessoas.</sarcasmo>

Acho que o teste desse site aí tem um viés terrível: estamos no conforto de nossas casas olhando a situação de fora, e claro que a maioria vai acabar escolhendo salvar vidas.

Mas se eu estivesse dentro do carro, será que eu ia preferir que ele atropelasse algumas pessoas, ou batesse no muro, correndo o risco de me matar?

Não é nada simples resolver isso. A solução simplista seria simplesmente salvar a maior quantidade de vidas. Mas aí quem vai querer comprar um carro que numa situação dessas escolhe matar o motorista?

1

A problemática é similar (se não idêntica) ao que já acontece hoje. A solução simplista q vc mencionou seguiria princípios utilitaristas:

De acordo com o utilitarismo as consequências das ações morais devem ser compreendidas como essenciais na tomada de decisão de como o indivíduo deve agir. Inspirado nas éticas hedonistas (que associam a moral ao prazer), o utilitarismo defende que o agir ético deve visar garantir a felicidade do maior número de pessoas possíveis (princípio de utilidade), mesmo que para isso tenha que sacrificar a minoria.
Ref

Inclusive tem um jogo muito massa (de assistir até), chamado Trolley Problem Inc, que discute esses problemas baseado em várias ramificações do dilema do bonde.

Acontece que por mais que as IAs avancem até o ponto de só existirem carros autônomos, o ser humano replica os vieses, problemas e até preconceitos nas tecnologias que produz. Um exemplo disso é o representado no documentário coded bias, no qual o reconhecimento facial não funcionava em pessoas pretas.

É uma pergunta sem resposta, mas muito interessante de se pensar.