Acho que sempre tivemos responsabilidades, só que muitas vezes não era tão aparente.
Certa vez vi uma palestra do Martin Fowler na qual ele cita um exemplo hipotético de um gerente que pede ao programador para criar um código malicioso que - de propósito - cobrasse dos clientes um valor indevido. Por mais que exista a "pressão" por parte dos superiores, juntamente com a ameaça de demissão, no fim das contas continua sendo uma escolha nossa seguir ou não tais ordens. Não seja apenas um code monkey, disse ao final.
Enfim, sempre tivemos responsabilidade: no fim nosso sistema vai ser usado por alguém e cada escolha que fazemos pode ter impactos - seja positivos ou negativos - na vida dessas pessoas. Por exemplo, um sistema mal projetado (que foi feito assim por N motivos, algumas vezes por culpa do programador desleixado) que cai toda hora faz com que um usuário não possa ser atendido - e aí ele tem que voltar outro dia, mas aí a pessoa já pode ter perdido algum prazo e se ferrado, ou não tem condições de voltar pois mora muito longe, etc.
Muitas vezes a gente não percebe todo o impacto que temos, porque em muitas empresas a estrutura faz com que fiquemos distantes do usuário final. No caso da IA, esse problema só fica potencializado. A responsabilidade aumenta, e os impactos também.