Engenheiro e filósofo afirma que máquinas não podem assumir culpa moral e que o verdadeiro perigo está na tendência humana de delegar decisões críticas aos algoritmos
Table of Contents
Uso da IA para tomada de decisões
Segundo levantamento exclusivo realizado pelo PicPay a pedido da CNN, mais de 80% das pessoas — ou oito em cada dez — afirmam aceitar o uso da inteligência artificial para tomar decisões, inclusive para organização financeira.
À medida que a IA se integra ao cotidiano, dos diagnósticos médicos às decisões jurídicas, passando por conselhos emocionais e orientações profissionais, cresce também uma dúvida central: afinal, podemos responsabilizar a inteligência artificial por seus erros? Para o engenheiro, filósofo e escritor Pedro de Medeiros, a resposta é clara: não. E insistir nessa ideia, segundo ele, pode desviar o debate do que realmente importa.
De quem é a culpa?
O especialista lembra que, na filosofia, responsabilidade está ligada à consciência, algo que sistemas automatizados simplesmente não possuem.
“A IA não delibera, não julga e não tem intenção moral. Ela calcula. Responsabilizar a máquina é como responsabilizar um relâmpago pelo lugar onde caiu”, afirma Medeiros.
Mesmo assim, observa ele, cresce o movimento de delegar à tecnologia decisões que deveriam permanecer humanas, desde conselhos pessoais até diagnósticos complexos. “Quando alguém pede orientação a um algoritmo e segue aquela sugestão sem reflexão, quem decidiu de fato? O risco não está no erro da máquina, mas na nossa tentação de fugir da responsabilidade pelas próprias escolhas”, diz.

IA na rotina de trabalho
No ambiente profissional, a situação se torna ainda mais delicada à medida que softwares avançados ganham protagonismo em rotinas críticas. Médicos, advogados e analistas têm recorrido cada vez mais a sistemas inteligentes para orientar decisões técnicas. Mas o que acontece quando algo dá errado? Segundo Medeiros, surge uma perigosa “zona cinzenta”.
“Empresas e profissionais começam a usar o argumento do ‘o algoritmo mandou’ como uma nova forma de evasão moral. Mas delegar não elimina responsabilidade, apenas a esconde”, afirma.
O especialista reforça que não existe “moral artificial”, apenas a amplificação dos padrões humanos presentes nos dados que alimentam os sistemas. “Se nossos dados são enviesados, o algoritmo será enviesado. Se nossas escolhas são imprudentes, ele amplificará essa imprudência. A IA não inventa problemas; ela revela os nossos.”
Para ele, a discussão central não é se a IA deve ser responsabilizada, mas até onde estamos dispostos a ceder autonomia às máquinas. “Responsabilidade não é algo que se terceiriza. Se errarmos ao seguir a IA, não haverá um sistema para pedir desculpas em nosso lugar. No fim, a imagem refletida no espelho será sempre a nossa”, conclui.

Para mais notícias sobre Tecnologia, acesse o portal O Informe












