Home / Tecnologia / IA: Risco de terceirizar a consciência humana

IA: Risco de terceirizar a consciência humana

IA: Risco de terceirizar a consciência humana Foto: Reprodução

Engenheiro e filósofo afirma que máquinas não podem assumir culpa moral e que o verdadeiro perigo está na tendência humana de delegar decisões críticas aos algoritmos

Uso da IA para tomada de decisões

Segundo levantamento exclusivo realizado pelo PicPay a pedido da CNN, mais de 80% das pessoas — ou oito em cada dez — afirmam aceitar o uso da inteligência artificial para tomar decisões, inclusive para organização financeira.

À medida que a IA se integra ao cotidiano, dos diagnósticos médicos às decisões jurídicas, passando por conselhos emocionais e orientações profissionais, cresce também uma dúvida central: afinal, podemos responsabilizar a inteligência artificial por seus erros? Para o engenheiro, filósofo e escritor Pedro de Medeiros, a resposta é clara: não. E insistir nessa ideia, segundo ele, pode desviar o debate do que realmente importa.

De quem é a culpa?

O especialista lembra que, na filosofia, responsabilidade está ligada à consciência, algo que sistemas automatizados simplesmente não possuem.

“A IA não delibera, não julga e não tem intenção moral. Ela calcula. Responsabilizar a máquina é como responsabilizar um relâmpago pelo lugar onde caiu”, afirma Medeiros.

Mesmo assim, observa ele, cresce o movimento de delegar à tecnologia decisões que deveriam permanecer humanas, desde conselhos pessoais até diagnósticos complexos. “Quando alguém pede orientação a um algoritmo e segue aquela sugestão sem reflexão, quem decidiu de fato? O risco não está no erro da máquina, mas na nossa tentação de fugir da responsabilidade pelas próprias escolhas”, diz.

IA: Risco de terceirizar a consciência humana Foto: Reprodução

IA na rotina de trabalho

No ambiente profissional, a situação se torna ainda mais delicada à medida que softwares avançados ganham protagonismo em rotinas críticas. Médicos, advogados e analistas têm recorrido cada vez mais a sistemas inteligentes para orientar decisões técnicas. Mas o que acontece quando algo dá errado? Segundo Medeiros, surge uma perigosa “zona cinzenta”.

“Empresas e profissionais começam a usar o argumento do ‘o algoritmo mandou’ como uma nova forma de evasão moral. Mas delegar não elimina responsabilidade, apenas a esconde”, afirma.

O especialista reforça que não existe “moral artificial”, apenas a amplificação dos padrões humanos presentes nos dados que alimentam os sistemas. “Se nossos dados são enviesados, o algoritmo será enviesado. Se nossas escolhas são imprudentes, ele amplificará essa imprudência. A IA não inventa problemas; ela revela os nossos.”

Para ele, a discussão central não é se a IA deve ser responsabilizada, mas até onde estamos dispostos a ceder autonomia às máquinas. “Responsabilidade não é algo que se terceiriza. Se errarmos ao seguir a IA, não haverá um sistema para pedir desculpas em nosso lugar. No fim, a imagem refletida no espelho será sempre a nossa”, conclui.

IA: Especialista alerta o risco de terceirizar a consciência humana Foto: Olho Nu Produções

Para mais notícias sobre Tecnologia, acesse o portal O Informe

Marcado:

Deixe um Comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *