O grande perigo da IA está na imoralidade dos humanos, afirma professor de Oxford
O grande perigo da IA está na imoralidade dos humanos, afirma professor de Oxford
A inteligência artificial avança a passos largos e, com ela, surgem dilemas éticos cada vez mais complexos. Um dos temas mais preocupantes é o uso da IA em decisões moralmente questionáveis, especialmente no campo militar.
Em entrevista recente, Michael Wooldridge, professor de ciência da computação na Universidade de Oxford e um dos principais especialistas no assunto, destacou que a verdadeira ameaça não está na ética da IA em si, mas na forma como os humanos a utilizam.
IA pode ser usada como desculpa para decisões antiéticas
Ver essa foto no Instagram
Wooldridge alerta para um cenário preocupante: a possibilidade de governos e militares usarem sistemas de inteligência artificial para justificar ações controversas, como ataques a alvos civis. Segundo ele, atribuir decisões a uma máquina pode se tornar uma forma de “absolver” os responsáveis.
“Foi a máquina que decidiu mirar naquela escola e disparar os mísseis. Então, não foi inteiramente nossa culpa.”
Do ChatGPT aos drones de combate: como a OpenAI está expandindo sua IA para o setor militar
Esse tipo de argumento, segundo o especialista, pode abrir precedentes perigosos e facilitar a abdicação da responsabilidade moral por parte de quem controla a tecnologia.
Tentar ensinar moralidade à IA pode ser um risco
O professor também menciona que há esforços para implementar um tipo de raciocínio moral em inteligências artificiais. No entanto, essa abordagem pode ter efeitos colaterais preocupantes. Ainda que a IA possa ser programada para tomar decisões mais racionais, isso poderia encorajar indivíduos e organizações a delegarem dilemas éticos complexos para algoritmos, isentando-se da responsabilidade.
No fim das contas, Wooldridge reforça que o problema não está na IA em si, mas nas intenções de quem a desenvolve e utiliza.
“O verdadeiro risco não é a moralidade da IA, mas os seres humanos imorais.”
Para o especialista, a tecnologia deve ser encarada como uma ferramenta, e cabe a seus criadores e usuários garantir que seu uso seja ético e responsável.
Recentemente, Steve Wozniack, cofundador da Apple, também apontou sobre esse ponto da ética relacionada a inteligência artificial. Em sua visão, o uso da IA precisa de mais transparência e ética.
“Não sou contra a inteligência artificial, mas acho que seu uso deveria ser mais sincero. É essencial indicar se algo foi gerado por IA e citar as fontes de onde obteve as informações. Prefiro que as pessoas compartilhem suas próprias ideias e façam suas próprias escolhas.”, destacou Woz.
Leave A Comment
You must be logged in to post a comment.