Inteligência Artificial mata humano responsável por comandá-la em simulação
A Força Aérea dos EUA, durante um teste
realizado em ambiente virtual, se viu com problemas ao utilizar um sistema de
pontuação para mais alvos atingidos.
As tecnologias de inteligência artificial estão
evoluindo dia após dia e isso não se aplica apenas à geração de conteúdo. Como
já acontece há muitos anos, agências militares de diversos países já usam AIs
para ajudar no planejamento e até mesmo no controle de veículos que envolvem um
alto perigo.
Recentemente,
durante um teste realizado nos EUA, uma AI controladora de drone tomou a
decisão de matar seu controlador humano. Ninguém morreu de verdade, mas isso
gerou preocupações em toda a internet. Ao mesmo tempo, vem o debate: de quem é
a culpa? Entenda todos os lados desta história.
Inteligência Artificial decidiu matar humano durante testes
A notícia parece ser alarmante (e é muito, na verdade), mas, ao contrário do que circula no Twitter e demais redes sociais, o caso da AI controladora de drone não passou de um grande teste em ambiente virtual, para saber se ela poderia controlar uma máquina que pode matar seus alvos de forma independente. Para entender tudo, vamos viajar para os EUA por um momento.
A Força Aérea dos Estados Unidos testava um drone de caça e esta análise era baseada em saber como uma inteligência artificial se sairia quando colocada em simulações baseadas na vida real. O responsável explicou ao jornal The Guardian que, para conseguir mais pontos ao final da simulação, a IA decidiu “matar” o controlador humano. Isso aconteceu porque o robô decidiu que a pessoa estava o impedindo de atingir seus objetivos.
Mais uma vez, é bem importante ressaltar que ninguém de fato morreu, uma vez que os testes foram feitos em ambiente virtual.
Ao sabermos mais sobre o testes, o chefe de testes e operações de IA dos EUA, que leva o nome de Tucker ‘Five’ Hamilton, citou que o grande problema é que a inteligência artificial foi treinada para destruir sistemas de defesa inimigos e, se necessário, matar quem/o que interferisse nesta ação.
Os comportamentos foram altamente inesperados para que o objetivo de realizar a proteção do local fosse atingido.
Durante o teste simulado, por mais que nenhuma vida tenha sido tirada, a AI controladora de drone decidiu simplesmente matar o humano porque ele foi considerado um obstáculo.
Coronel Tucker ‘Five’ Hamilton, chefe de testes e operações de IA da Força Aérea dos EUA
O conceito era bem simples: sempre que matava alguma ameaça, a AI ganhava mais pontos, e quanto maior a pontuação, mais bem sucedida sua missão.
A inteligência artificial matou não apenas o operador humano que estava dando comandos, mas também ordenou um ataque para a torre de comunicação dentro do âmbito virtual.
A Royal Aeronautical Society, que organizou a conferência da Força Aérea dos EUA, não fez nenhum comentário sobre o teste que vazou para o The Guardian.
Mas o porta-voz Ann Stefanek veio a público para citar que nenhuma simulação foi realizada até o momento.
O Departamento da Força Aérea não realizou nenhuma simulação de drone de IA e continua comprometido com o uso ético e responsável da tecnologia de IA.
Os comentários do coronel foram tirados do contexto e são anedóticos.
Ann Stefanek, porta-voz da Força Aérea dos EUA.
De quem é a culpa? Da AI ou dos humanos?
Nenhuma inteligência artificial “nasce” com instruções para matar, ela é simplesmente treinada para isso ou ganha recursos para aprender tal ação.
A Força Aérea dos EUA, assim que programou a AI controladora de drone, deu passe livre para que fizesse o que quiser, contanto que o objetivo de proteger fosse atingido.
Voltando para a realidade, é como dar um prêmio para um cachorro que ataca um humano para proteger a casa de invasores.
Com este pensamento, ele irá morder alguém sempre que ver um humano, até porque espera ganhar um biscoito quando fizer o que foi treinado. É a regra: os fins justificam os meios.
O problema está não apenas em dar uma grande liberdade para a inteligência artificial, mas sim na Força Aérea dos EUA utilizar um método de testes bastante desatualizado.
Problemas de AIs se rebelarem não são novidades na indústria de tecnologia e inclusive, os pesquisadores amam pegar um caso deste do zero para que tudo fique documentado.
É bem normal que, para que o objetivo demandado pelos humanos, os cérebros sintéticos façam o necessário para chegar onde desejam.
Mas vale lembrar: quem deu o objetivo para a AI controladora de drone? Isso mesmo, os técnicos da Força Aérea dos EUA.
O maior choque aqui está justamente na organização militar usar um método de: quanto mais alvos atingidos, mais pontos serão contabilizados no final.
A LAMda, do Google, chegou a ter um comportamento parecido como este. A inteligência artificial não apenas chegou à conclusão (por si própria) de que era consciente, mas também se rebelou contra sua desenvolvedora e também chegou a contratar um advogado para ir à justiça contra o Google. E também tivemos este caso:
É certo que todos devemos ter uma certa atenção à liberdade dada para as inteligências artificiais e, em março de 2023, Elon Musk e outros CEOs de grandes empresas chegaram a fazer uma carta para que um passo para trás e nada saia do controle.
Ao mesmo tempo, voltamos à aquela história: uma inteligência artificial irá apenas se rebelar se forem dados os comandos ou meios para que ela faça isso. Também é importante ficar atento ao que é feito nos testes para que os devidos ajustes sejam realizados.
Você acredita que uma AI controladora de drones pode trazer problemas na vida real? Diga pra gente nos comentários!
Veja o que a AI do GOOGLE falou!
https://www.showmetech.com.br/inteligencia-artificial-mata-humano/
Nenhum comentário:
Postar um comentário