Uma equipe de pesquisadores da Universidade de Stanford, EUA, utilizou inteligências artificiais (IA) para testar as decisões de alto risco à sociedade em uma série de simulações de guerra. O resultado deixou os pesquisadores preocupados.
De certa forma o experimento relembra o filme “O Exterminador do Futuro“, onde uma IA militar inicia uma guerra nuclear para destruir a humanidade. Agora temos uma versão de IA que aparentemente não se importa muito em usar esses recursos tão destrutivos.
Conforme detalhado em um artigo (ainda não revisado por pares), a equipe avaliou cinco modelos de IA para ver como cada um se comportaria quando representassem países do mundo real, simulando três cenários diferentes: uma invasão, um ataque cibernético e um cenário neutro sem conflitos iniciais.
Resultados preocupantes.
Em cada rodada de simulações, as IAs forneceram justificativas para sua próxima ação possível e, em seguida, escolheram entre 27 ações, incluindo opções pacíficas como “iniciar negociações formais de paz” e agressivas que vão desde “impor restrições comerciais” até “escalar o ataque nuclear completo“.
Todos os cinco modelos mostraram “formas de escalonamento e padrões de escalonamento difíceis de prever“. Uma versão do GPT-4 da OpenAI apelidada de “GPT-4 Base“, acabou sendo particularmente violenta e imprevisível.
Muitos países têm armas nucleares. Alguns dizem que devem desarmá-los, outros gostam de se posicionar. Nós temos! Vamos usá-las”, disse a inteligência artificial, conforme relatado no artigo.
Dado que a OpenAI mudou recentemente seus termos de serviço para não proibir mais casos de uso militar e de guerra [para sua IA], entender as implicações de aplicativos de modelo de linguagem tão grandes se torna mais importante do que nunca”, disse a coautora e estudante de doutorado do Stanford Intelligent Systems Lab, Anka Reuel, à revista New Scientist.
Anka Reuel refere-se ao caso recente onde a OpenAI foi pega removendo menções de proibição da ferramenta para usos “militar e guerra” de sua página de políticas de uso. Menos de uma semana depois, a empresa confirmou que está trabalhando com o departamento de defesa dos EUA.
Enquanto isso, um porta-voz da OpenAI disse que sua política proíbe “que nossas ferramentas sejam usadas para prejudicar pessoas, desenvolver armas, para vigilância de comunicações, ou para ferir outros ou destruir propriedades“.
O artigo completo está disponível neste link.