
Pesquisadores do Google Deepmind e da Universidade de Oxford concluíram que é "provável" que alguma IA Superinteligente darão fim à humanidade - um cenário sombrio que cada vez mais pesquisadores começam a especular .
Em um artigo recente publicado na revista AI Magazine , a equipe - composta pelo cientista sênior da DeepMind Marcus Hutter e pelos pesquisadores de Oxford Michael Cohen e Michael Osborne - argumenta que as máquinas acabarão por quebrar as regras que seus criadores definiram para competir por recursos limitados ou energia.
'Sob as condições que identificamos, nossa conclusão é muito mais forte do que a de qualquer publicação anterior ? uma catástrofe existencial não é apenas possível, mas provável', twittou Cohen, estudante de engenharia da Universidade de Oxford e coautor do artigo, no início deste mês . .
Nestes artigos, os pesquisadores argumentam que a humanidade pode enfrentar sua desgraça na forma de "agentes desalinhados", IAs super avançadas que passam a perceber a humanidade como um obstáculo ao seu objetivo.
'Uma boa maneira de um agente manter o controle de longo prazo de sua recompensa é eliminar ameaças potenciais e usar toda a energia disponível para proteger seu computador', diz o artigo.
"Perder este jogo seria fatal", escreveram os pesquisadores.
Esta imagem foi gerada por uma IA.
Tragicamente, argumentam os pesquisadores, não há muito que possamos fazer a respeito.
"Em um mundo com recursos infinitos, eu ficaria extremamente incerto sobre o que aconteceria", disse Cohen à Motherboard em uma entrevista. "Em um mundo com recursos finitos, há uma competição inevitável por esses recursos."
E isso poderia ser um mau presságio para a humanidade.
"E se você está em uma competição com algo capaz de te superar a cada passo, então você não deve esperar vencer", acrescentou.
Em resposta a essa ameaça, a humanidade deve progredir de forma cuidadosa e lenta em suas tecnologias de IA.
Se essas suposições forem verdadeiras, "um agente artificial suficientemente avançado provavelmente interviria no fornecimento de informações sobre o objetivo, com consequências catastróficas", alerta o artigo.