Os últimos avanços no campo da inteligência artificial (IA) possibilitaram a criação de robôs capazes de cuidar do trabalho doméstico, carros autônomos ou ‘softwares’ que conseguiram esclarecer mistérios para a ciência. No entanto, à medida que mais progresso é feito nesta área, os cientistas estão alertando sobre os perigos potenciais de desenvolver uma IA muito poderosa.
Nesse sentido, um grupo internacional de pesquisadores usou uma série de cálculos teóricos para explorar as possibilidades de manter uma IA superinteligente sob controle. Como resultado, os acadêmicos concluíram que seria fundamentalmente impossível controlar esse tipo de tecnologia.
“Uma máquina superinteligente que controla o mundo soa como ficção científica. Mas já existem máquinas que realizam certas tarefas importantes de forma independente, sem que os programadores entendam totalmente como as aprenderam […], uma situação que pode em algum momento se tornar incontrolável e perigosa pela humanidade”, comenta Manuel Cebrian, co-autor da publicação.
Durante o estudo, publicado recentemente no Journal of Artificial Intelligence Research, os cientistas testaram duas idéias para manter a IA superinteligente sob controle. Uma delas era isolá-lo da Internet e de outros dispositivos para limitar seu contato com o mundo exterior, o que reduziria significativamente sua capacidade de responder às tarefas para as quais foi projetado.
Além disso, a equipe “desenvolveu um algoritmo de contenção teórico que garante que uma IA superinteligente não possa prejudicar as pessoas em nenhuma circunstância, primeiro simulando o comportamento da IA e interrompendo-o se for considerado prejudicial”. No entanto, uma análise do paradigma de computação atual mostrou que tal algoritmo não pode ser construído.
“Se decompormos o problema em regras básicas de computação teórica, descobrimos que um algoritmo que instruiu uma IA a não destruir o mundo poderia interromper inadvertidamente suas próprias operações. Se isso acontecesse, não saberíamos se o algoritmo de contenção continuaria a analisar a ameaça, ou se teria parado para conter a IA prejudicial. Na verdade, isso torna o algoritmo de contenção inutilizável”, concluiu Iyad Rahwan, outro dos autores do estudo.