Inicio

Cientistas advertem que humanos não serão capazes de controlar máquinas superinteligentes

Por History Channel Brasil em 26 de Janeiro de 2021 às 21:38 HS
Cientistas advertem que humanos não serão capazes de controlar máquinas superinteligentes-0

Pesquisadores de todo o mundo vêm alertando sobre os potenciais perigos ligados ao desenvolvimento de uma Inteligência Artificial (IA) muito poderosa. Por meio de uma série de cálculos teóricos, os especialistas do Instituto Max Planck, na Alemanha, concluíram que não é teoricamente possível prever as atitudes de uma IA. Ou seja, é impossível ter controle total sobre esse tipo de tecnologia.

“Uma máquina superinteligente que controla o mundo parece coisa de ficção científica. Mas já existem máquinas que realizam certas tarefas importantes de forma independente, sem que os programadores entendam totalmente como elas aprenderam. Surge, portanto, a questão de saber se isso poderia em algum momento se tornar incontrolável e perigoso para a humanidade ”, afirmou Manuel Cebrian, coautor do estudo e líder do Grupo de Mobilização Digital no Instituto Max Planck.

Cientistas advertem que humanos não serão capazes de controlar máquinas superinteligentes - 1

A equipe se concentrou principalmente na questão da contenção. Se um algoritmo superpoderoso decidisse machucar alguém ou, de uma forma mais drástica, acabar com a humanidade, como ele seria impedido de agir? Os pesquisadores propuseram então a criação de uma espécie de "algoritmo de contenção" que simula o comportamento do algoritmo perigoso e o impede de fazer qualquer coisa prejudicial. No entanto, uma análise do paradigma de computação atual mostrou que tal algoritmo não poderia ser construído.

“Se o problema se concentrar nas regras básicas da ciência da computação teórica, descobre-se que um algoritmo que controlaria uma IA para impedi-la de destruir o mundo poderia inadvertidamente interromper suas próprias operações. Se isso acontecer, não se saberia se o algoritmo de contenção ainda estaria analisando a ameaça ou se teria parado para conter a IA ameaçadora. Assim, isso tornaria o algoritmo de contenção inutilizável”, afirmou Iyad Rahwan, Diretor do Centro para Humanos e Máquinas do Instituto Max Planck.


Fontes: Futurism, Business Insider e  Instituto Max Planck

 Imagens: Shutterstock.com