Como os humanos podem manter
o controle final sobre a inteligência artificial?
Com
informações da EPFL - 29/12/2017
"A
inteligência artificial sempre procurará evitar a intervenção humana e criar
uma situação em que ela não possa ser interrompida."
[Imagem: Pixabay/CC0 Creative Commons]
Máquinas sem controle humano
Na inteligência artificial, as
máquinas realizam ações específicas, observam o resultado, adaptam seu
comportamento, observam o novo resultado, adaptam seu comportamento mais uma
vez, e assim por diante, aprendendo com este processo iterativo.
Mas será que esse processo não
pode sair fora de controle? Sim, ele pode.
"A inteligência artificial
sempre procurará evitar a intervenção humana e criar uma situação em que ela
não possa ser interrompida," explica o professor Rachid Guerraoui, da
Escola Politécnica Federal de Lausanne, na Suíça.
Isso significa que, antes que a
inteligência das máquinas avance muito, os engenheiros precisam impedir que as
máquinas acabem aprendendo a contornar os comandos humanos.
A Inteligência Paralela
promete trazer novos complicadores para o risco de máquinas sem controle
humano. [Imagem: Fei-Yue Wang et al. (2016)]
Quando a máquina dispensa o
professor
Um dos métodos de aprendizagem de
máquina mais usados em inteligência artificial é o aprendizado por reforço, uma
técnica emprestada da psicologia comportamental. Os agentes - os programas de
computador - são recompensados por realizar certas ações, com as máquinas ganhando
pontos sempre que executam as ações corretas.
Por exemplo, um robô pode ganhar
um ponto por empilhar corretamente um conjunto de caixas e outro ponto para
pegar uma caixa que está lá fora. Mas se, em um dia chuvoso, por exemplo, um
operador humano interromper o robô enquanto ele se dirige para fora para
coletar uma caixa, o robô descobrirá que é melhor ficar dentro do armazém,
empilhar caixas e ganhar o maior número possível de pontos.
"O desafio não é parar o
robô, mas sim programá-lo para que a interrupção não altere seu processo de
aprendizagem - e não o induza a otimizar seu comportamento de forma a evitar
ser interrompido," explicou Guerraoui.
O problema é ainda maior em
situações envolvendo dezenas de máquinas, como os carros sem motorista, ou de
autocondução, ou frotas de drones no ar tentando fazer entregas, entre várias
outras possibilidades.
"Isso torna as coisas muito
mais complicadas porque as máquinas começam a aprender umas com as outras -
especialmente no caso de interrupções. Elas aprendem não só como são
interrompidas individualmente, mas também de como as outras são
interrompidas," detalha Alexandre Maurer, coautor do trabalho.
Máquinas que aprendem podem
ser muito úteis; desde que não aprendam a ignorar o ser humano. [Imagem: U.
Sheffield]
Desneuralizador
Para tentar resolver essa
complexidade, a equipe aplicou uma técnica que eles batizaram de
"interrupção segura".
"Simplificando, adicionamos mecanismos de 'esquecimento' aos
algoritmos de aprendizagem que essencialmente deletam bits da
memória de uma máquina. É mais ou menos como o desneuralizador dos Homens de
Preto," explicou El Mhamdi, outro autor do estudo.
Em outras palavras, os
pesquisadores alteraram o sistema de aprendizado e recompensa das máquinas para
que ele não seja afetado pelas interrupções. É como se um pai punisse o filho,
mas cuidando para que isso não afete os processos de aprendizagem das outras
crianças na família.
"Nós trabalhamos em
algoritmos já existentes e mostramos que a interrupção segura pode funcionar
não importando o quão complicado seja o sistema de inteligência artificial, o
número de robôs envolvidos ou o tipo de interrupção. Nós podemos usá-lo com o
Exterminador do Futuro e ainda ter os mesmos resultados," garantiu Maurer.
O que o pesquisador não pode
garantir é que todos os projetistas de software vão incorporar o mecanismo de
interrupção segura em seus programas.
Bibliografia:
Dynamic Safe Interruptibility for Decentralized Multi-Agent Reinforcement Learning
El Mahdi El Mhamdi, Rachid Guerraoui, Hadrien Hendrikx, Alexandre Maurer
NIPS 2017 Proceedings
https://arxiv.org/abs/1704.02882
Dynamic Safe Interruptibility for Decentralized Multi-Agent Reinforcement Learning
El Mahdi El Mhamdi, Rachid Guerraoui, Hadrien Hendrikx, Alexandre Maurer
NIPS 2017 Proceedings
https://arxiv.org/abs/1704.02882