Stuart Russell, professor da Universidade da Califórnia em Berkeley, dedica-se há décadas ao estudo da Inteligência Artificial (IA), mas também é um de seus mais conhecidos críticos – ao menos do modelo de IA que ele ainda vê como “padrão” pelo mundo.
Russell tem advertido que o modelo predominante de Inteligência Artificial é, em sua opinião, uma ameaça à sobrevivência dos seres humanos.
Mas – à diferença dos enredos de filmes de Hollywood sobre o assunto – não porque ele ache que essas tecnologias vão se tornar conscientes e se voltar contra nós.
A preocupação principal de Russell é com a forma como essa inteligência tem sido programada por seus desenvolvedores humanos: elas são incumbidas de otimizar o máximo possível suas tarefas, basicamente a qualquer custo.
E, assim, tornam-se “cegas” e indiferentes aos problemas (ou, em última instância, à destruição) que podem causar aos humanos.
Para explicar isso à BBC News Brasil, Russell usa a metáfora de um gênio de lâmpada atendendo aos desejos de seu mestre: “você pede ao gênio que te torne a pessoa mais rica do mundo, e assim acontece – mas só porque o gênio fez o resto das pessoas desaparecerem”, diz.
“(Na IA) construímos máquinas com o que chamo de modelos padrão: elas recebem objetivos que têm de conquistar ou otimizar, (ou seja), para os quais encontrar a melhor solução possível. E aí levam a cabo essa ação.”
Mesmo que essa ação seja, na prática, prejudicial aos humanos, ele argumenta.
“Se construirmos a Inteligência Artificial de modo a otimizar um objetivo fixo dado por nós, elas (máquinas) serão quase como psicopatas – perseguindo esse objetivo e sendo completamente alheias a todo o restante, até mesmo se pedirmos a elas que parem.”
Um exemplo cotidiano disso, opina Russell, são os algoritmos que regem as redes sociais – que ficaram tão em evidência nos últimos dias com a pane global que afetou Facebook, Instagram e WhatsApp durante cerca de seis horas na segunda-feira (4/10).
A tarefa principal desses algoritmos é favorecer a experiência do usuário nas redes sociais – por exemplo, coletando o máximo de informações o possível sobre esse usuário e fornecendo a ele conteúdo que se adeque a suas preferências, fazendo com que ele permaneça mais tempo conectado.
Mesmo que isso ocorra às custas do bem-estar desse usuário ou da cidadania global, prossegue o pesquisador.
“As redes sociais criam vício, depressão, disfunção social, talvez extremismo, polarização da sociedade, talvez contribuam para espalhar desinformação. E está claro que seus algoritmos estão projetados para otimizar um objetivo: que as pessoas cliquem, que passem mais tempo engajadas com o conteúdo”, pontua Russell.
“E, ao otimizar essas quantidades, podem estar causando enormes problemas para a sociedade.”
No entanto, prossegue Russell, esses algoritmos não sofrem escrutínio o bastante para que possam ser verificados ou “consertados” – dessa forma, seguem trabalhando para otimizar seu objetivo, indiferentes ao dano colateral.
“(As redes sociais) não apenas estão otimizando a coisa errada, como também estão manipulando as pessoas, porque ao manipulá-las consegue-se aumentar seu engajamento. Se posso tornar você mais previsível, por exemplo transformando você em uma eco-terrorista extremista, posso te mandar conteúdo eco-terrorista e ter certeza de que você vai clicar, e assim maximizar meus cliques.”
Essas críticas foram reforçadas nesta terça-feira (5/10) pela ex-funcionária do Facebook (e atual informante) Frances Haugen, que depôs em audiência no Congresso americano e afirmou que os sites e aplicativos da rede social “trazem danos às crianças, provocam divisões e enfraquecem a democracia”. O Facebook reagiu dizendo que Haugen não tem conhecimento suficiente para fazer tais afirmações.
IA com ‘valores humanos’
Russell, por sua vez, detalhará suas teorias a um público de pesquisadores brasileiros em 13 de outubro, durante a conferência magna do encontro da Academia Brasileira de Ciências, virtualmente.
O pesquisador, autor de Compatibilidade Humana: Inteligência Artificial e o Problema de Controle (sem versão no Brasil), é considerado pioneiro no campo que chama de “Inteligência Artificial compatível com a existência humana”.
“Precisamos de um tipo completamente diferente de sistemas de IA”, opina ele à BBC News Brasil.
Esse tipo de IA, prossegue, teria de “saber” que possui limitações, que não pode cumprir seus objetivos a qualquer custo e que, mesmo sendo uma máquina, pode estar errado.
“Isso faria essa inteligência se comportar de um modo completamente diferente, mais cauteloso, (…) que vai pedir permissão antes de fazer algo quando não tiver certeza de se é o que queremos. E, no caso mais extremo, que queira ser desligada para não fazer algo que vá nos prejudicar. Essa é a minha principal mensagem.”
A teoria defendida por Russell não é consenso: há quem não considere ameaçador esse modelo vigente de Inteligência Artificial.
Um exemplo famoso dos dois lados desse debate ocorreu alguns anos atrás, em uma discordância pública entre os empresários de tecnologia Mark Zuckerberg e Elon Musk.
Reportagem do The New York Times aponta que, em um jantar ocorrido em 2014, os dois empresários debateram entre si: Musk apontou que “genuinamente acreditava no perigo” de a Inteligência Artificial se tornar superior e subjugar os humanos.
Zuckerberg, porém, opinou que Musk estava sendo alarmista.
Em entrevista no mesmo ano, o criador do Facebook se considerou um “otimista” quanto à Inteligência Artificial e afirmou que críticos, como Musk, “estavam pintando cenários apocalípticos e irresponsáveis”.
“Sempre que ouço gente dizendo que a IA vai prejudicar as pessoas no futuro, penso que a tecnologia geralmente pode ser usada para o bem e para o mal, e você precisa ter cuidado a respeito de como a constrói e como ela vai ser usada. Mas acho questionável que se argumente por reduzir o ritmo do processo de IA. Não consigo entender isso.”
Já Musk argumentou que a IA é “potencialmente mais perigosa do que ogivas nucleares”.
Um lento e invisível ‘desastre nuclear’
Stuart Russell se soma à preocupação de Musk e também traça paralelos com os perigos da corrida nuclear.
“Acho que muitos (especialistas em tecnologia) consideram esse argumento (dos perigos da IA) ameaçador porque ele basicamente diz: ‘a disciplina a que nos dedicamos há diversas décadas é potencialmente um grande risco’. Algumas pessoas veem isso como ser contrário à Inteligência Artificial”, sustenta Russell.
“Mark Zuckerberg acha que os comentários de Elon Musk são anti-IA, mas isso me parece ridículo. É como dizer que a advertência de que uma bomba nuclear pode explodir é um argumento anti-física. Não é anti-física, é um complemento à física, por ter-se criado uma tecnologia tão poderosa que pode destruir o mundo. E de fato tivemos (os acidentes nucleares de) Chernobyl, Fukushima, e a indústria foi dizimada porque não prestou atenção suficiente aos riscos. Então, se você quer obter os benefícios da IA, tem de prestar atenção aos riscos.”
O atual descontrole sobre os algoritmos das redes sociais, argumenta Russell, pode causar “enormes problemas para a sociedade” também em escala global, mas, diferentemente de um desastre nuclear, “lentamente e de modo quase invisível”.
Como, então, reverter esse curso?
Para Russell, talvez seja necessário um redesenho completo dos algoritmos das redes sociais. Mas, antes, é preciso conhecê-los a fundo, opina.
‘Descobrir o que causa a polarização’
Russell aponta que no Facebook, por exemplo, nem mesmo o conselho independente encarregado de supervisionar a rede social tem acesso pleno ao algoritmo que faz a curadoria do conteúdo visto pelos usuários.
“Mas há um grupo grande de pesquisadores e um grande projeto em curso na Parceria Global em IA (GPAI, na sigla em inglês), trabalhando com uma grande rede social que não posso identificar, para obter acesso a dados e fazer experimentos”, diz Russell.
“O principal é fazer experimentos com grupos de controle, ver com as pessoas o que está causando a polarização social e a depressão, e (verificar) se mudar o algoritmo melhora isso.”
“Não estou dizendo para as pessoas pararem de usar as redes sociais, nem que elas são inerentemente más”, prossegue Russell. “(O problema) é a forma como os algoritmos funcionam, o uso de likes, de subir conteúdos (com base em preferências) ou de jogá-los para baixo. O modo como o algoritmo escolhe o que colocar no seu feed parece ser baseado em métricas prejudiciais às pessoas. Então precisamos colocar o benefício do usuário como objetivo principal e isso vai fazer as coisas funcionarem melhor e as pessoas ficarão felizes em usar seus sistemas.”
Não haverá uma resposta única sobre o que é “benéfico”. Portanto, argumenta o pesquisador, os algoritmos terão de adaptar esse conceito para cada usuário, individualmente – uma tarefa que, ele próprio admite, não é nada fácil. “Na verdade, essa (área das redes sociais) seria uma das mais difíceis onde se colocar em prática esse novo modelo de IA”, afirma.
“Acho que realmente teriam que começar do zero a coisa toda. É possível que acabemos entendendo a diferença entre manipulação aceitável e inaceitável. Por exemplo, no sistema educacional, manipulamos as crianças para torná-las cidadãos conhecedores, capazes, bem-sucedidos e bem integrados -, e consideramos isso aceitável. Mas se o mesmo processo tornasse as crianças terroristas, seria uma manipulação inaceitável. Como, exatamente, diferenciar entre ambos? É uma questão bem difícil. As redes sociais realmente suscitam esses questionamentos bastante difíceis, que até filósofos têm dificuldade em responder.”
Por: Paula Adamo Idoeta, Da BBC News Brasil em São Paulo