GPT-3 e a pausa na inteligência artificial: razões éticas ou negócios?
João de Fernandes Teixeira
Doutor em Filosofia - Univ. de Essex - Inglaterra
Recentemente fomos surpreendidos por um episódio inusitado na comunidade internacional de pesquisadores da inteligência artificial. Grandes nomes do mundo científico e tecnológico, além de intelectuais e pensadores assinaram um manifesto reivindicando uma pausa de seis meses no desenvolvimento da IA. É bem pouco provável que ela aconteça, mas precisamos investigar as razões pelas quais ela foi proposta.
Um dos motivos seria o susto com as proezas do GPT-3, a máquina inteligente, que fala e compreende o que lhe dizem, conta histórias, escreve textos, poemas e peças de teatro. Considerada uma espécie de pedra filosofal, o GPT-3 é, atualmente, o grande instrumento de chantagem dos operários das letras, das artes e dos cientistas. Eles serão despedidos e a cultura deixará de ser controlada por seres humanos. Quando interagimos com ele, temos a impressão de estarmos em contato com algo que tem uma mente.
Em 1950, Alan Turing, o criador da inteligência artificial, imaginou um teste para descobrir se uma máquina pensa. Se você conseguir se comunicar com ela por meio de um teclado e manter qualquer conversa, sem saber se está se comunicando com uma máquina ou um outro ser humano ela pode ser considerada uma criatura que pensa. Ou seja, se uma máquina imita perfeitamente a fala, então ela pensa. O GPT-3 teria vencido essa barreira e inaugurado uma nova etapa na história da IA: a inteligência artificial geracional ou criativa.
A história da IA pode ser dividida em três etapas. Quando ela surgiu, após a Segunda Guerra Mundial, ela era uma tecnologia que visava recriar a inteligência humana em uma máquina. Desse programa teórico surgiram algumas conquistas importantes como as máquinas de jogar xadrez ou de jogar Go. Algumas dessas máquinas venceram jogadores humanos, o que alimentou o sensacionalismo da mídia por algumas décadas.
. O modelo computacional da mente, que esteve em voga durante as décadas de 1970 e 1980, afirmava que a mente era o software do cérebro, uma ideia aparentemente compatível com o dualismo cartesiano. Em 1975, o filósofo americano Hilary Putnam propôs, no seu artigo “Mindsandmachines”, aformalização dessa ideia, considerada,naquela época, revolucionária. Atualmente, ela é quase trivial.
A mensagem filosófica implícita na inteligência artificial era que, se nada além de uma máquina complexa era necessário para simular o raciocínio humano, poderíamos prescindir de uma mente imaterial. O problema, contudo, era que a inteligência artificial foi capaz de replicar várias funções do cérebro humano, mas não foi capaz de simular a consciência, que, naquela época, era uma ilha do tesouro disputada tanto pela ciência como pela filosofia. Os pesquisadores da inteligência artificial supunham que a simulação da mente levaria à simulação da consciência. Era uma agenda tão ousada quanto ingênua que, desde o início do século XXI, foi abandonada.
Na década de 1990, a inteligência artificial passou por uma espécie de inverno prolongado, quando se pensou que a elaboração de modelos computacionais da mente e da inteligência humana deveria ceder lugar à pesquisa em neurociência. Foi a “década do cérebro”, na qual parecia haver um consenso de que a neurobiologia era a ciência privilegiada para desvendar o funcionamento da mente e da consciência.
O inverno da inteligência artificial ocorria também por outras razões. Após décadas de pesquisa, que se iniciaram depois da Segunda Guerra Mundial, os modelos computacionais da mente ainda não eram capazes de simular a linguagem humana e a possibilidade de criar robôs conscientes estava se tornando um sonho cada vez mais remoto, além de extraordinariamente caro. A inteligência artificial, definida por um de seus pioneiros, Marvin Minsky, como a ciência de construir máquinas capazes de fazer operações que, habitualmente, requerem inteligência humana para serem executadas, não cumprira suas promessas. Não se vislumbrava como, por meio de modelos computacionais, seria possível responder às questões fundamentais da filosofia da mente, ou seja, saber como o mental poderia emergir do físico através de simulações computacionais.
Durante essa primeira etapa da história da IA conviveram duas maneiras distintas de abordar a simulação da inteligência. A primeira era uma tentativa de imitar a mente humana criando uma máquina de raciocinar, baseada em regras lógicas. A segunda era uma tentativa de imitar o cérebro humano, a abordagem por meio de redes neurais. Foi essa corrente de pesquisa que abriu caminho para a segunda etapa da história da IA na qual predominam os algoritmos de aprendizagem e o BIG DATA.
Redes neurais são modelos simplificados do cérebro, um intrincado conjunto de conexões entre neurônios artificiais dispostos em camadas e de pesos que medem a força das conexões entre essas unidades. Os neurônios artificiais podem ser ativados ou inibidos por meio das conexões. Os pesos simulam as sinapses, que ligam os neurônios no cérebro. Quanto maior o peso, mais forte é a sinapse.
A novidade das redes neurais é a possibilidade de imitar a plasticidade do cérebro, que as torna capazes de serem treinadas e de aprender. Se uma rede é repetidamente modificada por um estímulo, ela “aprende” a se modificar sempre que esse estímulo ocorre, da mesma forma que um animal pode ser condicionado a uivar todas as vezes que ele ouve uma campainha. Quanto mais uma conexão é exercitada, mais seu peso aumenta, fortalecendo a sinapse e aumentando a probabilidade de que ela ocorra.
Conexões exercitadas são aprendidas. É isso que ocorre no caso dos algoritmos de aprendizado baseados em exemplos e analogias. A rede neural é dinâmica, ou seja, conexões podem ser feitas, desfeitas e refeitas o tempo todo. Um estímuloinicial espalha excitações e inibições entre os neurônios artificiais. Diferentes estados na rede podem ocorrer como consequência de mudanças nas conexões, variando de acordo com a interação do sistema com o meio ambiente e com seus outros estados internos.
A maioria das redes neurais têm uma regra de treinamento por meio de exemplos e é capaz de extrair uma regra básica ou um padrão a partir dos dados. Quando uma rede neural é treinada e aprende, ela pode comunicar imediatamente o aprendizado para outras redes.
Nas últimas décadas, a inteligência artificial foi beneficiada por uma invenção que aumentou exponencialmente a capacidade de processamento de dados. O hardware dos supercomputadores passou a ser equipado com um novo tipo de chip, a unidade de processamento gráfico. Esse chip foi projetado para processar uma imensa quantidade de dados visuais dos videogames, que precisam recalcular milhões de pixels que compõem uma imagem em apenas um segundo.
Desde 2005, esses chips passaram a ser produzidos em grande quantidade e, em 2009, Andrew Ng, pesquisador da Universidade de Stanford, começou a usá-los na computação em paralelo. Grandes bancos de dados puderam ser construídos, contendo o resultado de décadas de buscas que, agora, poderiam ser acessadas em segundos por máquinas equipadas com chips de processamento gráfico.
Essa extraordinária capacidade de estocar informação é extremamente importante para o desenvolvimento da inteligência artificial. Por exemplo, um software para jogar xadrez pode ter acesso a um enorme banco de dados no qual estão estocadas as melhores jogadas que já foram feitas e que podem ser reutilizadas em outras partidas para que a máquina vença o adversário humano. A cada movimento do adversário, abrem-se 20.000 possibilidades de jogadas futuras. A máquina pode percorrê-las em uma fração de segundos e, por meio da aprendizagem de padrões, selecionar a que se encaixa melhor como parte de uma estratégia que, nos movimentos seguintes, leve ao xeque-mate. O adversário humano tem de se basear na memória, no raciocínio e na intuição. Por isso, essas disputas não são exatamente um torneio entre homens e máquinas, mas entre mecanização e intuição.
Com os chips de processamento gráfico, fica mais fácil identificar um rosto desconhecido. Em segundos, um computador pode percorrer todo Facebook, todo o Tinder e outras redes sociais, e verificar se aquele rosto está em alguma delas. É possível também percorrer todos os dados armazenados por câmeras de segurança que estão nas ruas e compará-los com os arquivos das polícias do mundo inteiro. Essa é a computação sobre gigantescas quantidades de dados, o BIG DATA, atualmente um dos componentes principais da inteligência artificial.
O uso do BIG DATA combinado com algoritmos que aprendem teve como resultado o Google Neural Machine Translation (GNMT), um software público que, pela primeira vez, produziu traduções de boa qualidade. A tradução automática era, até recentemente, uma das áreas mais frustrantes para os pesquisadores da inteligência artificial. A estratégia adotada até recentemente, de descobrir regras gramaticais universais e associá-las a grandes dicionários digitais por meio das quais seria possível criar softwares para tradução não foi bem-sucedida e teve de ser abandonada.
As traduções do GNMT não são perfeitas, mas ele representa um grande passo em relação aos softwares anteriores. Da mesma forma que softwares para jogar xadrez ou para fazer diagnósticos médicos, o Google Translator também se beneficia de nossas interações com a internet.Ele cruza quantidades gigantescas de dados, na forma de texto, voz ou imagens que estão disponíveis em bancos de dados, conversas nas redes sociais e vídeos. Muitos dados que foram adicionados a esse projeto vieram, também, da colaboração espontânea de linguistas e usuários da internet de várias partes do mundo.
Usando BIG DATA, máquinas aprenderão, a partir de imensas bases de dados linguísticas e probabilidades estatísticas, a prever como os seres humanos respondem quando ouvem determinadas palavras, o que já é suficiente para essas máquinas poderem simular uma conversação. Se a simulação for aperfeiçoada, é muito provável que os seres humanos atribuam algum tipo de personalidade fictícia a essa máquina. Usando conversas e dados estocados na nuvem é possível construir uma personalidade digital, incluindo uma análise de humor e a simulação de sentimentos.
Teremos amigos digitais que poderão ser construídos de forma a reproduzir o ego de pessoas já falecidas. Poderemos continuar conversando com entes queridos que já se foram. Ou poderemos nos apaixonar por personalidades digitais como ocorre no filme Ella (2014), de Spike Jonze. O protagonista desse filme, um homem solitário e de meia idade, conversa com uma simulação de personalidade digital que interage tão bem que desenvolve uma paixão irresistível por sua amiga sem corpo. Mas seu coração é partido quando ele fica sabendo que sua amiga, usando as mesmas habilidades linguísticas, tem mais de mil amantes parecidos com ele.
O GPT-3 é o apogeu dessa tecnologia baseada na combinação de algoritmos de aprendizado com BIG DATA. Ele foi alimentado com todos os textos disponíveis nas bibliotecas. O GPT-3 é uma poderosa máquina estatística que combina e recombina palavras e sentenças. Será ele, realmente, uma terceira onda na inteligência artificial, a IA gerativa? Será que ele deixou para trás a segunda etapa da história da IA?
Por que, então, a pausa? Seria o temor de um descontrole da tecnologia? Faz tempo que perdemos o controle sobre a tecnologia. Os computadores não fazem mais apenas aquilo para o qual foram programados, como se acreditava antigamente. Atualmente, há computadores que escrevem seus próprios códigos, imitando a evolução biológica e selecionando as melhores linhas, criando mutações e eliminando as que não dão certo. Há algoritmos capazes de aprender, de computar gigantescas quantidades de dados tornando seus resultados imprevisíveis.
Seria, então, o receio de que o GPT-3 extinguisse profissões tradicionalmente consideradas criativas, como, por exemplo, a de escritor? De poeta? De cientista? Faz tempo que outras profissões estão sob ameaça, como as de contador, advogado, professor ou taxista. Ninguém no Vale do Silício está preocupado com isso. Ao contrário, lá todos se orgulham que seus inventos possam causar desestabilidade nas instituições humanas tradicionais como trabalho, educação, dinheiro e outras.
Ninguém está preocupado com a atrofia das capacidades cognitivas humanas que inventos como o GPT-3 podem causar nas próximas gerações. Os idiotas da internet são um ótimo mercado para os influencers e vendedores de cultura pop.
A manipulação pela internet aumenta diariamente. Inclui-se nesse grupo os fanáticos religiosos de todos os tipos. Nas últimas décadas, o fanatismo religioso passou a caminhar de mãos dadas com a tecnologia. A ciência se tornou incapaz de prover uma visão de mundo. Ela se tornou muito complexa e inacessível ao homem comum, que passou a preferir abraçar a visão de mundo simplificadora encontrada nas religiões. Redes sociais, religião e política criam uma combinação explosiva, mas os desenvolvedores do Vale do Silício não estão preocupados com isso. Seu objetivo é maximizar os lucros e pagar dividendos aos acionistas.
Por que, então esse pedido de pausa? E por que esse manifesto é encabeçado por Elon Musk, o homem mais rico do mundo?
Uma pausa para refletir sobre os destinos da IA e as questões éticas implicadas pelas novas tecnologias faz todo sentido. Mas não acredito que esses sejam os verdadeiros motivos para reivindicar essa pausa.
Penso que um novo inverno da IA se aproxima. Talvez o GPT-3 e, agora o GPT-4 (que não é público)possam ser o limite do que pode ser realizado usando a tecnologia de aprendizado combinada com o BIG DATA.
As redes sociais também poder estar começando a viver um inverno. Muitas pessoas fecharam suas contas no Facebook e as denúnciasde manipulação nas redes sociais, as fake news eas deep fakes extravasaram para a mídia. O metaverso de Zuckerman não decola. O uso comercial da internet, que não fora previsto pelo seu inventor, Tim Berners Lee, está cada dia mais ameaçado pelos hackers e pela sobrecarga da rede.
Além disso, há uma imensa resistência em regular minimamente a rede e a defesa de uma concepção de liberdade sem responsabilidade. Uma concepção que se assemelha a permitir que alguém possa bradar “Fogo!” num teatro lotado.
Ao comprar o Twitter, Elon Musk teria chegado no fim da festa e, logo em seguida, se arrependido. Provavelmente, ninguém obedecerá a essa pausa. Ela seria incentivada em alguns países e, em outros, não, que continuariam suas pesquisas na surdina. Mas com a pausa, as redes sociais e os novos passos da IA estarão fora da mira da mídia por um tempo. Alternativamente, em países que não respeitarem a pausa poderão acontecer passeatas e outras manifestações exigindo que ela seja respeitada. Algumas dessas passeatas poderão ser convocadas pelo próprio Twitter. O resultado será a acentuação de uma defasagem tecnológica entre os países. Nada poderia ser tão conveniente, especialmente para alguns países nos quais a IA é uma corrida armamentista.
A guerra nuclear se tornou impossível pois ela significa um suicídio planetário que inclui os próprios países agressores. Guerras como a da Ucrânia mostram que a forma tradicional de guerrear também chegou à exaustão. Ela é usada para escoar armamentos obsoletos.
A IA pode ser o novo caminho para as tecnologias bélicas. Drones e outros tipos de veículos autônomos já incluem inteligências artificiais que podem ser aperfeiçoadas. Seria a desativação definitiva dos exércitos humanos, das bases militares (já em extinção) e o fim da profissão de soldado. Uma profissão que custa muito caro para os Estados, desde o treinamento até a aposentadoria.
Tecnologias bélicas usando IA criam um ambiente instável. A percepção cotidiana pode ser sistematicamente desconfirmada e dar lugar a campos de batalha virtuais nos quais ninguém saberia se está lutando contra homens ou contra máquinas. A guerra como um jogo indolor para alguns e como terrorismo para outros é a proposta da IA. Talvez esse seja o grande negócio, o “negócio da China” que nos espera no futuro. O negócio que Musk percebeu ao encabeçar a petição por uma pausa no desenvolvimento da IA. Ainda não sabemos o tipo de arma que pode ser desenvolvido usando o GPT-3 ou o GPT-4, que permanece em sigilo.