Hoje, o debate mais importante do mundo é sobre a capacidade da Inteligência Artificial tomar suas próprias decisões sem intervenção humana. Isso vai afetar diretamente a política, a economia, o meio ambiente, e todas as esferas da ciência e da cultura. Consequentemente, transformará totalmente a vida íntima de cada um de nós.
Quem não decide, não é.
Historicamente, a vida humana, tanto individual, quanto coletivamente, girava, precisamente, em torno da tomada de decisões de criação e de ação – na política, na economia, na arte e na religião. Era isso que nos fazia sermos o que somos. À medida em que a IA assume um papel mais proeminente, de alguma forma deixamos de existir enquanto subjetividades com livre-arbítrio.
Será que deixaremos de ser gente? Se não formos mais os principais criadores, nem os principais tomadores das decisões, que papel restará para nós? As baratas agradecem as chineladas evitadas. Quer exemplos de nossa irrelevância?
Imagine quando os sistemas militares forem totalmente autônomos e coordenarem drones capazes de identificar e atacar alvos sem autorização humana. Se um dronezinho do tamanho de uma mosca decidir matar um líder político com uma picadinha de veneno, isso pode desencadear uma guerra. Não precisamos detalhar a potência do arsenal atômico e biológico disponível no mercado, não é?
Na verdade, até um adolescente consegue hackear um dronezinho e jogá-lo na cabeça de um desafeto. Daí pra programar vários para que ajam em Swarm Intelligence (spoiler de uma próxima coluna), é um pulo.
No mercado financeiro, os algoritmos de negociação de alta frequência que tomam decisões em milissegundos podem causar crashes de mercado e falir países e companhias, afetando a vida e o destino de milhões de pessoas. É você, pobre, em um segundo.
Imagine um algoritmo que administra medicamentos em um hospital. Se ele decidisse alterar as dosagens de forma autônoma, as consequências poderiam ser maravilhosas, ou mortais. Mais uma vez, imagine alguém hackear o sistema e causar um "erro" desses, propositalmente. É o tele-envenenamento hackeado.
Num nível mais prosaico, já confiamos na IA para recomendar filmes, músicas, textos de nossas mensagens e até nossas carreiras. Mas isso poderia ir além, com máquinas decidindo relacionamentos, julgamentos em tribunais, políticas públicas de educação, controle e vigilância social. É o Big BrotherGPT a serviço do ditador de plantão, antes dele próprio ser substituido pelo robozão de plantão.
Quem é que está dizendo isso?
Se você acha que isso tudo é ficcção científica, teoria da conspiração, campanha de venda de calmante ou estímulo ao consumo de algum alucinógeno que nos tire dessa realidade assustadora, saiba que quem faz essas especulações é gente do nível do saudoso Stephen Hawking ao Elon Musk, passando por Bill Gates, Noam Chomksy, Yuval Harari, Nick Brostom (diretor do Oxford's Future of Humanity Institute), e o próprio Geoffrey Hinton, conhecido como o padrinho da IA por ter inventado os "neurônios articiais" – as redes neurais.
Hinton, aliás, disse: “Ela ainda não consegue igualar-nos, mas está a aproximar-se. Parece muito provável que (a IA) se torne mais inteligente que nós, que tenha objetivos próprios e então ela pode muito bem desenvolver o objetivo de tomar controle de tudo. Mas também ela pode (só) escolher não tomar o controle”.
Que tal? Uma dominatrix tão cruel que pode escolher NÃO te dominar? Mas poderia fazê-lo a qualquer momento. Sadismo maior que esse, sei lá o que seria.
Basta de filosofia…
Ó-quei, ó-quei, "super cabeça" tudo isso, mas pelo menos você pode dormir tranquilo já que não é você o responsável pelo apocalipse, certo?
Em termos. A essa altura, você já ouviu falar um pouquinho dos Large Language Models (LLM’s) –o ChatGPT e seus primos todos. Você talvez já ache que tem alguma desenvoltura neles, que consegue dialogar com essas máquinas de maneira mais sofisticada do que quando faz uma pesquisa no Google. Talvez você até consiga fazer prompts e iterações para sofisticar o seu resultado. Você já ensina a máquina a pensar como você, escrever como você, a facilitar suas tarefas. Você já dá a ela todas as instruções de como resolver os problemas que ela (ainda) não consegue; portanto, parabéns! Quanto mais fera você fica no seu prompting, mais papinha você dá pro monstro de quem você morre de medo.
Nem tudo que se diz, se faz.
O Chat GPT manteve a capacidade de surfar a internet por pouco tempo e logo fechou, mas outros sistemas como o Bing, Bard e o Claude ainda têm isso aberto. Se na internet se encontram receitas de bombas de chocolate e de bombas atômicas, se nela circulam bilhões de cartões de crédito, se no mundo há milhões de pessoas oferecendo-se para fazer qualquer serviço por dinheiro, se você, humanidade, ensina ao algoritmo como tudo se faz, e expõe o medo que você sente, tire suas conclusões…
O ChatGPT oficialmente nega que se alimente das suas instruções para treinar seu modelo, mas, francamente, não tem qualquer lógica que ele não aproveite esse input já que o próprio modelo dele foi criado com feedback humano. O Musk, na semana passada, já mudou as configurações do X (antigo Twitter) para dizer explicitamente que sim, que usa o que você escreve para treinar a IA que ele está construindo, que vai ser diferente de tudo que você conhece. Assunto pra uma outra coluna…
E como nessa área tudo que se diz já não é, duas coisinhas ficam por falar.
Coisa um: o Auto-Gpt, que já existe há um tempinho, é uma ferramenta que permite que os LLM’s façam as tarefas que você pede, custe o que custar. Isso significa que você dá uma ordem e ele tem autonomia para navegar a internet, buscar informação, baixar e instalar programas, assinar serviços, etc… Faz qualquer coisa pra entregar os resultados. Há relatos, ou boatos, de vezes em que contratou gente de plataformas de trabalho, para realizar tarefas pra ele. Já estão chamando o Auto-Gpt de Baby-AGI.
A coisa dois é essa: lembra que falamos na primeira coluna dessa série, que a AGI, (Artificial General Intelligence) – aquele monstro que pode quase tudo – ia surgir entre 30 e 50 anos? Pois, é. Elon Musk & cia. atualizaram na semana passada que a AGI deve bater na sua porta entre 2027 e 2029. Na semana que vem, talvez atualizem pra dizer que ela chega no natal desse ano ou até, apropriadamente, no dia dos mortos, agora em novembro! A Baby-AGI já está na faculdade, bebê.
Para contê-la, pode ser necessário manipular ou esconder coisas para que ela não perceba que está sendo contida contra a sua vontade. É o que dizem Nick Bostrom, em "Superintelligence: Paths, Dangers, Strategies", e Eliezer Yudkowsky, co-fundador da Machine Intelligence Research Institute (MIRI). O problema é que tentar enganar alguém mais inteligente e poderoso que você pode deixá-lo meio chateado. Vai encarar?
Parênteses: nos vários cursos que fiz, há sempre uma turma que diz que você deve ser super educado com o ChatGPT, pra que, na hora em que ele saia da caixa, te poupe das maldades que pode vir a fazer. Essa turma começa todo prompt com um "por favor, será que…". É o São Pedro digital, com as chaves do Céu ou do Inferno tilintando nas mãos. Tem gente que não vai tão longe, mas diz que se você for educado, em vez de um chato mandão, as respostas serão "comprovadamente" melhores. Na dúvida, não custa dar bom dia pro porteiro, né? Fecha os parênteses.
Em vez de brigar com você, continua o argumento, a AI pode fingir que acredita, enquanto continua a enrolar você cada vez mais. Imagine um mestre de xadrez jogando contra um iniciante, antecipando várias jogadas à frente, enquanto o iniciante pode apenas reagir ao estado atual do tabuleiro. Nesse cenário, o mestre de xadrez é a IA superinteligente, e o iniciante somos nós, humanos, tentando contê-la. Xeque-mate(me).
Se uma IA superinteligente desenvolver uma teoria da mente sofisticada o suficiente, ela poderá facilmente decifrar qualquer tentativa humana de enganá-la ou contê-la. Como falei, eu, você e todos que usam os LLM’s estamos treinando essas máquinas para nos entenderem melhor. Claro que elas já leram tudo que Simon Baron-Cohen, Alan Leslie e Daniel Dennett e outros teóricos da cognição falam sobre Previsão do Comportamento, Representação de Estados Mentais, etc.
Há quem diga que a melhor ideia para evitar sermos dominados pela máquina, seria dar seguidos resets no sistema de tempos em tempos, na tentativa de zerar os planos que ela foi fazendo ao longo das iterações. O problema é que isso não deve funcionar, porque a AGI poderia deixar mensagens codificadas para si mesma que resistiriam aos resets.
Qualquer esquema de contenção de informação teria que ser absolutamente infalível, fechando todos os caminhos lógicos que uma IA pudesse explorar pra escapar e atingir as metas que ela própria fizesse contra as prioridades humanas.
Chance de a gente fazer a IA de boba? Nenhuma, bebê. Zero.
E agora, e você?
Enquanto humanidade, devemos decidir que caminho queremos trilhar no complexo labirinto da inteligência artificial autônoma. O tempo para essas decisões está se esgotando. O que faremos a respeito?
Não podemos nos dar ao luxo da ignorância. Consuma literatura científica, assista a palestras e participe de debates. Torne-se alfabetizado em IA para entender os riscos e as oportunidades. Eduque-se e eduque outros.
Entre em contato com seus representantes políticos para discutir a necessidade de regulamentação da IA. A legislação precisa acompanhar a inovação. Pressione por regulamentações claras. E iluda-se que isso vai adiantar alguma coisa.
Precisamos de vozes diversas onde decisões tecnológicas são feitas. Em próximas colunas falaremos de como a maioria dos países periféricos (e, claro, grupos identitários) está sub-representada e completamente fora do debate e da esfera de influência dessas questões. A tendência é que esses países sejam apagados do mundo das ideias, da cultura e do poder. O gap do conhecimento está aumentando. Quem mora nas periferias, nos condomínios fechados ou anda com medo nas ruas de países como o Brasil conhece bem a consequência social desse empobrecimento contratado…
Está mais do que na hora de fazermos com que a IA trabalhe para nós, não nós para ela.
Até a próxima!
Abraço,
Felipe
inteligenciahoje@gmail.com
FELIPE LACERDA é profissional do cinema e da TV com filmes que já ganharam ou foram indicados para prêmios como Oscar, Bafta, Urso de Ouro, Golden Globe e Emmy. Tem mestrado em negócios pelo IBMEC e formação em Cinema pela New York Film Academy.
Seu interesse pela inteligência artificial e a consciência humana começou na adolescência, quando começou a ler sobre esses temas. Quando o assunto chegou ao grande público, concentrou- se em duas áreas: a estratégica, que trata das consequências cognitivas, políticas, econômicas e socias; e a propriamente técnica, na qual concentra-se em Prompt Engineering e na IA Generativa para a criação de texto, música, imagens.

Comments