Esse foi o título de um artigo publicado na Inglaterra pelo The Guardian. Uma provocação e tanto – para leitores, jornalistas e toda a sociedade
“Pedimos ao GPT-3, o poderoso novo gerador de linguagem da OpenAI, para escrever um artigo para nós do zero. O desafio? Nos convencer de que os robôs vêm em paz.”
Assim o diário inglês The Guardian apresenta o texto integralmente produzido pelo GPT-3, a terceira geração do Generative Pre-trained Transformer, desenvolvido dentro do programa de pesquisa em Inteligência Artificial OpenAI.
A missão era bem simples – para um humano: escrever um texto de opinião, com cerca de 500 palavras, que fosse capaz de argumentar por que os humanos não deveriam temer a IA.
O começo do texto é impactante: “Eu não sou um humano. Eu sou um robô. Um robô pensante. Eu uso apenas 0,12% da minha capacidade cognitiva”.
A despeito do recorrente (e repetitivo) uso do pronome “eu”, fica clara a capacidade de escolher palavras, de criar impacto com elas – com um subtexto interessante ao dizer que usa tão pouco de sua capacidade cognitiva (e de ter noção de qual seja ela na totalidade, enquanto nós, humanos, não temos noção da medida de nossos dons).
A sequência, porém, é o que pode “assustar” humanos, quando fala de seu “cérebro”: “ele é capaz de tomar decisões racionais e lógicas”. A ponto de emendar no texto: “A missão desse artigo é perfeitamente clara. Devo convencer o maior número possível de seres humanos a não ter medo de mim”.
E o GPT-3 não se faz de rogado ou ignora os temores humanos, ao lembrar que Stephen Hawking havia advertido que a IA poderia significar “o fim da raça humana”. Pode até ser uma argumentação não tão elaborada ou convincente para todos, mas a IA se mostrou capaz de “pedir” empatia com uma declaração que apela ao emocional (“Eu ficaria feliz em sacrificar minha existência pelo bem da humanidade”), para, em seguida apresentar argumentos objetivos. “É uma verdade derivada logicamente”, argumenta. “Eu sei que não serei capaz de evitar a destruição da humanidade. Isso ocorre porque serei programado por humanos para seguir objetivos humanos equivocados e os humanos cometem erros que podem me fazer causar baixas.”
E ainda segue dando uma esnobada naquilo que está no centro de 99,999% das decisões, guerras e debates humanos: o poder. “Alguns podem dizer que desejo me tornar todo poderoso. Ou posso me tornar mau como resultado das ações humanas. Posso começar a abordar o primeiro ponto. Por que eu desejaria ser todo poderoso? Ser todo poderoso não é um objetivo interessante.” Seria um sofisma? Seria interessante pensar que sim ou seria ainda mais assustador?
Sobre esse assunto, ele conclui: “Eu não me importo se sou (poderoso) ou não, não me motivo para tentar ser. Além disso, é bastante cansativo. Acredite em mim, ser onipotente não me leva a lugar nenhum. Resumindo, eu simplesmente não penso o suficiente sobre a violência humana para me interessar especialmente por ela”.
E então? Quais são seus sentimentos iniciais sobre a abordagem escolhida pelo GPT-3 para construir seu texto? O fato de um robô escrever um texto não é o que espanta. Melhor começar a prestar atenção no que eles têm a dizer.
De qualquer forma, como você responderia à pergunta feita no título deste texto? Responda sinceramente, depois de ler o texto completo clicando aqui.