Regulamentação em Debate: Começar Certo para Terminar Bem
A Câmara dos Deputados do Brasil recentemente iniciou discussões sobre a regulamentação da Inteligência Artificial (IA). Este é um passo importante e necessário. No entanto, antes de qualquer lei ou regra, precisamos ter clareza sobre o que exatamente estamos tentando regulamentar. Como diz o ditado popular, “se começar errado, a chance de terminar errado é grande”. Ou seja, uma definição equivocada agora pode levar a políticas desastrosas no futuro. Eu, que acompanho de perto o debate sobre tecnologia, fico aliviado em ver nossas autoridades se movimentando – mas também preocupado com a forma como “Inteligência Artificial” vem sendo entendida (ou melhor, mal entendida).
Quero argumentar aqui por que chamar essa tecnologia de “inteligência artificial” é um erro desde a origem. Parece provocativo dizer que “IA não existe”, mas vou explicar: essas máquinas não são inteligentes de verdade, nem são tão “artificiais” assim. Antes de torcer o nariz, convido você a uma jornada por origens históricas, metáforas elucidativas e reflexões atuais que sustentam esse ponto de vista. Vamos começar pelo começo – literalmente.
A Origem do Termo “Inteligência Artificial”
O nome “Inteligência Artificial” soa moderno e até assustador, mas não é fruto da última moda do Vale do Silício. Na verdade, a expressão foi cunhada em 1956, durante um encontro de cientistas em Dartmouth College, nos EUA thedartmouth.com. Naquela conferência, liderada pelo matemático John McCarthy, a ideia era explorar se máquinas poderiam simular aspectos da inteligência humana home.dartmouth.edu. Repare: desde o princípio, falava-se em simular a inteligência, não em criá-la do zero. O termo pegou porque era ambicioso e talvez um pouco sensacionalistapara a época – afinal, imaginar máquinas “inteligentes” incendiou a imaginação de pesquisadores, governos e do público.
Mas esse batismo lá nos anos 50 também trouxe interpretações equivocadas. A palavra “inteligência” carrega um peso enorme: pensamos em consciência, esperteza, capacidade de aprender qualquer coisa, talvez até emoções. E “artificial” sugere algo não natural, talvez sintético ou falso. Juntas, as duas palavras pareciam anunciar uma criatura sintética capaz de pensar por conta própria, tal qual um robô de ficção científica. E de fato, a cultura popular só reforçou isso: desde Hal 9000 (o computador falante de 2001: Uma Odisseia no Espaço) até Exterminador do Futuro com a temível Skynet, fomos alimentados com a ideia de máquinas conscientes e rebeldes. Assim, não é de se espantar que muita gente ouça “IA” e já imagine um cérebro eletrônico tramando dominar o mundo.
Máquina de Padrões, Não Mente Pensante
A realidade dos sistemas que chamamos de IA é bem diferente dessa ficção toda. Em vez de um cérebro mágico dentro do computador, o que temos são algoritmos matemáticos que manipulam dados conforme padrões pré-definidos por humanos. Ou seja, trata-se de pura automatização de estatísticas. Como alguém já disse, é mais apropriado imaginar um papagaio high-tech do que um Pinóquio ganhando vida. Até linguistas e cientistas cognitivos usam essa metáfora: muitos desses sistemas são verdadeiros “papagaios estatísticos”, repetindo padrões de linguagem sem entender o significado.
Vamos a um exemplo simples: quando você digita uma mensagem no celular e o teclado sugere a próxima palavra, aquilo é inteligência? Não, é cálculo de probabilidade. O software “aprendeu” que depois de “bom” costuma vir “dia”, então sugere “dia”. Os chamados modelos de linguagem mais avançados, como o GPT (aquele usado no ChatGPT), fazem essencialmente isso em escala gigante: analisam bilhões de exemplos de textos humanos e aprendem a prever qual a próxima palavra ou frase adequada. O resultado pode ser impressionante – textos longos, coerentes, até com certo tom criativo –, mas é crucial entender que não há um pensamento ou compreensão genuína ali. A máquina não sabe o que está dizendo; apenas correlaciona símbolos.
Essa diferença entre manipular símbolos e entender de fato já foi ilustrada pelo filósofo John Searle, lá em 1980, no seu famoso experimento mental do “Quarto Chinês”. Ele pediu que imaginemos uma pessoa trancada em um quarto, seguindo um manual de regras para responder a frases em chinês. Para quem está fora, as respostas parecem provar que dentro do quarto há alguém que sabe chinês – mas, na verdade, a pessoa só seguiu um algoritmo, sem entender nada do conteúdo. Essa experiência hipotética anteviu exatamente o dilema da IA atual: do lado de fora da “caixa preta” do computador, vemos respostas convincentes; do lado de dentro, não há entendimento, só regras sendo aplicadas.
Nem Inteligente: o Que Falta às Máquinas
Dizer que não há inteligência real nessas máquinas não é menosprezá-las – é ser preciso. Inteligência, no sentido pleno, envolve coisas que nenhum sistema de IA hoje possui. Consciência, por exemplo. Nenhum algoritmo sente ou toma consciência de si mesmo. Intuição e bom senso também faltam: nós, humanos, fazemos conexões que não estão literalmente nos dados, temos criatividade genuína, entendemos contextos implícitos, duplas intenções, ironias. Já a IA… bem, ela só lida com o que foi exposta. Se surgir uma situação totalmente fora dos padrões do treino, a máquina simplesmente trava ou erra feio.
Grandes especialistas sustentam essa visão crítica. O neurocientista brasileiro Miguel Nicolelis é um dos mais vocais: para ele, essas máquinas não têm inteligência coisa nenhuma – e nem chegam a ser algo artificial de verdade. Nicolelis argumenta que “inteligência é uma característica orgânica, não algo que se codifica em linguagem binária”erivaldolopes.io. Nosso cérebro levou milhões de anos de evolução para atingir o que é hoje; achar que um punhado de chips de silício rodando números alcançou o mesmo patamar é fantasia, ou como ele mesmo já disse, puro marketing enganoso. Sem rodeios, Nicolelis e outros cientistas (como o linguista Noam Chomsky, que compartilha visão semelhante) nos lembram que essas IAs não pensam – apenas calculam.
E acredite, apenas calcular já é um feito e tanto – mas é diferente de pensar. Para dar uma noção técnica e concreta: o modelo de linguagem GPT-3, criado pela OpenAI, tem 175 bilhões de parâmetros internos e foi “treinado” com quase meio trilhão de palavras retiradas de livros, sites e redes sociais. É um volume de informação astronômico, muito além do que qualquer ser humano leria em várias vidas. Com essa avalanche de dados, ele “aprendeu” a responder perguntas, escrever artigos, programar código, etc. No entanto, quantidade não é qualidade. Mesmo com todo esse poder de fogo, se você perguntar algo ligeiramente fora do padrão, ele pode inventar respostas absurdas (o famoso problema das “alucinações” da IA) ou não entender uma piada que dependa de referência cultural específica. Ou seja, falta entendimento do mundo real e de como as coisas se conectam de forma lógica e saudável – coisas que crianças humanas aprendem desde cedo.
Outro dado impressionante: esses sistemas consomem enormes quantidades de energia e processamento para realizar tarefas específicas. O AlphaGo, programa que venceu o campeão mundial de Go (um jogo de tabuleiro complexo), precisou jogar milhões de partidas contra si mesmo para atingir um nível super-humano. Um ser humano jamais viveria para jogar tantas vezes, mas aprende muito mais com bem menos experiência porque nossa inteligência generaliza e entende conceitos além do caso específico. As máquinas não possuem essa versatilidade inata – cada nova tarefa é um novo treinamento do zero, ou quase. Nós ganhamos do computador na flexibilidade mental; eles nos ganham apenas na força bruta de cálculo.
Em suma, a “inteligência artificial” atual está mais para um turbo processador estatístico do que para um cérebro pensante. E isso precisa ficar claro quando falamos em regulamentá-la ou em avaliar seu impacto na sociedade.
Nem Artificial: Obra Humana, Reflexo Humano
Agora vamos ao segundo adjetivo enganoso: “artificial”. Por que eu e outros críticos afirmamos que não há nada de realmente artificial nessa tecnologia? Em parte porque ela é totalmente criada por humanos, e em parte porque ela depende profundamente do mundo natural e humano para funcionar. Parece contraditório – afinal, é óbvio que um computador é uma criação artificial, certo? Sim, o objeto físico é artificial. Mas a inteligência (ou melhor, a simulação de inteligência) que ele demonstra não brotou do nada, não foi descoberta em outro planeta nem surgiu espontaneamente nos laboratórios. Ela foi construída, peça por peça, por nós.
Os algoritmos são escritos por programadores; os modelos são treinados com dados que nós produzimos. Tudo que o ChatGPT “sabe” veio de textos escritos por pessoas de verdade. É por isso que Nicolelis e Chomsky dizem que a IA é um produto da criação humana, um espelho das nossas informações. Nesse sentido, não há nada de artificial – a máquina está remixando conhecimento e padrões genuinamente humanos. Até os erros e vieses que ela comete refletem isso: já vimos casos de sistemas de IA reproduzindo preconceitos de raça ou gênero existentes nos dados de treinamento. Ou seja, ela herda nosso legado, bom e mau.
Uma comparação histórica ajuda a ilustrar: no século XVIII, um inventor construiu um suposto autômato enxadrista chamado Turco Mecânico, que parecia jogar xadrez sozinho de forma formidável. Só depois descobriram que era uma fraude en.wikipedia.org – havia um humano oculto dentro da máquina, comandando as jogadas. Guardadas as devidas proporções, a IA moderna também carrega humanos ocultos dentro de si: não físicamente, claro, mas embutidos nos dados, nas regras e ajustes feitos. Ela não é uma entidade independente da humanidade, mas sim uma espécie de mosaico criado a partir de milhares de decisões, exemplos e conhecimentos humanos.
Além disso, dizer que é “artificial” pode dar a impressão de que é algo alheio à natureza, quase alienígena. Na verdade, os computadores operam dentro das leis da física e dos limites materiais do nosso mundo. Os chips são feitos de silício (um elemento natural), consomem eletricidade gerada muitas vezes de fontes também naturais (água, vento, combustíveis fósseis). Não há magia, não há vida sintética no sentido biológico. Se algum dia construirmos um robô consciente, aí talvez possamos discutir se ele tem uma “vida artificial”. Mas, por ora, o que temos são máquinas automatizadas seguindo instruções humanas até onde essas instruções conseguem chegar.
Reconhecer que a “nova inteligência” nada mais é que um artefato humano não diminui a importância de regulamentá-la – pelo contrário, reforça. Por ser criação nossa, somos responsáveis diretos por ela. Não dá para atribuir à IA uma culpa autônoma (“o algoritmo que foi malvado, não eu”), assim como não diríamos que a culpa de um desastre aéreo é do avião e não dos engenheiros ou pilotos. Enxergá-la como ferramenta criada por pessoas nos obriga a pensar em ética, controle de qualidade, responsabilidade legal. Chamar de “artificial” e tratar como algo à parte pode levar a lavar as mãos. E não queremos um cenário em que desenvolvedores e empresas digam “ah, a inteligência dela fez isso, não podemos fazer nada”. Podemos sim – porque fomos nós que a fizemos assim.
Lições da Pandemia para a “Nova Inteligência”
Por fim, deixo uma reflexão comparativa que tem martelado na minha cabeça. Lembra da pandemia de COVID-19? Claro que sim – todos nós vivemos aquela loucura planetária. Quando o vírus surgiu, a humanidade se viu perdida: sem entender direito o inimigo invisível, pipocaram teorias mirabolantes, medo e desinformação se espalharam quase tão rápido quanto o coronavírus. Mas pouco a pouco, com muita ciência, estudo e cooperação internacional, fomos desvendando o funcionamento do vírus, desenvolvendo vacinas e protocolos para finalmente retomar o controle da situação. Foi um aprendizado doloroso, mas valioso: para enfrentar uma crise, primeiro precisamos compreendê-la.
Vejo um paralelo na chegada dessa chamada “nova inteligência”. Assim como um vírus desconhecido, a IA moderna nos desafia porque é algo relativamente novo, cheio de mistérios e possibilidades, que se espalhou de repente por todas as áreas (do nosso celular até a indústria, passando pela educação e política). No começo, surgem muitos mitos – alguns acham que a IA vai resolver todos os problemas do mundo como num passe de mágica; outros acham que vai nos destruir e escravizar. Essas reações extremas lembram os surtos de pânico e as promessas milagrosas que vimos na pandemia (lembra dos curandeiros de internet e das soluções caseiras infalíveis contra o vírus?).
A lição que fica é: precisamos entender, estudar e encarar essa “nova inteligência” com a mesma seriedade científica com que enfrentamos a COVID-19. Não adianta demonizar a tecnologia como um monstro consciente (porque, como defendi, ela não é consciente), nem endeusá-la como salvadora infalível. Precisamos tratá-la pelo que é: uma poderosa ferramenta criada por nós, com potencial de fazer bem e mal, dependendo de como a usarmos e regulamentarmos. Assim como desenvolvemos vacinas e protocolos de segurança sanitária, teremos que desenvolver soluções tecnológicas e protocolos éticos para lidar com a IA. Envolve convocar especialistas, pesquisadores, formuladores de políticas e a sociedade para, juntos, definir padrões, limites e usos responsáveis. Envolve educação digital para todos, para que as pessoas saibam diferenciar fato de ficção quando o assunto é inteligência artificial.
Em primeira pessoa, confesso: tenho um otimismo cauteloso. Acredito na criatividade humana para tirar o melhor das novidades – afinal, foi nossa inteligência (natural!) que criou a “inteligência artificial”. Se começarmos definindo-a corretamente, desmistificando o que ela é e o que não é, teremos muito mais chance de acabar bem essa história. Tal qual na pandemia, informação correta e ação coordenada serão nossas melhores aliadas.
Outras reflexões sobre o tema podem ser lidas no blog no meu blog: www.christianjauch.com.br/blogpolitico.