A indústria de IA insiste em equiparar inteligência à capacidade de processar texto fluentemente.
Uma reflexão …quando o cChatGPT surgiu, senti que para muita gente foi como se tivessem se transportado da Idade Média direto para a Era Espacial. Descobriram a IA. E como esse sistema LLM interagia de forma fluente, na linguagem humana, passou a ser visto como “inteligente”. A máquina se tornou inteligente!
Nós veneramos a linguagem como o ápice da cognição, uma invenção única que nos distingue de outras formas de vida. No entanto, é uma visão reducionista que não apenas distorce a natureza da inteligência, como também aprisiona o desenvolvimento da IA em um beco sem saída. Afinal, a capacidade de articular pensamentos em frases não é a origem do raciocínio, mas sim uma de suas muitas expressões.
Antes de dominarem a linguagem, nossos ancestrais já resolviam problemas complexos. Coordenavam caçadas, construíam ferramentas e adaptavam-se a ambientes hostis e situações inesperadas. Essa inteligência prática, desprovida de sintaxe, não é exclusividade humana.
Colônias de formigas erguem verdadeiras catedrais subterrâneas sem arquitetos ou plantas baixas. Polvos escapam de laboratórios usando criatividade tática. Orcas elaboram estratégias de caça que desafiam a nossa lógica. Nenhum desses comportamentos exige narrativas simbólicas. São manifestações de inteligência, fundamentada em percepção ambiental, memória e cooperação.
A indústria de IA, entretanto, insiste em equiparar inteligência à capacidade de processar texto fluentemente. Modelos de linguagem como GPT-4 ou Gemini são treinados para prever a próxima palavra em sequência, replicando padrões estatísticos de bilhões de frases. Não entendem o diálogo.
São sistemas que imitam a eloquência humana, mas carecem de compreensão básica. Eles não sabem o que é chuva ou calor, não entendem o que é tristeza e não planejam um passo além do próximo token. São como papagaios digitais, ecoando combinações plausíveis de símbolos sem qualquer conexão com a realidade física ou social.
Um modelo pode gerar um ensaio sobre ética, mas não sabe o que é ética. Um veículo dito autônomo treinado nas estradas da Alemanha e EUA, não vai rodar nas esburacadas estradas do interior do Brasil. A lacuna está na ausência de modelos mentais do mundo, as representações internas que permitem que nós antecipemos consequências, simulemos cenários ou nos adaptemos a imprevistos.
Enquanto a IA moderna apenas emula a superfície da comunicação humana, animais e até insetos operam com uma inteligência, enraizada em interações concretas com seu entorno.
Na minha opinião devemos desvincular inteligência de linguagem. Animais e nossos ancestrais provam que a sobrevivência e a inovação florescem na ausência de gramática. Enquanto a IA permanecer refém da tirania das palavras, do próximo token, vai continuar produzindo ilusões convincentes, mas vazias. A inteligência é mais que linguagem. E continuo convencido que os LLM não são o caminho para uma AGI. [Webinsider]
. . .
Ferramentas LLM: produtividade sim, criatividade mais ou menos
O paradigma “quanto maior, melhor” na inteligência artificial