Devemos desvincular inteligência de linguagem

Share on facebook
Share on twitter
Share on linkedin
Share on whatsapp
Share on telegram
Share on pocket
Orcas elaboram estratégias de caça que desafiam a nossa lógica. São manifestações de inteligência, fundamentada em percepção ambiental, memória e cooperação.

A indústria de IA insiste em equiparar inteligência à capacidade de processar texto fluentemente.

 

Uma reflexão …quando o cChatGPT surgiu, senti que para muita gente foi como se tivessem se transportado da Idade Média direto para a Era Espacial. Descobriram a IA. E como esse sistema LLM interagia de forma fluente, na linguagem humana, passou a ser visto como “inteligente”. A máquina se tornou inteligente!

Nós veneramos a linguagem como o ápice da cognição, uma invenção única que nos distingue de outras formas de vida. No entanto, é uma visão reducionista que não apenas distorce a natureza da inteligência, como também aprisiona o desenvolvimento da IA em um beco sem saída. Afinal, a capacidade de articular pensamentos em frases não é a origem do raciocínio, mas sim uma de suas muitas expressões.

Antes de dominarem a linguagem, nossos ancestrais já resolviam problemas complexos. Coordenavam caçadas, construíam ferramentas e adaptavam-se a ambientes hostis e situações inesperadas. Essa inteligência prática, desprovida de sintaxe, não é exclusividade humana.

Colônias de formigas erguem verdadeiras catedrais subterrâneas sem arquitetos ou plantas baixas. Polvos escapam de laboratórios usando criatividade tática. Orcas elaboram estratégias de caça que desafiam a nossa lógica. Nenhum desses comportamentos exige narrativas simbólicas. São manifestações de inteligência, fundamentada em percepção ambiental, memória e cooperação.

A indústria de IA, entretanto, insiste em equiparar inteligência à capacidade de processar texto fluentemente. Modelos de linguagem como GPT-4 ou Gemini são treinados para prever a próxima palavra em sequência, replicando padrões estatísticos de bilhões de frases. Não entendem o diálogo.

São sistemas que imitam a eloquência humana, mas carecem de compreensão básica. Eles não sabem o que é chuva ou calor, não entendem o que é tristeza e não planejam um passo além do próximo token. São como papagaios digitais, ecoando combinações plausíveis de símbolos sem qualquer conexão com a realidade física ou social.

Um modelo pode gerar um ensaio sobre ética, mas não sabe o que é ética. Um veículo dito autônomo treinado nas estradas da Alemanha e EUA, não vai rodar nas esburacadas estradas do interior do Brasil. A lacuna está na ausência de modelos mentais do mundo, as representações internas que permitem que nós antecipemos consequências, simulemos cenários ou nos adaptemos a imprevistos.

Enquanto a IA moderna apenas emula a superfície da comunicação humana, animais e até insetos operam com uma inteligência, enraizada em interações concretas com seu entorno.

Na minha opinião devemos desvincular inteligência de linguagem. Animais e nossos ancestrais provam que a sobrevivência e a inovação florescem na ausência de gramática. Enquanto a IA permanecer refém da tirania das palavras, do próximo token, vai continuar produzindo ilusões convincentes, mas vazias. A inteligência é mais que linguagem. E continuo convencido que os LLM não são o caminho para uma AGI.  [Webinsider]

. . .

Ferramentas LLM: produtividade sim, criatividade mais ou menos

 

O paradigma “quanto maior, melhor” na inteligência artificial

As diferenças entre humanos e máquinas

Avatar de Cezar Taurion

Cezar Taurion é CSO da RedCore.ai

Share on facebook
Share on twitter
Share on linkedin
Share on whatsapp
Share on telegram
Share on pocket

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *