O mito da inteligência artificial superinteligente

Share on facebook
Share on twitter
Share on linkedin
Share on whatsapp
Share on telegram
Share on pocket
O mito da inteligência artificial superinteligente é uma falácia. Os atuais sistemas de IA estão limitados ao que conhecemos atualmente sobre a natureza da inteligência e todas as evidências apontam que as inteligências humanas e das máquinas são radicalmente diferentes.

O mito da inteligência artificial é uma falácia. Criar uma superinteligência não é apenas questão de tempo. Não sabemos como fazer.

Quando, em 2021, li o livro de Erick Larson, “The Myth of Artificial Intelligence”, foi absolutamente marcante para mim. O mito que ele questiona não é a potencialidade das ferramentas que chamamos de IA. que tem inúmeras aplicabilidades, possibilitando, que se usada adequadamente, tornar as empresas mais eficientes e produtivas, bem como permitir a criação de novos processos e negócios.

O mito da inteligência artificial: a chegada de um software que alcance a inteligência humana, não apenas em “narrow tasks”, mas de forma abrangente, ou seja, uma superinteligência, que pelo hype atual parece ser inevitável e apenas questão de tempo, é uma falácia.O mito que ele aponta é que a chegada de um software que alcance a inteligência humana, não apenas em “narrow tasks”, mas de forma abrangente, ou seja, uma superinteligência, que pelo hype atual parece ser inevitável e apenas questão de tempo, é uma falácia.
Me alinho com seus pensamentos e sugiro enfaticamente a leitura do seu livro e o artigo, e coloco alguns pontos que valem uma reflexão. Leia o artigo aqui.

Não seguir a linha dos tecno-otimistas e ter uma visão de ceticismo científico (termo popularizado por Carl Sagan) não é ser obsoleto e ter uma visão limitada do futuro da tecnologia. Creio que seja saudável ter pontos de vista que não sigam cegamente o hype, mas apresentem contrapontos, que podem levar à discussão e aprimoramento das próprias tecnologias.

Os atuais sistemas de IA estão limitados ao que conhecemos atualmente sobre a natureza da inteligência e todas as evidências apontam que as inteligências humanas e das máquinas são radicalmente diferentes.

O mito está em afirmar que essas diferenças são apenas temporárias e que se colocarmos maior poder computacional elas desaparecerão. Evoluir versões “narrow AI” adicionando mais dados e poder computacional não avançarão no rumo de uma IA inteligente. Precisamos de outras técnicas, que ainda não sabemos quais. Não existem hoje, com nosso conhecimento de IA, algoritmos para “inteligência geral” e ainda não sabemos como criá-los.

Um questionamento que faço é que se focarmos toda atenção, energia e investimentos nas atuais técnicas chamadas de GenAI, em uma corrida direcionada para aspectos financeiros (valuation das empresas) estamos perdendo oportunidades de explorar novas e criativas inovações. Uma cultura de inovação não pode ser limitada à hypenização das atuais técnicas, que já se mostraram que não são o caminho para essa tal “inteligência geral”.

Ninguém pode afirmar que um dia essa AGI eventualmente não surgirá, mas precisamos aplicar o ceticismo científico para não cair na armadilha de sermos conduzidos pelo hype, sem questionamentos (efeito FOMO) e tomar decisões, sejam de negócios ou regulatórias erradas.

O artigo sumariza o livro apontando que para o tipo de inferência necessária para uma hipotética AGI (abdução), não temos, hoje, a mínima ideia de como construí-la. E LLM não é o caminho. São gigantescos e sofisticados sistemas de indução. [Webinsider]

. . .

Mais textos de Cezar Taurion

 

Estratégia? Vamos fazer algo com ChatGPT

Cezar Taurion é CSO da RedCore.ai

Share on facebook
Share on twitter
Share on linkedin
Share on whatsapp
Share on telegram
Share on pocket

Mais lidas

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *