Por que a gente ainda insiste em achar que a IA sabe de tudo?
Eu vejo muita gente tratando o ChatGPT ou qualquer outro modelo de linguagem como se fosse um Oráculo que guarda toda a sabedoria do universo em uma gaveta. Essa ideia é perigosa para quem quer construir software de verdade. Andrej Karpathy, um dos caras que mais entende do assunto, já falou sobre isso de um jeito que eu gosto muito. Ele compara o modelo de IA ao processador de um computador, enquanto o conhecimento real está nos arquivos que esse processador lê.
Quando você pergunta algo para uma IA, ela não está consultando uma enciclopédia interna estática. O que acontece é um processo de previsão. Se a informação não estava no conjunto de dados usado para treinar o modelo, ela simplesmente não existe para ele. É aí que entra o conceito de base de conhecimento ou o que o mercado chama de RAG. Eu explico isso para meus alunos comparando com uma prova de livro aberto. O modelo é o aluno inteligente, mas ele precisa do livro na mesa para responder sobre fatos específicos que não decorou.
Muita empresa perde tempo e dinheiro tentando treinar modelos do zero. Eles acham que colocar os dados da empresa dentro do treinamento vai resolver tudo. Na prática, isso é caro e pouco eficiente. Eu já vi projetos travarem porque a equipe queria que o modelo soubesse o estoque em tempo real apenas via treinamento. Isso não faz sentido. O modelo precisa de uma ponte para buscar essa informação fora dele.
A grande sacada é entender que a inteligência está no processamento e não necessariamente no armazenamento. Se eu quero criar um aplicativo que ajude um empreendedor a analisar suas vendas, eu não preciso de uma IA que decorou as vendas. Eu preciso de uma IA que saiba ler a tabela de vendas que eu entrego para ela no momento da conversa.
A gente vive uma fase de euforia onde parece que a tecnologia resolve tudo sozinha. Eu sou um entusiasta, mas mantenho os pés no chão. Os limites são claros. Um modelo de linguagem pode alucinar se você não der a ele uma base sólida de consulta. Ele é ótimo em seguir instruções, mas péssimo em ser um banco de dados confiável por si só.
Será que estamos exigindo que a IA tenha uma memória que ela nunca se propôs a ter? Talvez o segredo de um bom sistema não esteja no tamanho do modelo, mas na qualidade da fonte de dados que a gente conecta a ele.