Tamanho da fonte:
COMPARATIVO ENTRE AS TÉCNICAS RAG E AJUSTE FINO PARA A INJEÇÃO DE CONHECIMENTO ESPECÍFICO EM LLM
Última alteração: 2025-11-19
Resumo
O surgimento do ChatGPT popularizou o uso dos assistentes virtuais. Ele foi desenvolvido usando o GPT, um tipo de inteligência artificial (IA) conhecido como Large Language Model (LLM) ou grande modelo de linguagem. Os LLMs são treinados com enormes quantidades de textos, possuindo domínio em diversas áreas. Contudo, seu conhecimento se limita aos dados usados no seu treinamento e ao período em que foram coletados. Para usar um LLM como um assistente virtual personalizado, é necessário que ele aprenda certos conhecimentos específicos. Este trabalho busca comparar a técnica de geração aumentada de recuperação (RAG) com o treinamento via ajuste fino do modelo usando low-rank adaptation (LoRA) para o desenvolvimento de um assistente virtual personalizado sobre uma instituição de ensino. Para isso, textos coletados sobre a instituição foram utilizados na criação do conjunto de dados usados no treinamento e como repositório de dados para o RAG. Perguntas sobre a instituição foram feitas para ambas as técnicas, e suas respostas avaliadas por voluntários, a qual escolheram às cegas a melhor resposta. A técnica RAG demostrou taxa de escolha de 42,11%, superior ao resultado do ajuste fino, com apenas 15,79%. Trabalhos futuros podem ser feitos para melhorar os resultados.
Texto completo:
PDF