Inteligencia Artificial y DevOps
•
7 min lectura
Cómo alimentar una IA local con tus documentos usando un agente RAG (sin pagar un centavo en APIs)
Guía práctica para montar un agente de IA local que lea, indexe y responda preguntas sobre tus propios documentos — todo en tu máquina, sin enviar datos a la nube. Usamos Ollama como motor LLM, ChromaDB como base vectorial y LangChain como orquestador. Con código funcional, requisitos de hardware y errores comunes.
Leer más