Cómo alimentar una IA local con tus documentos usando un agente RAG (sin pagar un centavo en APIs)
Guía práctica para montar un agente de IA local que lea, indexe y responda preguntas sobre tus propios documentos — todo en tu máquina, sin enviar datos a la nube. Usamos Ollama como motor LLM, ChromaDB como base vectorial y LangChain como orquestador. Con código funcional, requisitos de hardware y errores comunes.