Cómo construir tu wiki viviente con LLMs: la idea de Andrej Karpathy que cambia la gestión del conocimiento
La propuesta de Andrej Karpathy sugiere procesar documentos al ingresarlos para crear una wiki persistente y enlazada por IA. Esto evita la reinvención constante de respuestas y facilita la gestión del conocimiento personal y organizacional.
El problema: reiniciar el conocimiento cada vez (RAG)
Hoy es común usar herramientas que siguen el enfoque de Retrieval-Augmented Generation (RAG): suben documentos, hacen una consulta y el sistema recupera fragmentos relevantes para generar una respuesta. Plataformas como notebooks con carga de archivos o soluciones empresariales funcionan así. En la práctica esto parece eficiente, pero tiene un problema estructural: el modelo no acumula conocimiento.
Cada consulta parte de cero. Si una respuesta requiere sintetizar cinco documentos, RAG buscará y combinará esos cinco para esa ocasión. Mañana, ante la misma pregunta, repetirá el proceso completo. Además, RAG tiende a perder conexiones temporales entre fuentes (por ejemplo, unir un artículo de marzo con otro de octubre) y rara vez detecta contradicciones o construye una estructura persistente. El resultado: respuestas útiles hoy, pero sin memoria ni organización duradera.
La alternativa de Karpathy: procesar al ingresar y mantener una wiki viva
En abril de 2026, Andrej Karpathy —ex director de IA en Tesla y cofundador de OpenAI— propuso otra forma de trabajar: en vez de procesar documentos en el momento de la consulta, procesarlos al momento de la ingestión y convertirlos en páginas de una wiki que se actualiza continuamente.
La diferencia clave es que el LLM no solo indexa el documento para recuperarlo más tarde, sino que lo lee, lo entiende y lo integra a la base de conocimiento. Eso incluye: actualizar páginas relacionadas, detectar contradicciones, crear páginas para nuevos conceptos y reforzar las relaciones entre elementos del repositorio. Karpathy lo resumió así: “With LLMs, knowledge is created and maintained continuously and consistently rather than being able to use individual queries to create knowledge.”
A grandes rasgos, las ventajas son:
- El conocimiento se procesa una sola vez (en la ingestión).
- Las referencias cruzadas y contradicciones se manejan proactivamente.
- El resultado son archivos persistentes (Markdown) editables y controlables localmente.
Cómo funciona en la práctica: pasos para crear tu LLM Wiki
A continuación se describe el flujo práctico que proponen las guías inspiradas por la idea de Karpathy.
Paso 1: Reunir los recursos
Compile todo lo que haya guardado: artículos, notas, transcripciones de reuniones, marcadores, chats y documentos técnicos. No todo se trata igual: un paper de 50 páginas requiere extracción sección por sección; un hilo en redes sociales quizás solo una idea central y contexto; una transcripción de reunión debe sacar decisiones y tareas. Clasificar los tipos de documento antes de extraer ayuda a obtener el nivel correcto de detalle.
Paso 2: Clasificar antes de extraer (ingest)
Antes de pedir al LLM que resuma o transforme un documento, etiquete su tipo y objetivo. ¿Es referencia permanente, nota de reunión, opinión temporal o un borrador? Esa clasificación guía al LLM para generar una página con la estructura adecuada: frontmatter (YAML), TLDR, cuerpo y sección de contraargumentos o lagunas de información.
Paso 3: El LLM escribe páginas de la wiki (query en ingestión)
Al alimentar las fuentes al modelo mediante consultas estructuradas, el LLM genera una o varias páginas Markdown que respetan la plantilla acordada. Cada página incluye metadatos, un resumen breve, el contenido desarrollado y un apartado que registre contradicciones o preguntas sin resolver.
Paso 4: Crear un índice central
Un archivo index.md actúa como tabla de contenidos y directorio de la wiki. El agente o usuario inicia la navegación desde ahí: revisa los TLDRs y solo abre las páginas relevantes según la consulta. Esto hace eficiente la exploración y evita relecturas innecesarias.
Paso 5: Registrar las preguntas y respuestas valiosas
Cuando una consulta al LLM produce una explicación o comparación útil, guárdenla como una nueva página o nota. Registrar estas respuestas incrementa la base de conocimiento directamente, permitiendo reutilizar buenos razonamientos ya formulados.
Paso 6: Pasadas de lint y consistencia
Periódicamente haga pasadas de limpieza: un LLM (o una combinación de reglas) puede unificar estilo, resolver enlaces rotos, consolidar sinónimos de conceptos y marcar páginas que requieren verificación. Estas pasadas mantienen la wiki coherente a medida que crece.
Herramientas sugeridas y flujo de trabajo
Las guías asociadas al movimiento recomiendan un stack simple y controlable:
- Obsidian: funciona como IDE para la wiki, con navegación local y plugins útiles.
- Qmd (u otras herramientas de búsqueda a escala): facilitan indexado y consultas eficientes.
- Git: control de versiones para la base de conocimiento. Mantener los archivos Markdown en un repositorio permite auditar cambios y colaborar con equipos.
El flujo típico: clasificar → ingestar con LLM → generar/actualizar páginas Markdown → indexar → realizar lint y verificaciones.
Relevancia para organizaciones y profesionales en América Latina
En Latinoamérica muchas empresas y equipos manejan información dispersa: presentaciones, correos, notas en apps diversas y repositorios con acceso limitado. Una wiki viviente aporta beneficios concretos: mayor retención del conocimiento, riesgo reducido de pérdida de contexto cuando cambian equipos y la posibilidad de mantener el control y la privacidad de la información en servidores locales o repositorios propios.
Para tomadores de decisión, el valor está en transformar la acumulación pasiva de información en un activo reutilizable y gobernable. En sectores regulados o con requisitos de soberanía de datos, el enfoque de generar y almacenar Markdown en control propio es particularmente atractivo.
Desafíos prácticos y cómo abordarlos
- Calidad de ingestión: la precisión inicial depende del prompt y del modelo. Use plantillas y validaciones humanas para las páginas críticas.
- Contradicciones y sesgos: la wiki debe registrar discrepancias y fuentes, no ocultarlas. Esto ayuda a gobernanza y auditoría.
- Escalabilidad: a medida que la base crece, invierta en indexación eficiente y procesos de mantenimiento automático.
- Gobernanza y permisos: defina roles y revisiones, especialmente cuando la wiki se comparte dentro de equipos.
Conclusión
La propuesta de Karpathy no solo es una mejora técnica sobre RAG: es un cambio de paradigma en cómo tratamos la información. En vez de generar respuestas efímeras, los LLMs pueden usarse para construir una base de conocimiento viva, vinculada y mantenible. Para profesionales y empresas en Latinoamérica esto significa convertir archivos dispersos en un recurso estratégico, con control, trazabilidad y mayor capacidad para tomar decisiones informadas.
Comenzar es relativamente directo: clasificar sus archivos, definir plantillas, ingestar con un LLM y mantener un índice y procesos de limpieza. Con eso, lo que antes eran marcadores olvidados puede transformarse en conocimiento que crece y se vuelve cada vez más valioso.
Fuente original: Analytics Vidhya