Memoria persistente para LLM: cómo Graphify convierte carpetas en grafos de conocimiento
Graphify materializa la idea de una 'LLM Wiki' al convertir carpetas de código, investigación o notas en un grafo de conocimiento persistente. Esto reduce drásticamente el uso de tokens y permite consultas estructuradas sin volver a leer archivos crudos.
El problema: la IA que no recuerda
La mayoría de flujos de trabajo con modelos de lenguaje siguen un ciclo repetitivo: suben archivos, hacen una pregunta, obtienen una respuesta y luego todo se olvida. Para bases de código grandes, colecciones de investigación o repositorios de notas, esto resulta ineficiente: cada vez que vuelven al mismo material, el modelo lo relee desde cero en lugar de apoyarse en contexto y conclusiones previas.
Andrej Karpathy planteó esa brecha con la idea de una “LLM Wiki”: una capa de conocimiento persistente que evoluciona con el uso. Graphify aparece como una implementación práctica de ese concepto: una herramienta que transforma cualquier directorio en un grafo navegable y consultable que actúa como memoria de largo plazo para asistentes de IA.
¿Qué es Graphify?
Graphify es un asistente orientado a desarrolladores e investigadores que convierte carpetas (codebases, directorios de papers, notas, dumps de markdown) en un grafo de conocimiento buscable. No es solo un chatbot; funciona como una entidad independiente que se integra en entornos de asistencia de código como Claude Code, Cursor, Codex o Gemini CLI.
La instalación es simple: según la documentación original, basta con ejecutar pip install graphify && graphify install y luego lanzar el asistente con el comando /graphify. A partir de ahí, se apunta la herramienta a la carpeta deseada y se deja que procese los archivos para producir la estructura de conocimiento persistente.
Qué se construye y por qué importa
Al finalizar, Graphify genera una salida en la carpeta graphify-out/ con cuatro artefactos principales:
graph.html: una representación interactiva y clickeable del grafo, que permite filtrar búsquedas y explorar comunidades dentro del contenido.GRAPH_REPORT.md: un resumen en lenguaje claro que destaca nodos importantes, enlaces inesperados y preguntas que surgen del análisis.graph.json: la representación persistente del grafo, que se puede consultar semanas después sin necesidad de releer las fuentes originales.cache/: un caché basado en SHA256 que evita reprocesar archivos que no cambiaron.
Al transformar archivos crudos en datos estructurados, Graphify actúa como una capa de memoria. La eficiencia en tokens es notable: en un corpus mixto (repositorios, papers e imágenes) reporta una reducción de 71.5x en tokens por consulta frente a leer archivos sin procesar.
Para equipos y organizaciones en América Latina esto puede traducirse en ahorro de costos en APIs, respuestas más rápidas y mejores prácticas de gobernanza de datos cuando se trabaja con código o documentación local.
Cómo funciona bajo el capó
Graphify combina dos fases principales de ejecución, cada una con roles diferenciados:
-
Extracción de estructura de código (fase local, sin LLM):
- Utiliza tree-sitter para analizar archivos de código y extraer componentes estructurales: clases, funciones, imports, grafos de llamadas, docstrings y comentarios de razonamiento.
- Este proceso no emplea LLMs y permanece en la máquina del usuario, por lo que los contenidos no se transmiten externamente.
-
Extracción semántica con subagentes (fase asistida por modelos):
- Subagentes Claude procesan documentos (PDF, markdown, imágenes) en paralelo para extraer conceptos, relaciones y la lógica detrás del diseño.
- El resultado se unifica en un grafo construido con NetworkX.
- Para el agrupamiento se aplica Leiden community detection, un método topológico de grafos que no depende de embeddings o de una base de datos vectorial.
- Una segunda pasada de extracción (Claude Pass 2) genera bordes de similitud semántica ya incorporados en el grafo, influyendo en el clustering.
El grafo actúa como la señal principal de similitud entre ítems, y la herramienta añade un sistema de etiquetado de confianza por relación:
- EXTRACTED: encontrado directamente en la fuente, confianza 1.
- INFERRED: inferencia razonable con un nivel de confianza numérico.
- AMBIGUOUS: requiere revisión humana.
Este etiquetado aporta transparencia: permite diferenciar entre lo que está explicitado en los archivos y lo que el sistema ha inferido, algo valioso para arquitecturas de conocimiento y auditoría interna.
Qué se puede consultar y cómo
Una vez construido el grafo, las consultas dejan de ser búsquedas lineales y se convierten en exploraciones de subgrafos. Graphify ofrece comandos tanto en terminal como desde el asistente de IA. Algunos ejemplos de uso incluyen:
graphify query "what connects attention to the optimizer?"graphify query "show the auth flow" --dfsgraphify path "DigestAuth" "Response"graphify explain "SwinTransformer"
La herramienta recorre las conexiones del grafo mostrando tipos de vínculos, niveles de confianza y puntos de origen. El flag --budget permite limitar la salida a un número de tokens, útil cuando se quiere enviar un subgrafo compacto como contexto en la siguiente petición al modelo.
Flujo de trabajo recomendado:
- Revisar
GRAPH_REPORT.mdpara entender los temas principales. - Usar
graphify querypara extraer un subgrafo focalizado en la pregunta. - Enviar la salida compacta al asistente de IA en lugar del conjunto completo de archivos.
Este enfoque obliga a navegar y razonar sobre las conexiones en el grafo en lugar de intentar comprimir todo el repositorio en un solo prompt.
Modo “always-on” y privacidad
El artículo original menciona la posibilidad de realizar modificaciones a nivel de sistema para dejar un modo “always-on” que haga al asistente más inteligente por defecto. Aunque los detalles completos quedaron truncos en la fuente, la idea general es que, tras crear un grafo, es posible integrar esa capa de memoria para que el asistente la consulte automáticamente en tareas futuras.
Un punto crítico para equipos en la región es la privacidad: Graphify mantiene los contenidos en la máquina del usuario y no transmite los archivos, lo que facilita cumplir con políticas internas o regulaciones locales sobre datos y propiedad intelectual.
Soporte de archivos y otras capacidades
Graphify procesa código, markdown, PDFs e imágenes, y combina análisis estructural (tree-sitter) con extracción semántica. No requiere una base de datos vectorial externa para su clustering, y el uso de un caché por SHA256 reduce el reprocesamiento.
Además del navegador graph.html y el graph.json persistente, la separación entre datos extraídos y datos inferidos proporciona trazabilidad para revisiones y auditorías.
Conclusión
Graphify es una implementación práctica de la idea de una “LLM Wiki”: convierte carpetas en una capa de memoria persistente y navegable que reduce costos de tokens, acelera búsquedas y mejora la trazabilidad de las inferencias. Para equipos latinoamericanos que manejan bases de código, documentación técnica o colecciones de investigación, ofrece beneficios claros en eficiencia y privacidad, siempre que se evalúe su integración con los flujos y políticas locales.
Preguntas frecuentes (resumen)
- ¿Mis archivos salen de mi máquina? No: la extracción de código es local y la herramienta declara que no transmite los contenidos de archivos.
- ¿Qué formatos admite? Código, markdown, PDFs e imágenes, según la documentación original.
- ¿Necesita una base de datos vectorial? No: el clustering usa Leiden sobre la topología del grafo y emplea aristas semánticas añadidas en una segunda pasada.
- ¿Realmente ahorra tokens? En el ejemplo citado, Graphify reportó 71.5x menos tokens por consulta en un corpus mixto en comparación con leer archivos crudos.
Si su organización prevé trabajar de forma intensiva con bases de código o documentación extensa, Graphify merece una prueba controlada para evaluar beneficios concretos en tiempo de búsqueda, costos y cumplimiento de políticas internas.
Fuente original: Analytics Vidhya