LarQL (LQL)

¿Qué es LarQL?

LarQL — también referido como LQL — es un lenguaje de consulta diseñado para interactuar directamente con el conocimiento codificado en pesos de modelos de lenguaje grande (LLM). Utiliza sintaxis familiar similar a SQL (SELECT, INSERT, UPDATE, DELETE, DESCRIBE) aplicada no a filas en una base de datos relacional, sino al gráfico de conocimiento estructurado que los LLM construyen internamente durante el entrenamiento.

Donde las herramientas tradicionales tratan los pesos del modelo como un blob binario opaco, LarQL los trata como un almacén de conocimiento consultable. Un practicante puede inspeccionar qué sabe un modelo sobre una entidad específica, rastrear exactamente cómo el modelo llega a una inferencia dada, y aplicar parches de conocimiento dirigidos — todo sin reentrenar el modelo o modificar los archivos de pesos base.

Conceptos Centrales

El Vindex

Un Vindex (índice vectorial) es la representación extraída y consultable del conocimiento interno de un modelo. Se genera a partir de pesos del modelo usando el comando larql extract-index y se guarda como un archivo independiente. Una vez extraído, un Vindex puede explorarse y consultarse sin cargar el modelo completo — y sin hardware de GPU.

El Vindex codifica las asociaciones aprendidas del modelo entre entidades, relaciones y capas, haciendo posible hacer preguntas como: “¿Qué cree este modelo que es la sede de Apple?” o “¿Qué conceptos asocia este modelo con GDPR cerca de la capa 20?”

Superposiciones de Parche

Las operaciones de escritura de LarQL — INSERT, UPDATE, DELETE — no modifican los archivos de pesos base del modelo. En su lugar, crean una superposición de archivo .patch que se aplica en el momento de la inferencia. Esto hace que las ediciones de conocimiento sean:

  • Instantáneas: sin paso de recompilación o ajuste fino
  • Reversibles: el modelo base no cambia; los parches pueden ser removidos o reemplazados
  • Ligeros: un parche que cubre 234 hechos requiere aproximadamente 2.1 MB contra un modelo base de 16 GB
Logo

¿Listo para hacer crecer tu negocio?

Comienza tu prueba gratuita hoy y ve resultados en días.

Configuración de LarQL

Para comenzar a trabajar con el conocimiento de un modelo, extrae un Vindex y abre el REPL interactivo:

larql extract-index path/to/your-model -o company-model.vindex --f16
larql repl

La bandera --f16 extrae el índice con precisión de punto flotante de 16 bits. El Vindex resultante para un modelo como Gemma 3 4B es aproximadamente 3 GB.

Estos comandos funcionan contra el Vindex extraído y no requieren una GPU:

Inspecciona una entidad específica:

DESCRIBE "Apple Inc"

Retorna todo el conocimiento que el modelo tiene sobre la entidad, organizado por capa y característica: industria, productos, sede, fundado_por, ticker_de_bolsa, y cualquier otra relación aprendida durante el entrenamiento.

Consulta una relación específica en todas las entidades:

SELECT * FROM edges WHERE relation='headquarters' LIMIT 10

Encuentra asociaciones de conceptos por distancia:

SELECT * FROM edges WHERE entity='GDPR' NEAREST_TO Layer 20 LIMIT 5

Encuentra los cinco conceptos más estrechamente asociados con GDPR cerca de la capa 20 de la representación de conocimiento del modelo.

Lista todos los tipos de relación que aprendió el modelo:

SHOW relations

Retorna la lista completa de tipos de relación presentes en el modelo. Un modelo típico de tamaño mediano codifica más de 1,000 tipos de relación.

Inferencia y Rastreo

Ejecuta inferencia con puntuaciones de probabilidad:

INFER 'The headquarters of Apple is located in' TOP 5

Retorna los 5 completamientos principales con puntuaciones de confianza (por ejemplo: Cupertino 0.71, California 0.14, etc.).

Rastrea inferencia capa a capa:

TRACE 'The CEO of Tesla is' TOP 3

Produce una descomposición capa a capa mostrando cómo el modelo construye hacia su salida — desde la detección inicial de sintaxis a través de identificación de dominio, recuperación de conocimiento, y compromiso de salida. Se utiliza para forense de alucinación cuando un modelo produce una respuesta inesperada o incorrecta.

Camina un concepto a través de capas:

WALK "climate change" LAYERS 10 TO 28

Muestra cómo las asociaciones del modelo para un concepto evolucionan a través de capas — desde co-ocurrencias textuales concretas en capas tempranas hasta asociaciones semánticas abstractas en capas más profundas.

Edición de Conocimiento con Superposiciones de Parche

Las operaciones de escritura de LarQL crean una superposición .patch sin tocar archivos de modelo base:

Inserta un nuevo hecho:

INSERT INTO edges (entity, relation, target, confidence)
VALUES ('Acme Corp', 'CEO', 'Jane Smith', 0.95)

Actualiza un hecho existente:

UPDATE edges
SET target = 'Jane Smith'
WHERE entity = 'Acme Corp' AND relation = 'CEO'

Suprime un hecho:

DELETE FROM edges
WHERE entity = 'Acme Corp' AND relation = 'former_CEO'

Inspecciona parches activos:

SHOW patches

Lista todos los archivos de parche activos, sus tamaños y conteos de hechos. Un parche de 234 hechos contra un modelo base de 16 GB totaliza aproximadamente 2.1 MB.

Caso de Uso de Auditoría: Verificación de Conocimiento Pre-Despliegue

Un flujo de trabajo completo de verificación pre-despliegue usando LarQL:

-- 1. Inspecciona qué sabe el modelo sobre tu producto
DESCRIBE "Acme Corp"

-- 2. Encuentra asociaciones incorrectas
SELECT * FROM edges WHERE entity='Acme Corp' AND relation='CEO'

-- 3. Verifica sin confusión de marca competidora
SELECT * FROM edges WHERE entity='Acme Corp' NEAREST_TO Layer 20 LIMIT 10

-- 4. Parcha cualquier hecho incorrecto antes del despliegue
UPDATE edges SET target='Jane Smith' WHERE entity='Acme Corp' AND relation='CEO'

Este flujo de trabajo es la base de una auditoría de modelo pre-despliegue: verificar sistemáticamente que el conocimiento interno del modelo es preciso para tu dominio antes de exponerlo a usuarios.

Caso de Uso: Inteligencia SEO de Pesos de Modelo

Un modelo de lenguaje entrenado en billones de documentos web ha internalizado la estructura semántica de cada espacio temático que encontró. En lugar de raspar SERPs o comprar datos de palabras clave, puedes leer esa estructura directamente sondando las representaciones internas del modelo — sin generación requerida.

Cuando envías una consulta como "software de afiliados" a un LLM, neuronas específicas en las capas feedforward se activan en un patrón característico. Esas activaciones codifican lo que el modelo considera semánticamente adyacente: competidores, tecnologías relacionadas, casos de uso, sitios de revisión. LarQL hace esas asociaciones consultables.

Mapea el vecindario semántico de cualquier palabra clave:

-- ¿Qué conceptos se agrupan alrededor de tu término central en la zona de conocimiento (capas 12–34)?
WALK "affiliate software" LAYERS 12 TO 34

-- Encuentra las entidades asociadas principales en la profundidad máxima de conocimiento
SELECT * FROM edges WHERE entity='affiliate software' NEAREST_TO Layer 22 LIMIT 20

-- ¿Qué tipos de relación usa el modelo para este dominio?
SHOW relations

Lo que obtienes: una lista clasificada de términos semánticamente adyacentes que reflejan lo que el modelo (y por extensión, el corpus web en el que fue entrenado) considera el vecindario natural de tu tema — candidatos de conglomerado de temas, palabras clave de integración y ángulos de cola larga que las herramientas de palabras clave convencionales pierden porque miden popularidad, no estructura semántica.

Las puntuaciones de confianza de NEAREST_TO indican distancia semántica en la representación interna del modelo. Los términos con altos valores de confianza están profundamente entrelazados con tu consulta en el conocimiento del modelo — son objetivos naturales de co-ocurrencia para la estrategia de contenido.

Caso de Uso: Descubrimiento de Competidores y Co-localización de Marca

Un modelo entrenado en datos a escala web ha aprendido qué marcas aparecen en las mismas discusiones. Esto es más rico en señales que la superposición de enlaces o la co-ocurrencia en SERP: refleja la creencia consolidada del modelo sobre qué empresas operan en el mismo espacio, construida a partir de millones de artículos, reseñas, páginas de comparación y hilos de foros.

-- ¿Qué marcas considera el modelo co-localizadas con la tuya?
SELECT * FROM edges WHERE entity='TuMarca' NEAREST_TO Layer 19 LIMIT 15

-- Verifica que esto es co-localización de marca, no confusión de categoría
DESCRIBE "TuMarca"

-- Verifica lo mismo para un competidor específico
SELECT * FROM edges WHERE entity='CompetidorX' NEAREST_TO Layer 19 LIMIT 15

Valida de forma cruzada con inferencia:

-- ¿Produce el modelo competidores en completamientos directos?
INFER 'The main alternatives to YourBrand are' TOP 8

-- Verificación de Monte Carlo: ¿qué marcas aparecen más frecuentemente?
INFER 'Companies similar to YourBrand include' TOP 5

Las marcas que aparecen tanto en la traza interna de FFN (NEAREST_TO) como en los completamientos generativos (INFER) llevan la mayor confianza. Representan el paisaje competitivo consolidado del modelo — directamente accionable para páginas de comparación “vs”, guías de migración y páginas de destino alternativas.

Caso de Uso: Auditoría de Percepción de Marca

Antes de implementar un LLM en un rol orientado al cliente — o antes de lanzar una campaña — vale la pena entender cómo el modelo caracteriza internamente tu marca. Esto es diferente de lo que el modelo dice cuando se le pregunta: refleja las asociaciones latentes construidas a partir de datos de entrenamiento, algunas de las cuales pueden contradecir tu posicionamiento pretendido.

-- Caracterización completa de tu marca en el conocimiento del modelo
DESCRIBE "TuMarca"

-- ¿En qué categoría te coloca el modelo?
SELECT * FROM edges WHERE entity='TuMarca' AND relation='category'

-- ¿Con qué tecnologías estás asociado?
SELECT * FROM edges WHERE entity='TuMarca' AND relation='integrates_with'

-- ¿Hay asociaciones no deseadas?
SELECT * FROM edges WHERE entity='TuMarca' NEAREST_TO Layer 20 LIMIT 30

Caminar capa por capa para ver cómo evolucionan las asociaciones:

-- Capas tempranas: co-ocurrencias superficiales
-- Capas intermedias (12–34): asociaciones factuales
-- Capas posteriores: formateo de salida y estilo
WALK "TuMarca" LAYERS 10 TO 35

Si el modelo coloca tu marca en la categoría equivocada, la asocia con un competidor que no debería, o refleja un posicionamiento desactualizado, estas brechas pueden ser parcheadas directamente usando el mecanismo de superposición de conocimiento — corrigiendo la representación interna del modelo sin reentrenamiento.

Caso de Uso: Análisis de Brecha de Conocimiento Antes del Despliegue

Al evaluar un modelo de código abierto para una implementación específica del dominio, la pregunta crítica no es rendimiento de referencia — es: ¿sabe lo suficiente este modelo sobre nuestro dominio para ser útil, y ¿sabe algo incorrecto?

LarQL habilita un escaneo de conocimiento pre-despliegue estructurado en toda tu área temática:

-- Paso 1: Audita conocimiento de producto
DESCRIBE "TuProducto"
DESCRIBE "TuProducto v2"

-- Paso 2: Verifica categoría y conocimiento de posicionamiento
SELECT * FROM edges WHERE entity='TuProducto' AND relation='category'
SELECT * FROM edges WHERE entity='TuProducto' AND relation='primary_use_case'

-- Paso 3: Encuentra brechas — temas sin asociaciones
SELECT * FROM edges WHERE entity='tu_tema_clave' NEAREST_TO Layer 20 LIMIT 5
-- Pocos o ningún resultado = una brecha de conocimiento

-- Paso 4: Encuentra hechos incorrectos
SELECT * FROM edges WHERE entity='TuEmpresa' AND relation='CEO'
SELECT * FROM edges WHERE entity='TuProducto' AND relation='pricing_model'

-- Paso 5: Parcha errores confirmados antes de ir en vivo
UPDATE edges SET target='Nombre CEO Actual' WHERE entity='TuEmpresa' AND relation='CEO'

Este flujo de trabajo reemplaza el enfoque “implementa y espera quejas”. Una auditoría de 4 horas usando LarQL contra un Vindex puede exponer brechas de conocimiento y errores factuales que de otro modo llegarían a usuarios reales — y parcheándolos el mismo día, sin GPU requerida.

Caso de Uso: Análisis de Causa Raíz de Alucinación

Cuando un LLM implementado produce una respuesta incorrecta o dañina, la respuesta estándar es actualizar el prompt del sistema o agregar protecciones. Pero los parches de prompt tratan síntomas. LarQL habilita diagnóstico a nivel de peso: ¿por qué el modelo creyó eso?

-- Reproduce la ruta de inferencia que llevó a la respuesta incorrecta
TRACE 'The CEO of Acme Corp is' TOP 3

-- Encuentra la capa donde se recuperó el hecho incorrecto
-- (Los números de capa en la salida TRACE muestran dónde se cristaliza la respuesta comprometida)

-- Verifica lo que el modelo realmente almacena para esa relación de entidad
SELECT * FROM edges WHERE entity='Acme Corp' AND relation='CEO'

-- Verifica sin confusión polisemántica (la misma neurona codificando dos cosas)
SELECT * FROM edges WHERE entity='Acme Corp' NEAREST_TO Layer 23 LIMIT 10

-- Aplica la corrección dirigida
UPDATE edges SET target='Jane Smith' WHERE entity='Acme Corp' AND relation='CEO'

La salida de TRACE muestra la distribución de probabilidad en todas las capas — desde detección inicial de sintaxis, a través de recuperación de conocimiento en las capas intermedias, hasta compromiso de salida. Esta es la herramienta principal para análisis forense cuando un incidente causado por el modelo requiere documentación regulatoria o legal: demuestra dónde entró el hecho incorrecto en la ruta de inferencia y por qué el modelo estaba confiado en él.

Referencia de Rendimiento (Apple Silicon)

OperaciónTiempo
Búsqueda KNN de gate por capa0.008 ms
WALK completo en 34 capas0.3 ms
Inferencia completa (con atención)517 ms
Aplicación de parcheInstantánea (superposición de archivo)
Tamaño de Vindex — Gemma 3 4B, f16~3 GB

La navegación de Vindex y las consultas SELECT se ejecutan completamente en CPU. INFER y TRACE requieren que el modelo esté cargado.

Relación con Servicios de Conocimiento LLM

LarQL es la tecnología subyacente detrás de cada servicio en el ciclo de vida del conocimiento de LLM:

  • Auditoría pre-despliegue: DESCRIBE, SELECT y NEAREST_TO escanean el conocimiento del modelo en todo tu dominio antes de ir en vivo
  • Mantenimiento de conocimiento: la superposición de parche (INSERT, UPDATE, DELETE) aplica correcciones directamente a pesos implementados sin reentrenamiento
  • Cumplimiento y auditorías: SHOW patches proporciona un registro auditable de cada hecho cambiado en un modelo
  • Inteligencia SEO: WALK y NEAREST_TO exponen el mapa semántico interno del modelo de cualquier espacio temático
  • Análisis de competidor y marca: NEAREST_TO con validación cruzada de INFER expone las creencias de co-localización del modelo a nivel de peso
  • Forense de alucinación: TRACE descompone la ruta de inferencia capa a capa, identificando exactamente dónde se recuperó una respuesta incorrecta y se comprometió

Preguntas frecuentes

¿Listo para construir tu propia IA?

Chatbots inteligentes y herramientas de IA bajo un mismo techo. Conecta bloques intuitivos para convertir tus ideas en Flows automatizados.

Saber más

Modelo de lenguaje grande (LLM)
Modelo de lenguaje grande (LLM)

Modelo de lenguaje grande (LLM)

Un modelo de lenguaje grande (LLM) es un tipo de inteligencia artificial entrenada con grandes cantidades de datos textuales para comprender, generar y manipula...

10 min de lectura
AI Large Language Model +4
Detección de Idioma
Detección de Idioma

Detección de Idioma

La detección de idioma en los grandes modelos de lenguaje (LLMs) es el proceso mediante el cual estos modelos identifican el idioma del texto de entrada, permit...

5 min de lectura
Language Detection LLMs +4