LarQL (LQL)

O que é LarQL?

LarQL — também referido como LQL — é uma linguagem de consulta projetada para interagir diretamente com o conhecimento codificado nos pesos de modelos de linguagem grande (LLM). Usa sintaxe SQL familiar (SELECT, INSERT, UPDATE, DELETE, DESCRIBE) aplicada não a linhas em um banco de dados relacional, mas ao grafo de conhecimento estruturado que os LLMs constroem internamente durante o treinamento.

Enquanto ferramentas tradicionais tratam pesos do modelo como um blob binário opaco, LarQL os trata como um armazenamento de conhecimento consultável. Um praticante pode inspecionar o que um modelo sabe sobre uma entidade específica, rastrear exatamente como o modelo chega a uma inferência dada e aplicar patches de conhecimento direcionados — tudo sem retreinar o modelo ou modificar arquivos de pesos base.

Conceitos Centrais

O Vindex

Um Vindex (índice vetorial) é a representação extraída e consultável do conhecimento interno de um modelo. É gerado a partir de pesos do modelo usando o comando larql extract-index e salvo como arquivo independente. Uma vez extraído, um Vindex pode ser navegado e consultado sem carregar o modelo completo — e sem hardware de GPU.

O Vindex codifica as associações aprendidas pelo modelo entre entidades, relações e camadas, tornando possível fazer perguntas como: “O que este modelo acredita ser a sede da Apple?” ou “Quais conceitos este modelo associa a GDPR perto da camada 20?”

Sobreposições de Patch

As operações de escrita de LarQL — INSERT, UPDATE, DELETE — não modificam arquivos de pesos base do modelo. Em vez disso, criam uma sobreposição de arquivo .patch que é aplicada no momento da inferência. Isso torna edições de conhecimento:

  • Instantâneas: sem etapa de recompilação ou ajuste fino
  • Reversíveis: o modelo base é inalterado; patches podem ser removidos ou substituídos
  • Leves: um patch cobrindo 234 fatos requer aproximadamente 2,1 MB contra um modelo base de 16 GB
Logo

Pronto para expandir seu negócio?

Comece seu teste gratuito hoje e veja resultados em dias.

Configurando LarQL

Para começar a trabalhar com o conhecimento de um modelo, extraia um Vindex e abra o REPL interativo:

larql extract-index path/to/your-model -o company-model.vindex --f16
larql repl

A flag --f16 extrai o índice em precisão de ponto flutuante de 16 bits. O Vindex resultante para um modelo como Gemma 3 4B é aproximadamente 3 GB.

Esses comandos funcionam contra o Vindex extraído e não requerem GPU:

Inspecione uma entidade específica:

DESCRIBE "Apple Inc"

Retorna todo o conhecimento que o modelo possui sobre a entidade, organizado por camada e recurso: indústria, produtos, sede, fundado_por, ticker_de_bolsa e qualquer outra relação aprendida durante o treinamento.

Consulte uma relação específica em todas as entidades:

SELECT * FROM edges WHERE relation='headquarters' LIMIT 10

Encontre associações de conceitos por distância:

SELECT * FROM edges WHERE entity='GDPR' NEAREST_TO Layer 20 LIMIT 5

Encontra os cinco conceitos mais estreitamente associados a GDPR perto da camada 20 da representação de conhecimento do modelo.

Liste todos os tipos de relação que o modelo aprendeu:

SHOW relations

Retorna a lista completa de tipos de relação presentes no modelo. Um modelo típico de tamanho médio codifica mais de 1.000 tipos de relação.

Inferência e Rastreamento

Execute inferência com escores de probabilidade:

INFER 'The headquarters of Apple is located in' TOP 5

Retorna os 5 complementos principais com escores de confiança (por exemplo: Cupertino 0,71, Califórnia 0,14, etc.).

Rastreie inferência camada por camada:

TRACE 'The CEO of Tesla is' TOP 3

Produz uma decomposição camada por camada mostrando como o modelo constrói sua saída — desde a detecção inicial de sintaxe através da identificação de domínio, recuperação de conhecimento e comprometimento de saída. Usado para análise forense de alucinações quando um modelo produz uma resposta inesperada ou incorreta.

Caminhe um conceito entre camadas:

WALK "climate change" LAYERS 10 TO 28

Mostra como as associações do modelo para um conceito evoluem entre as camadas — de coocorrências textuais concretas em camadas iniciais para associações semânticas abstratas em camadas mais profundas.

Edição de Conhecimento com Sobreposições de Patch

As operações de escrita de LarQL criam uma sobreposição .patch sem tocar em arquivos de modelo base:

Insira um novo fato:

INSERT INTO edges (entity, relation, target, confidence)
VALUES ('Acme Corp', 'CEO', 'Jane Smith', 0.95)

Atualize um fato existente:

UPDATE edges
SET target = 'Jane Smith'
WHERE entity = 'Acme Corp' AND relation = 'CEO'

Suprima um fato:

DELETE FROM edges
WHERE entity = 'Acme Corp' AND relation = 'former_CEO'

Inspecione patches ativos:

SHOW patches

Lista todos os arquivos de patch ativos, seus tamanhos e contagens de fatos. Um patch de 234 fatos contra um modelo base de 16 GB totaliza aproximadamente 2,1 MB.

Caso de Uso de Auditoria: Verificação de Conhecimento Pré-Implantação

Um fluxo de trabalho completo de verificação pré-implantação usando LarQL:

-- 1. Inspecione o que o modelo sabe sobre seu produto
DESCRIBE "Acme Corp"

-- 2. Encontre associações incorretas
SELECT * FROM edges WHERE entity='Acme Corp' AND relation='CEO'

-- 3. Verifique sem confusão de marca concorrente
SELECT * FROM edges WHERE entity='Acme Corp' NEAREST_TO Layer 20 LIMIT 10

-- 4. Corrija quaisquer fatos errados antes da implantação
UPDATE edges SET target='Jane Smith' WHERE entity='Acme Corp' AND relation='CEO'

Este fluxo de trabalho é a base de uma auditoria de modelo pré-implantação: verificar sistematicamente que o conhecimento interno do modelo é preciso para seu domínio antes de expô-lo aos usuários.

Caso de Uso: Inteligência de SEO a partir de Pesos de Modelo

Um modelo de linguagem treinado em trilhões de documentos web internalizou a estrutura semântica de todo espaço de tópico que encontrou. Em vez de raspar SERPs ou comprar dados de palavras-chave, você pode ler essa estrutura diretamente sondando as representações internas do modelo — sem geração necessária.

Quando você submete uma consulta como "software de afiliados" a um LLM, neurônios específicos nas camadas feedforward disparam em um padrão característico. Essas ativações codificam o que o modelo considera semanticamente adjacente: concorrentes, tecnologias relacionadas, casos de uso, sites de revisão. LarQL torna essas associações consultáveis.

Mapeie a vizinhança semântica de qualquer palavra-chave:

-- Quais conceitos se agrupam ao seu termo principal na zona de conhecimento (camadas 12–34)?
WALK "software de afiliados" LAYERS 12 TO 34

-- Encontre as entidades mais associadas na profundidade máxima de conhecimento
SELECT * FROM edges WHERE entity='software de afiliados' NEAREST_TO Layer 22 LIMIT 20

-- Que tipos de relação o modelo usa para este domínio?
SHOW relations

O que você obtém: uma lista classificada de termos semanticamente adjacentes refletindo o que o modelo (e por extensão, o corpus web em que foi treinado) considera a vizinhança natural de seu tópico — candidatos de cluster de tópicos, palavras-chave de integração, e ângulos de cauda longa que ferramentas convencionais de palavras-chave perdem porque medem popularidade, não estrutura semântica.

Os escores de confiança de NEAREST_TO indicam distância semântica na representação interna do modelo. Termos com escores de confiança altos estão profundamente entrelaçados com sua consulta no conhecimento do modelo — eles são alvo natural de co-ocorrência para estratégia de conteúdo.

Caso de Uso: Descoberta de Concorrentes e Co-localização de Marca

Um modelo treinado em dados em escala web aprendeu quais marcas aparecem nas mesmas discussões. Isso é mais rico em sinais do que sobreposição de backlink ou co-ocorrência de SERP: reflete a crença consolidada do modelo sobre quais empresas operam no mesmo espaço, construída a partir de milhões de artigos, resenhas, páginas de comparação, e threads de fórum.

-- Quais marcas o modelo considera co-localizadas com a sua?
SELECT * FROM edges WHERE entity='SuaMarca' NEAREST_TO Layer 19 LIMIT 15

-- Verifique se isso é co-localização de marca, não confusão de categoria
DESCRIBE "SuaMarca"

-- Verifique o mesmo para um concorrente específico
SELECT * FROM edges WHERE entity='ConcorrenteX' NEAREST_TO Layer 19 LIMIT 15

Valide cruzadamente com inferência:

-- O modelo produz concorrentes em conclusões diretas?
INFER 'As principais alternativas a SuaMarca são' TOP 8

-- Verificação Monte Carlo: quais marcas aparecem com mais frequência?
INFER 'Empresas similares a SuaMarca incluem' TOP 5

As marcas que aparecem tanto no rastreamento FFN interno (NEAREST_TO) quanto em conclusões generativas (INFER) têm a confiança mais alta. Elas representam a paisagem competitiva consolidada do modelo — diretamente acionável para páginas de comparação “vs”, guias de migração, e páginas de destino alternativas.

Caso de Uso: Auditoria de Percepção de Marca

Antes de implantar um LLM em um papel voltado para o cliente — ou antes de lançar uma campanha — vale a pena entender como o modelo caracteriza sua marca internamente. Isso é diferente do que o modelo diz quando perguntado: reflete as associações latentes construídas a partir de dados de treinamento, algumas das quais podem contradizer seu posicionamento pretendido.

-- Caracterização completa de sua marca no conhecimento do modelo
DESCRIBE "SuaMarca"

-- Em qual categoria o modelo coloca você?
SELECT * FROM edges WHERE entity='SuaMarca' AND relation='category'

-- Com quais tecnologias você está associado?
SELECT * FROM edges WHERE entity='SuaMarca' AND relation='integrates_with'

-- Existem associações indesejadas?
SELECT * FROM edges WHERE entity='SuaMarca' NEAREST_TO Layer 20 LIMIT 30

Caminhe camada por camada para ver como as associações evoluem:

-- Camadas iniciais: co-ocorrências de superfície
-- Camadas do meio (12–34): associações factuais
-- Camadas posteriores: formatação de saída e estilo
WALK "SuaMarca" LAYERS 10 TO 35

Se o modelo coloca sua marca na categoria errada, associa-a com um concorrente que não deveria, ou reflete posicionamento desatualizado, essas lacunas podem ser corrigidas diretamente usando o mecanismo de sobreposição de conhecimento — corrigindo a representação interna do modelo sem retreinamento.

Caso de Uso: Análise de Lacuna de Conhecimento Antes da Implantação

Ao avaliar um modelo de código aberto para uma implantação específica de domínio, a pergunta crítica não é desempenho de benchmark — é: este modelo sabe o suficiente sobre nosso domínio para ser útil, e sabe algo incorretamente?

LarQL permite uma varredura estruturada de pré-implantação do conhecimento em toda a sua área de tópico:

-- Passo 1: Audite o conhecimento do produto
DESCRIBE "SeuProduto"
DESCRIBE "SeuProduto v2"

-- Passo 2: Verifique o conhecimento de categoria e posicionamento
SELECT * FROM edges WHERE entity='SeuProduto' AND relation='category'
SELECT * FROM edges WHERE entity='SeuProduto' AND relation='primary_use_case'

-- Passo 3: Encontre lacunas — tópicos sem associações
SELECT * FROM edges WHERE entity='seu_topico_chave' NEAREST_TO Layer 20 LIMIT 5
-- Poucos ou nenhum resultado = uma lacuna de conhecimento

-- Passo 4: Encontre fatos errados
SELECT * FROM edges WHERE entity='SuaEmpresa' AND relation='CEO'
SELECT * FROM edges WHERE entity='SeuProduto' AND relation='pricing_model'

-- Passo 5: Corrija erros confirmados antes do lançamento
UPDATE edges SET target='Nome do CEO Atual' WHERE entity='SuaEmpresa' AND relation='CEO'

Este fluxo de trabalho substitui a abordagem “implantar e esperar por reclamações”. Uma auditoria de 4 horas usando LarQL contra um Vindex pode revelar lacunas de conhecimento e erros factuais que de outra forma chegariam aos usuários reais — e corrigi-los no mesmo dia, sem GPU necessária.

Caso de Uso: Análise de Causa Raiz de Alucinação

Quando um LLM implantado produz uma resposta incorreta ou prejudicial, a resposta padrão é atualizar o prompt do sistema ou adicionar proteções. Mas patches de prompt tratam sintomas. LarQL permite diagnóstico no nível de peso: por que o modelo acreditava nisso?

-- Reproduza o caminho de inferência que levou à resposta incorreta
TRACE 'O CEO da Acme Corp é' TOP 3

-- Encontre a camada onde o fato incorreto foi recuperado
-- (Números de camada na saída TRACE mostram onde a resposta comprometida se cristaliza)

-- Verifique o que o modelo realmente armazena para essa entidade/relação
SELECT * FROM edges WHERE entity='Acme Corp' AND relation='CEO'

-- Verifique se há confusão polisonântica (mesmo neurônio codificando duas coisas)
SELECT * FROM edges WHERE entity='Acme Corp' NEAREST_TO Layer 23 LIMIT 10

-- Aplique a correção direcionada
UPDATE edges SET target='Jane Smith' WHERE entity='Acme Corp' AND relation='CEO'

A saída TRACE mostra a distribuição de probabilidade entre camadas — desde a detecção inicial de sintaxe, através da recuperação de conhecimento nas camadas do meio, até o comprometimento de saída. Esta é a ferramenta primária para análise forense quando um incidente causado por modelo requer documentação regulatória ou legal: demonstra onde o fato incorreto entrou no caminho de inferência e por que o modelo estava confiante nele.

Referência de Desempenho (Apple Silicon)

OperaçãoTempo
Busca KNN de gate por camada0,008 ms
WALK completo em 34 camadas0,3 ms
Inferência completa (com atenção)517 ms
Aplicação de patchInstantânea (sobreposição de arquivo)
Tamanho Vindex — Gemma 3 4B, f16~3 GB

Navegação de Vindex e consultas SELECT são executadas completamente em CPU. INFER e TRACE requerem que o modelo seja carregado.

Relação com Serviços de Conhecimento LLM

LarQL é a tecnologia subjacente por trás de cada serviço no ciclo de vida do conhecimento LLM:

  • Auditoria pré-implantação: DESCRIBE, SELECT, e NEAREST_TO varrem o conhecimento do modelo em seu domínio antes do lançamento
  • Manutenção de conhecimento: a sobreposição de patch (INSERT, UPDATE, DELETE) aplica correções diretamente aos pesos implantados sem retreinamento
  • Conformidade e trilhas de auditoria: SHOW patches fornece um registro auditável de cada fato alterado em um modelo
  • Inteligência de SEO: WALK e NEAREST_TO expõem o mapa semântico interno do modelo de qualquer espaço de tópico
  • Análise de concorrente e marca: NEAREST_TO com validação cruzada de INFER expõe as crenças de co-localização do modelo no nível de peso
  • Análise forense de alucinação: TRACE decompõe o caminho de inferência camada por camada, identificando exatamente onde uma resposta incorreta foi recuperada e comprometida

Perguntas frequentes

Pronto para construir sua própria IA?

Chatbots inteligentes e ferramentas de IA sob um mesmo teto. Conecte blocos intuitivos para transformar suas ideias em Flows automatizados.

Saiba mais

Modelo de Linguagem de Grande Escala (LLM)
Modelo de Linguagem de Grande Escala (LLM)

Modelo de Linguagem de Grande Escala (LLM)

Um Modelo de Linguagem de Grande Escala (LLM) é um tipo de IA treinada em vastas quantidades de dados textuais para compreender, gerar e manipular a linguagem h...

10 min de leitura
AI Large Language Model +4
Detecção de Idioma
Detecção de Idioma

Detecção de Idioma

A detecção de idioma em grandes modelos de linguagem (LLMs) é o processo pelo qual esses modelos identificam o idioma do texto de entrada, permitindo o processa...

5 min de leitura
Language Detection LLMs +4