LarQL (LQL)

Hvad er LarQL?

LarQL — også omtalt som LQL — er et forespørgselssprog designet til at interagere direkte med viden kodet i store sproget modelværdier (LLM). Det bruger velkendt SQL-lignende syntaks (SELECT, INSERT, UPDATE, DELETE, DESCRIBE) anvendt ikke på rækker i en relationsdatabase, men på den strukturerede videngraf, som LLMs opbygger internt under træning.

Hvor traditionelle værktøjer behandler modelværdier som en uigennemsigtig binær blob, behandler LarQL dem som en forespørgselsbar videnbutik. En praktiker kan inspicere, hvad en model ved om en bestemt enhed, præcist spore, hvordan modellen når en given inferens, og anvende målrettet videnpatch — alt uden at omtræne modellen eller ændre grundlæggende vægtfiler.

Kernebegreber

Vindex

En Vindex (vektorindeks) er den ekstraherede, forespørgselsbar repræsentation af en models interne viden. Det genereres fra modelværdier ved hjælp af kommandoen larql extract-index og gemmes som en selvstændig fil. Når den er ekstraheret, kan en Vindex gennemses og forespørges uden at indlæse den fulde model — og uden GPU-hardware.

Vindex koderer de lærte associationer mellem enheder, relationer og lag, hvilket gør det muligt at stille spørgsmål som: “Hvad tror denne model, at hovedsædet for Apple er?” eller “Hvilke koncepter forbinder denne model med GDPR nær lag 20?”

Patch-overlays

LarQL’s skriveoperationer — INSERT, UPDATE, DELETE — ændrer ikke basemodel vægtfiler. I stedet opretter de en .patch fil overlay, der anvendes på inferencetidspunktet. Dette gør videntredigering:

  • Øjeblikkelig: ingen omkompilering eller fintuning trin
  • Reversibel: basemodellen er uændret; patches kan fjernes eller erstattes
  • Letvægts: en patch dækkende 234 fakta kræver cirka 2,1 MB mod en 16 GB basemodel
Logo

Klar til at vokse din virksomhed?

Start din gratis prøveperiode i dag og se resultater inden for få dage.

Opsætning af LarQL

For at begynde at arbejde med en models viden, udtrækker du en Vindex og åbner den interaktive REPL:

larql extract-index path/to/your-model -o company-model.vindex --f16
larql repl

Flaget --f16 udtrækker indekset med 16-bit float præcision. Den resulterende Vindex for en model som Gemma 3 4B er cirka 3 GB.

Gennemse modelsviden

Disse kommandoer fungerer mod den ekstraherede Vindex og kræver ikke GPU:

Inspicér en specifik enhed:

DESCRIBE "Apple Inc"

Returnerer al den viden, som modellen har om enheden, organiseret efter lag og funktion: industri, produkter, hovedsæde, founded_by, stock_ticker og enhver anden relation lært under træning.

Forespørg en specifik relation på tværs af alle enheder:

SELECT * FROM edges WHERE relation='headquarters' LIMIT 10

Find konceptassociationer efter afstand:

SELECT * FROM edges WHERE entity='GDPR' NEAREST_TO Layer 20 LIMIT 5

Finder de fem begreber, der er mest tæt forbundet med GDPR nær lag 20 af modellens videnrepræsentation.

List alle relationstyper, som modellen har lært:

SHOW relations

Returnerer den komplette liste over relationstyper til stede i modellen. En typisk model i medium størrelse koder over 1.000 relationstyper.

Inferens og sporing

Kør inferens med sandsynlighedsscorer:

INFER 'The headquarters of Apple is located in' TOP 5

Returnerer top 5 completions med konfidensscorer (f.eks. Cupertino 0,71, California 0,14 osv.).

Spor inferens lag for lag:

TRACE 'The CEO of Tesla is' TOP 3

Frembringer en lag-for-lag nedbrydning, der viser, hvordan modellen opbygger mod sit output — fra indledende syntaksdetektion gennem domæneidentifikation, videnablathering til outputforpligtelse. Bruges til hallucinationsretsmedicin, når en model producerer et uventet eller forkert svar.

Gå gennem et koncept på tværs af lag:

WALK "climate change" LAYERS 10 TO 28

Viser, hvordan en models associationer for et koncept udvikler sig på tværs af lag — fra konkret tekst co-optræden i tidlige lag til abstrakte semantiske associationer i dybere lag.

Videntredigering med Patch-overlays

LarQL’s skriveoperationer opretter en .patch overlay uden at røre basemodel filer:

Indsæt en ny kendsgerning:

INSERT INTO edges (entity, relation, target, confidence)
VALUES ('Acme Corp', 'CEO', 'Jane Smith', 0.95)

Opdater en eksisterende kendsgerning:

UPDATE edges
SET target = 'Jane Smith'
WHERE entity = 'Acme Corp' AND relation = 'CEO'

Undertryk en kendsgerning:

DELETE FROM edges
WHERE entity = 'Acme Corp' AND relation = 'former_CEO'

Inspicér aktive patches:

SHOW patches

Lister alle aktive patch-filer, deres størrelser og faktantal. En patch med 234 fakta mod en 16 GB basemodel udgør cirka 2,1 MB.

Revisionscase: Videnverifikation før udrulning

Et komplet pre-deployment verifikationsarbejdsflow ved hjælp af LarQL:

-- 1. Inspicér, hvad modellen ved om dit produkt
DESCRIBE "Acme Corp"

-- 2. Find forkerte associationer
SELECT * FROM edges WHERE entity='Acme Corp' AND relation='CEO'

-- 3. Bekræft ingen konkurrencemærkeforvirring
SELECT * FROM edges WHERE entity='Acme Corp' NEAREST_TO Layer 20 LIMIT 10

-- 4. Patch eventuelle forkerte fakta før udrulning
UPDATE edges SET target='Jane Smith' WHERE entity='Acme Corp' AND relation='CEO'

Dette arbejdsflow er grundlaget for en model-revision før udrulning: systematisk verificering af, at modellens interne viden er nøjagtig for dit domæne, før den eksponeres for brugere.

Usesag: SEO-intelligens fra modelværdier

En sproget model trænet på trillioner af webdokumenter har internaliseret den semantiske struktur for hvert emnefelt, det mødte. I stedet for at skrabe SERPs eller købe nøgleordsdata, kan du læse denne struktur direkte ved at sondere modellens interne repræsentationer — ingen generering påkrævet.

Når du indsender en forespørgsel som "affiliate software" til en LLM, skyder specifikke neuroner i feedforward lag i et karakteristisk mønster. Disse aktivationer koderer, hvad modellen anser for semantisk tilstødende: konkurrenter, relateret teknologi, use cases, reviweringssites. LarQL gør disse associationer forespørgselsbare.

Kortlæg det semantiske nabolag for ethvert nøgleord:

-- Hvilke koncepter klumper sig omkring dit kerneudtryk i videnzonen (lag 12–34)?
WALK "affiliate software" LAYERS 12 TO 34

-- Find de mest associerede enheder på peak vidensdybde
SELECT * FROM edges WHERE entity='affiliate software' NEAREST_TO Layer 22 LIMIT 20

-- Hvilke relationstyper bruger modellen til dette domæne?
SHOW relations

Hvad du får: En rangeret liste over semantisk tilstødende ord, der afspejler, hvad modellen (og ved udvidelse, det webkorpus det blev trænet på) anser for det naturlige nabolag for dit emne — emne-klynge kandidater, integrationsøgleord, og langhalede vinkler, som traditionelle nøgleordsværktøjer savner, fordi de måler popularitet, ikke semantisk struktur.

Tillidsscorer fra NEAREST_TO angiver semantisk afstand i modellens interne repræsentation. Betingelser med høje tillidsscorer er dybt viklet med dit spørgsmål i modellens viden — de er naturlige medfølgende mål for indholdsstrategi.

Usesag: Konkurrentopdagelse og mærkekomedalering

En model trænet på webskala-data har lært, hvilke mærker der vises i samme diskussioner. Dette er signalrigere end backlink-overlap eller SERP-forekomst: det afspejler modellens konsoliderede tro på, hvilke virksomheder der opererer i samme rum, bygget af millioner af artikler, anmeldelser, sammenligningssider og forumtråde.

-- Hvilke mærker anser modellen for at være komedaleret med dit?
SELECT * FROM edges WHERE entity='DitMærke' NEAREST_TO Layer 19 LIMIT 15

-- Bekræft, at dette er mærkekomedalering, ikke kategoriborblandlelse
DESCRIBE "DitMærke"

-- Kontroller det samme for en bestemt konkurrent
SELECT * FROM edges WHERE entity='KonkurrentX' NEAREST_TO Layer 19 LIMIT 15

Kryds-validat med inferens:

-- Producerer modellen konkurrenter i direkte færdiggørelser?
INFER 'Hovedalternativerne til DitMærke er' TOP 8

-- Monte Carlo-kontrol: Hvilke mærker dukker op oftest?
INFER 'Virksomheder svarende til DitMærke inkluderer' TOP 5

Mærker, der vises i både internt FFN-spor (NEAREST_TO) og generative færdiggørelser (INFER), bærer højeste tillid. De repræsenterer modellens konsoliderede konkurrencelandskab — direkte handlingsbart for “vs” sammenligningssider, migrationsguides og alternative landingssider.

Usesag: Revision af mærkeopfattelse

Før udrulning af en LLM i en kundevendt rolle — eller før lancering af en kampagne — er det værd at forstå, hvordan modellen karakteriserer dit mærke internt. Dette adskiller sig fra, hvad modellen siger, når den bliver spurgt: det afspejler latente associationer bygget fra træningsdata, hvoraf nogle kan modsige dit tilsigtede positionering.

-- Komplet karakterisering af dit mærke i modellens viden
DESCRIBE "DitMærke"

-- I hvilken kategori placerer modellen dig?
SELECT * FROM edges WHERE entity='DitMærke' AND relation='category'

-- Hvilke teknologier er du forbundet med?
SELECT * FROM edges WHERE entity='DitMærke' AND relation='integrates_with'

-- Gives der uønskede associationer?
SELECT * FROM edges WHERE entity='DitMærke' NEAREST_TO Layer 20 LIMIT 30

Gå lag for lag for at se, hvordan associationer udvikler sig:

-- Tidlige lag: overflade co-forekomst
-- Mellemlag (12–34): faktiske associationer
-- Senere lag: outputformatering og stil
WALK "DitMærke" LAYERS 10 TO 35

Hvis modellen placerer dit mærke i den forkerte kategori, forbinder det med en konkurrent, det ikke bør være, eller afspejler forældet positionering, kan disse huller patkes direkte ved hjælp af videnoverlaymekanismen — rette modellens interne repræsentation uden omtræning.

Usesag: Videnafstandsanalyse før implementering

Ved vurdering af en open-source-model til en domænespecifik udrulning, er det kritiske spørgsmål ikke benchmarkydelse — det er: kender denne model nok om vores domæne til at være nyttig, og kender den noget forkert?

LarQL giver mulighed for en struktureret pre-deployment-videnscanning på tværs af dit hele emneområde:

-- Trin 1: Granskerproduktbekendtskab
DESCRIBE "DitProdukt"
DESCRIBE "DitProdukt v2"

-- Trin 2: Kontroller kategori- og positioneringsviden
SELECT * FROM edges WHERE entity='DitProdukt' AND relation='category'
SELECT * FROM edges WHERE entity='DitProdukt' AND relation='primary_use_case'

-- Trin 3: Find huller — emner uden associationer
SELECT * FROM edges WHERE entity='dit_nøgleanligende' NEAREST_TO Layer 20 LIMIT 5
-- Få eller ingen resultater = videnhul

-- Trin 4: Find forkerte fakta
SELECT * FROM edges WHERE entity='DitSelskab' AND relation='CEO'
SELECT * FROM edges WHERE entity='DitProdukt' AND relation='pricing_model'

-- Trin 5: Patch bekræftede fejl før go-live
UPDATE edges SET target='Nuværende administrerende direktør navn' WHERE entity='DitSelskab' AND relation='CEO'

Dette arbejdsflow erstatter “udrul og vent på klager”-tilgangen. En 4-timers revision ved hjælp af LarQL mod en Vindex kan opdage videnhul og faktuelle fejl, der ellers vil nå til virkelige brugere — og rette dem samme dag, uden GPU påkrævet.

Usesag: Hallucinationrodårsagsanalyse

Når en implementeret LLM producerer et forkert eller skadeligt svar, er standardsvaret at opdatere systempromptet eller tilføje guardrails. Men promptflap behandler symptomer. LarQL muliggør diagnose på vægtsniveau: hvorfor troede modellen på det?

-- Genskab den slutningssti, der førte til det forkerte svar
TRACE 'Administrerende direktør for Acme Corp er' TOP 3

-- Find det lag, hvor det forkerte faktum blev hentet
-- (Lagnumre i TRACE output viser, hvor det forpligtede svar kristalliserer)

-- Kontroller, hvad modellen faktisk lagrer for den enhed/relation
SELECT * FROM edges WHERE entity='Acme Corp' AND relation='CEO'

-- Bekræft ingen polysemantisk forvirring (samme neuron koderer to ting)
SELECT * FROM edges WHERE entity='Acme Corp' NEAREST_TO Layer 23 LIMIT 10

-- Anvend den målrettede rettelse
UPDATE edges SET target='Jane Smith' WHERE entity='Acme Corp' AND relation='CEO'

TRACE-outputtet viser sandsynlighedsfordelingen på tværs af lag — fra indledende syntaksdetektion, gennem videnablathering i meltemlag, til outputforpligtelse. Dette er det primære værktøj til retsmedicinsk analyse, når en modelinduceret hændelse kræver regulatorisk eller juridisk dokumentation: det demonstrerer hvor det forkerte faktum indgik i slutningstien og hvorfor modellen var sikker på det.

Ydelsereferenceudvikler (Apple Silicon)

OperationTid
Gate KNN-opslag pr. lag0,008 ms
Fuldt WALK på tværs af 34 lag0,3 ms
Fuldt inferens (med opmærksomhed)517 ms
PatchappliceringØjeblikkelig (filoverlag)
Vindex størrelse — Gemma 3 4B, f16~3 GB

Vindex-gennemsyn og SELECT-forespørgsler kører fuldstændigt på CPU. INFER og TRACE kræver, at modellen indlæses.

Forhold til LLM-videnservices

LarQL er den underliggende teknologi bag hver service i LLM-videnslivscyklus:

  • Revision før udrulning: DESCRIBE, SELECT, og NEAREST_TO scanner modellens viden på tværs af dit domæne før go-live
  • Videnvedligeholdelse: patch overlay (INSERT, UPDATE, DELETE) anvender rettelser direkte på implementerede vægte uden omtræning
  • Overholdelse og revisionsspor: SHOW patches giver et revision audit of every fact ændret i en model
  • SEO-intelligens: WALK og NEAREST_TO afsløre modellens interne semantiske kort over ethvert emneområde
  • Konkurrent- og mærkeanalyse: NEAREST_TO med INFER kryds-validering afslører modellens komedalering troværdighed på vægtsniveau
  • Hallucinationsretsmedicin: TRACE nedbryder slutningsstien lag for lag, identificering præcis hvor et forkert svar blev hentet og forpligtet

Ofte stillede spørgsmål

Er du klar til at opbygge din egen AI?

Intelligente chatbots og AI-værktøjer under et tag. Forbind intuitive blokke for at omdanne dine idéer til automatiserede flows.

Lær mere

Indlejringsvektor
Indlejringsvektor

Indlejringsvektor

En indlejringsvektor er en tæt numerisk repræsentation af data i et multidimensionelt rum, der indfanger semantiske og kontekstuelle relationer. Lær hvordan ind...

4 min læsning
AI Embeddings +4
LIX Læselighedsmål
LIX Læselighedsmål

LIX Læselighedsmål

Lær om LIX Læselighedsmål – en formel udviklet til at vurdere tekstkompleksitet ved at analysere sætningslængde og lange ord. Forstå dens anvendelser i uddannel...

7 min læsning
LIX Readability +5
Find den bedste LLM til indholdsforfatning: Testet og rangeret
Find den bedste LLM til indholdsforfatning: Testet og rangeret

Find den bedste LLM til indholdsforfatning: Testet og rangeret

Vi har testet og rangeret skriveevnerne hos 5 populære modeller, der er tilgængelige i FlowHunt, for at finde den bedste LLM til indholdsforfatning.

11 min læsning
AI Content Writing +6