LarQL (LQL)

Hva er LarQL?

LarQL — også referert som LQL — er et spørringsspråk designet for direkte samhandling med kunnskap kodet i store språkmodell (LLM) vekter. Det bruker kjent SQL-lignende syntaks (SELECT, INSERT, UPDATE, DELETE, DESCRIBE) brukt ikke på rader i en relasjonsdatabase, men på den strukturerte kunnskapsgraf som LLM:er bygger internt under trening.

Hvor tradisjonelle verktøy behandler modellvekter som en ugjennomsiktig binær blob, behandler LarQL dem som et søkbar kunnskapsmagasin. En praktiker kan inspicere hva en modell vet om en spesifikk entitet, nøyaktig spore hvordan modellen når en gitt inferens og bruke målrettete kunnskapsoppdateringer — alt uten å omopplære modellen eller endre basisvektfiler.

Kjernekonsepter

Vindex

En Vindex (vektorindeks) er den ekstraherte, søkbare representasjonen av en modells indre kunnskap. Den genereres fra modellvekter ved hjelp av larql extract-index kommandoen og lagres som en selvstendig fil. Når den er ekstrahert, kan en Vindex blaes og søkes i uten å laste hele modellen — og uten GPU maskinvare.

Vindex koder modellens lærte forbindelser mellom enheter, relasjoner og lag, noe som gjør det mulig å stille spørsmål som: “Hva tror denne modellen Apples hovedkontor er?” eller “Hvilke konsepter forbinder denne modellen med GDPR nær lag 20?”

Lappoverlegg

LarQL:s skriveoperasjoner — INSERT, UPDATE, DELETE — endrer ikke basismodellvektfiler. I stedet oppretter de en .patch filoverlegg som brukes ved inferencetidspunktet. Dette gjør kunnskapsredigering:

  • Umiddelbar: ingen omkompilering eller finjusterings trinn
  • Reversibel: basismodellen forblir uendret; lapper kan fjernes eller erstattes
  • Lettvekts: en lapp som dekker 234 fakta krever omtrent 2,1 MB mot en 16 GB basismodell
Logo

Klar til å vokse bedriften din?

Start din gratis prøveperiode i dag og se resultater i løpet av få dager.

Oppsett av LarQL

For å begynne å arbeide med en modells kunnskap, ekstrahér en Vindex og åpne den interaktive REPL:

larql extract-index path/to/your-model -o company-model.vindex --f16
larql repl

--f16 flagget ekstraherer indeksen med 16-bits flyttals presisjon. Den resulterende Vindex for en modell som Gemma 3 4B er omtrent 3 GB.

Gjennomlesing av modellkunnskap

Disse kommandoene fungerer mot den ekstraherte Vindex og krever ingen GPU:

Inspicér en spesifikk enhet:

DESCRIBE "Apple Inc"

Returnerer all kunnskap modellen har om enheten, organisert etter lag og funksjon: industri, produkter, hovedkontor, founded_by, stock_ticker og en hvilken som helst annen relasjon lært under trening.

Spør om en spesifikk relasjon over alle enheter:

SELECT * FROM edges WHERE relation='headquarters' LIMIT 10

Finn konsept forbindelser etter avstand:

SELECT * FROM edges WHERE entity='GDPR' NEAREST_TO Layer 20 LIMIT 5

Finner de fem begrepene som er mest tett forbundet med GDPR nær lag 20 av modellens kunnskapsrepresentasjon.

List opp alle relasjontyper modellen har lært:

SHOW relations

Returnerer den fullstendige listen over relasjontyper til stede i modellen. En typisk middels stor modell koder over 1 000 relasjontyper.

Inferens og sporing

Kjør inferens med sannsynlighetspoeng:

INFER 'The headquarters of Apple is located in' TOP 5

Returnerer de 5 beste fullføringene med tillitspoeng (f.eks. Cupertino 0,71, California 0,14 osv.).

Spor inferens lag for lag:

TRACE 'The CEO of Tesla is' TOP 3

Produserer en lag-for-lag nedbrytning som viser hvordan modellen bygger mot sin utgang — fra initial syntaksdeteksjon gjennom domeneidentifikasjon, kunnskapsinnhenting til utgangsforpliktelse. Brukt for hallusinasjons rettsmedisiner når en modell produserer et uventet eller feil svar.

Gå gjennom et konsept på tvers av lag:

WALK "climate change" LAYERS 10 TO 28

Viser hvordan modellens forbindelser for et konsept utvikler seg på tvers av lag — fra konkret tekst co-opptredening i tidlige lag til abstrakte semantiske forbindelser i dypere lag.

Kunnskapsredigering med lappoverlegg

LarQL:s skriveoperasjoner opprett en .patch overlegg uten å røre basismodellfiler:

Sett inn et nytt faktum:

INSERT INTO edges (entity, relation, target, confidence)
VALUES ('Acme Corp', 'CEO', 'Jane Smith', 0.95)

Oppdater et eksisterende faktum:

UPDATE edges
SET target = 'Jane Smith'
WHERE entity = 'Acme Corp' AND relation = 'CEO'

Deaktivér et faktum:

DELETE FROM edges
WHERE entity = 'Acme Corp' AND relation = 'former_CEO'

Inspicér aktive lapper:

SHOW patches

Lister opp alle aktive lappfiler, deres størrelser og faktantall. En lapp med 234 fakta mot en 16 GB basismodell totalt omtrent 2,1 MB.

Revisjonsbrukstilfelle: Kunnskapsverifisering før innlevering

En komplett verifiseringsflytkurs før innlevering ved hjelp av LarQL:

-- 1. Inspicér hva modellen vet om produktet ditt
DESCRIBE "Acme Corp"

-- 2. Finn feil forbindelser
SELECT * FROM edges WHERE entity='Acme Corp' AND relation='CEO'

-- 3. Bekrefter ingen konkurransemerkeverden
SELECT * FROM edges WHERE entity='Acme Corp' NEAREST_TO Layer 20 LIMIT 10

-- 4. Lapp noen feil fakta før innsendelse
UPDATE edges SET target='Jane Smith' WHERE entity='Acme Corp' AND relation='CEO'

Denne arbeidsflytekursen er grunnlaget for en modellrevisjon før innlevering: systematisk verifisering av at modellens indre kunnskap er nøyaktig for ditt domene før du utsetter det for brukere.

Brukstilfelle: SEO-intelligens fra modellvekter

En språkmodell trent på billioner av webdokumenter har internalisert den semantiske strukturen til ethvert emnerom den møtte. I stedet for å skrape SERPs eller kjøpe nøkkelorddata, kan du lese den strukturen direkte ved å sonde modellens interne representasjoner — ingen generering nødvendig.

Når du sender inn en spørring som "affiliate software" til en LLM, spesifikke nevroner i feed-forward lagene fyrer i et karakteristisk mønster. Disse aktiveringene koder hva modellen anser som semantisk tilstøtende: konkurrenter, relaterte teknologier, brukstilfeller, omtaleside. LarQL gjør disse forbindelsene søkbare.

Kartlegg det semantiske nabolaget til ethvert nøkkelord:

-- Hvilke konsepter klynger seg rundt ditt kjernebegrep i kunnskapssonen (lag 12–34)?
WALK "affiliate software" LAYERS 12 TO 34

-- Finn de beste assosierte enhetene på toppen av kunnskapsdybde
SELECT * FROM edges WHERE entity='affiliate software' NEAREST_TO Layer 22 LIMIT 20

-- Hvilke relasjontyper bruker modellen for dette domenet?
SHOW relations

Det du får: en rangert liste over semantisk tilstøtende termer som reflekterer hva modellen (og ved utvidelse, webkorpuset den ble trent på) anser som det naturlige nabolaget til emnet ditt — emneklyngekandidater, integrasjonsnøkkelord og langhale vinkler som konvensjonelle nøkkelordverktøy går glipp av fordi de måler popularitet, ikke semantisk struktur.

Tillitspoengene fra NEAREST_TO indikerer semantisk avstand i modellens interne representasjon. Termer med høye tillitspoeng er dypt sammenflettes med spørringen din i modellens kunnskap — de er naturlige co-forekomstmål for innholdsstrategi.

Brukstilfelle: Konkurrentoppdagelse og merkevaresamlokaliseering

En modell trent på webskala-data har lært hvilke merkevarer som vises i samme diskusjoner. Dette er mer signalrikt enn baklinkoverlapping eller SERP co-opptredening: det reflekterer modellens konsoliderte tro på hvilke selskaper som opererer i samme rom, bygget fra millioner av artikler, vurderinger, sammenligningssider og forumtråder.

-- Hvilke merkevarer anser modellen som samlokaliser med dine?
SELECT * FROM edges WHERE entity='YourBrand' NEAREST_TO Layer 19 LIMIT 15

-- Bekreft at dette er merkevaresamlokaliseering, ikke kategorikonfusjon
DESCRIBE "YourBrand"

-- Sjekk det samme for en spesifikk konkurrent
SELECT * FROM edges WHERE entity='CompetitorX' NEAREST_TO Layer 19 LIMIT 15

Kryss-referanse med inferens for å validere:

-- Produserer modellen konkurrenter i direkte fullføringer?
INFER 'The main alternatives to YourBrand are' TOP 8

-- Monte Carlo kontroll: hvilke merkevarer dukker opp oftest?
INFER 'Companies similar to YourBrand include' TOP 5

Merkevarer som vises både i den interne FFN-sporingen (NEAREST_TO) og i generative fullføringer (INFER) har høyeste tillit. De representerer modellens konsoliderte konkurrentlandskap — direkte handlingsbar for “vs” sammenligningssider, migrasjonsguider og alternative landingssider.

Brukstilfelle: Revisjon av merkevareoppfatning

Før du distribuerer en LLM i en kundevendt rolle — eller før du lanserer en kampanje — er det verdt å forstå hvordan modellen karakteriserer merket ditt internt. Dette er annerledes fra hva modellen sier når den blir spurt: det reflekterer latente forbindelser bygget fra treningsdata, noen av som kan være i strid med din intenderte posisjering.

-- Komplett karakterisering av merket ditt i modellens kunnskap
DESCRIBE "YourBrand"

-- Hvilken kategori plasserer modellen deg i?
SELECT * FROM edges WHERE entity='YourBrand' AND relation='category'

-- Hvilke teknologier er du forbundet med?
SELECT * FROM edges WHERE entity='YourBrand' AND relation='integrates_with'

-- Er det noen uønskete forbindelser?
SELECT * FROM edges WHERE entity='YourBrand' NEAREST_TO Layer 20 LIMIT 30

Lag-for-lag gå for å se hvordan forbindelser utvikler seg:

-- Tidlige lag: overflate co-opptredening
-- Middellag (12–34): faktaassosiasjoner
-- Senere lag: utdata formatering og stil
WALK "YourBrand" LAYERS 10 TO 35

Hvis modellen plasserer merket ditt i feil kategori, forbinder det med en konkurrent den ikke burde, eller reflekterer foreldet posisjoning, kan disse gapene legges til rettelisten direkte ved hjelp av kunnskapsoverlegg mekanismen — rettingen modellens interne representasjon uten omopplæring.

Brukstilfelle: Kunnskapslukkanalyse før distribusjon

Når du evaluerer en åpen source modell for en domenesspesifikk distribusjon, er det kritiske spørsmålet ikke benchmark-ytelse — det er: vet denne modellen nok om vårt domene til å være nyttig, og vet den noe galt?

LarQL muliggjør en strukturert pre-distribusjons kunnskapsikk over hele emneområdet ditt:

-- Trinn 1: Revisjon av produktkunnskap
DESCRIBE "YourProduct"
DESCRIBE "YourProduct v2"

-- Trinn 2: Kontroller kategori- og posisjoneringskunnskap
SELECT * FROM edges WHERE entity='YourProduct' AND relation='category'
SELECT * FROM edges WHERE entity='YourProduct' AND relation='primary_use_case'

-- Trinn 3: Finn lukkinger — emner uten forbindelser
SELECT * FROM edges WHERE entity='your_key_topic' NEAREST_TO Layer 20 LIMIT 5
-- Få eller ingen resultater = en kunnskapslukkering

-- Trinn 4: Finn feil fakta
SELECT * FROM edges WHERE entity='YourCompany' AND relation='CEO'
SELECT * FROM edges WHERE entity='YourProduct' AND relation='pricing_model'

-- Trinn 5: Lapp bekreftet feil før go-live
UPDATE edges SET target='Current CEO Name' WHERE entity='YourCompany' AND relation='CEO'

Denne arbeidsflytekursen erstatter “distribuer og vent på klager” tilnærming. En 4-timers revisjon ved hjelp av LarQL mot en Vindex kan avsløre kunnskapslukkeringer og faktafeiler som ellers ville nå virkelige brukere — og legge til rettelisten samme dag, uten GPU nødvendig.

Brukstilfelle: Analyse av hallusinasjons rotårsakerna

Når en distribuert LLM produserer et galt eller skadelig svar, er standardresponsen å oppdatere systemprompten eller legge til sikkerhetsvakter. Men spørsmåloppdateringer behandler symptomer. LarQL muliggjør diagnose på vektnivå: hvorfor trodde modellen det?

-- Reproduser inferencebanen som førte til feil svar
TRACE 'The CEO of Acme Corp is' TOP 3

-- Finn laget hvor det feil fakta ble hentet
-- (Lagnummere i TRACE utgang viser hvor det forpliktete svaret krystalliserer)

-- Sjekk hva modellen faktisk lagrer for den enheten/relasjonen
SELECT * FROM edges WHERE entity='Acme Corp' AND relation='CEO'

-- Bekreft ingen polysemantisk konfusjon (samme nevron kodet to ting)
SELECT * FROM edges WHERE entity='Acme Corp' NEAREST_TO Layer 23 LIMIT 10

-- Bruk den målrettete fiksen
UPDATE edges SET target='Jane Smith' WHERE entity='Acme Corp' AND relation='CEO'

TRACE utgangen viser sannsynlighetsfordelingen over lag — fra initial syntaksdeteksjon, gjennom kunnskapsinnhenting i middellagene, til utgangsforpliktelse. Dette er det primære verktøyet for rettsmedisinsk analyse når en modellorsaket hendelse krever regulatorisk eller juridisk dokumentasjon: det demonstrerer hvor det feil fakta gikk inn i inferencebanen og hvorfor modellen var trygg på det.

Ytelsesreferanse (Apple Silicon)

OperasjonTid
Gate KNN oppslag per lag0,008 ms
Fullt WALK over 34 lag0,3 ms
Fullt inferens (med oppmerksomhet)517 ms
LapaplikasjonUmiddelbar (filoverlegg)
Vindex størrelse — Gemma 3 4B, f16~3 GB

Vindex gjennomlesing og SELECT-spørringer kjøres fullstendig på CPU. INFER og TRACE krever at modellen lastes inn.

Relasjon til LLM kunnskapsservices

LarQL er den underliggende teknologien bak hver service i LLM kunnskapslivssyklusen:

  • Pre-distribusjons revisjon: DESCRIBE, SELECT og NEAREST_TO skan modellens kunnskap over ditt domene før go-live
  • Kunnskapsvedlikehold: lappoverlegg mekanismen (INSERT, UPDATE, DELETE) bruker korreksjoner direkte til distribuert vekter uten omopplæring
  • Samsvar og revisjonsslipp: SHOW patches gir en revisjonsbar record av ethvert fakta endret i en modell
  • SEO-intelligens: WALK og NEAREST_TO avsløre modellens interne semantiske kart av ethvert emnerom
  • Konkurrent- og merkevareanalyse: NEAREST_TO med INFER kryss-validering avsløre modellens co-lokalisering tro på vektnivå
  • Hallusinasjons rettsmedisiner: TRACE dekomponerer inferencebanen lag for lag, identifisering nøyaktig hvor et galt svar ble hentet og forpliktet

Vanlige spørsmål

Klar til å bygge dine egne AI?

Intelligente chatboter og AI-verktøy under ett tak. Koble intuitive blokker for å forvandl ideene dine til automatiserte flyter.

Lær mer

LIX Lesbarhetsmål
LIX Lesbarhetsmål

LIX Lesbarhetsmål

Lær om LIX-lesbarhetsmålet—en formel utviklet for å vurdere tekstkompleksitet ved å analysere setningslengde og lange ord. Forstå bruksområder i utdanning, forl...

7 min lesing
LIX Readability +5
Stort språkmodell (LLM)
Stort språkmodell (LLM)

Stort språkmodell (LLM)

En stor språkmodell (LLM) er en type KI trent på enorme mengder tekstdata for å forstå, generere og manipulere menneskespråk. LLM-er bruker dyp læring og transf...

8 min lesing
AI Large Language Model +4