LarQL (LQL)

Vad är LarQL?

LarQL — också kallat LQL — är ett frågespråk utformat för direkt interaktion med kunskap kodad i stora språkmodell (LLM) vikter. Det använder bekant SQL-liknande syntax (SELECT, INSERT, UPDATE, DELETE, DESCRIBE) tillämpat inte på rader i en relationsdatabas, utan på den strukturerade kunskapsgrafen som LLM bygger internt under träning.

Där traditionella verktyg behandlar modellvikter som en ogenomskinlig binär blob, behandlar LarQL dem som ett frågbart kunskapslager. En praktiker kan inspektera vad en modell vet om en specifik enhet, preciserat spåra hur modellen når en given inferens och använd riktade kunskapsuppdateringar — allt utan att omutbilda modellen eller ändra baskungsfiler.

Kärnbegrepp

Vindex

En Vindex (vektorindex) är den extraherade, frågabar representationen av en modells interna kunskap. Den genereras från modellvikter med hjälp av larql extract-index-kommandot och sparas som en fristående fil. När den är extraherad kan en Vindex bläddras och frågades utan att ladda hela modellen — och utan GPU-maskinvara.

Vindex kodar modellens inlärda associationer mellan enheter, relationer och skikt, vilket gör det möjligt att ställa frågor som: “Vad tror denna modell att Apples huvudkontor är?” eller “Vilka begrepp associerar denna modell med GDPR nära skikt 20?”

Patch Overlays

LarQL:s skriv operationer — INSERT, UPDATE, DELETE — ändrar inte basmodellviktfiler. Istället skapar de en .patch-filöverlay som tillämpas vid inferenstidpunkten. Detta gör kunskapsredigering:

  • Omedelbar: ingen omkompilerings- eller fintunningssteg
  • Reversibel: basmodellen förblir oförändrad; uppdateringar kan tas bort eller ersättas
  • Lätt: en uppdatering som täcker 234 fakta kräver cirka 2,1 MB mot en 16 GB basmodell
Logo

Redo att växa ditt företag?

Starta din kostnadsfria provperiod idag och se resultat inom några dagar.

Ställa in LarQL

För att börja arbeta med en modells kunskap, extrahera en Vindex och öppna den interaktiva REPL:

larql extract-index path/to/your-model -o company-model.vindex --f16
larql repl

Flaggan --f16 extraherar indexet med 16-bitars flytande precision. Den resulterande Vindex för en modell som Gemma 3 4B är cirka 3 GB.

Bläddra genom modellkunskapen

Dessa kommandon fungerar mot den extraherade Vindex och kräver ingen GPU:

Inspektera en specifik enhet:

DESCRIBE "Apple Inc"

Returnerar all kunskap modellen har om enheten, organiserad efter skikt och funktion: industri, produkter, huvudkontor, founded_by, aktieticker och vilken annan relation som helst som lärt sig under träning.

Fråga en specifik relation över alla enheter:

SELECT * FROM edges WHERE relation='headquarters' LIMIT 10

Hitta konceptassociationer efter avstånd:

SELECT * FROM edges WHERE entity='GDPR' NEAREST_TO Layer 20 LIMIT 5

Hitta de fem begreppen som är mest tätt associerade med GDPR nära skikt 20 av modellens kunskapsrepresentation.

Lista alla relationstyper som modellen har lärt sig:

SHOW relations

Returnerar den fullständiga listan över relationstyper som finns i modellen. En typisk medelstor modell kodar över 1 000 relationstyper.

Inferens och spårning

Kör inferens med sannolikhetsmässor:

INFER 'The headquarters of Apple is located in' TOP 5

Returnerar de 5 bästa slutförande med förtroendepoäng (t.ex. Cupertino 0,71, Kalifornien 0,14 etc.).

Spåra inferens skikt för skikt:

TRACE 'The CEO of Tesla is' TOP 3

Producerar en skiktvis uppdelning som visar hur modellen bygger mot sin utgång — från initial syntaxdetektering genom domänidentifikation, kunskapsåtervinning till utdataåtagande. Används för hallucinations rättsöversättning när en modell producerar ett oväntat eller felaktigt svar.

Gå igenom ett begrepp över skikt:

WALK "climate change" LAYERS 10 TO 28

Visar hur modellens associationer för ett begrepp utvecklas över skikt — från konkret textsamförekomst i tidiga skikt till abstrakta semantiska associationer i djupare skikt.

Kunskapsredigering med Patch Overlays

LarQL:s skriv operationer skapar en .patch-överlay utan att röra basmodellfiler:

Infoga ett nytt faktum:

INSERT INTO edges (entity, relation, target, confidence)
VALUES ('Acme Corp', 'CEO', 'Jane Smith', 0.95)

Uppdatera ett befintligt faktum:

UPDATE edges
SET target = 'Jane Smith'
WHERE entity = 'Acme Corp' AND relation = 'CEO'

Undertryck ett faktum:

DELETE FROM edges
WHERE entity = 'Acme Corp' AND relation = 'former_CEO'

Inspektera aktiva uppdateringar:

SHOW patches

Listar alla aktiva uppdateringsfiler, deras storlek och faktumeantal. En uppdatering med 234 fakta mot en 16 GB basmodell totalt cirka 2,1 MB.

Granskninsfall: Kunskapsverifiering innan distribution

Ett komplett verifieringsarbetsflöde före distribution med hjälp av LarQL:

-- 1. Inspektera vad modellen vet om din produkt
DESCRIBE "Acme Corp"

-- 2. Hitta felaktiga associationer
SELECT * FROM edges WHERE entity='Acme Corp' AND relation='CEO'

-- 3. Verifiera ingen konkurrenskraftsmärkeavstöning
SELECT * FROM edges WHERE entity='Acme Corp' NEAREST_TO Layer 20 LIMIT 10

-- 4. Patch eventuella felaktiga fakta före distribution
UPDATE edges SET target='Jane Smith' WHERE entity='Acme Corp' AND relation='CEO'

Detta arbetsflöde är grunden för en modellgranskning före distribution: systematisk verifiering av att modellens interna kunskap är korrekt för din domän innan den exponeras för användare.

Bruksfall: SEO-intelligens från modellvikter

En språkmodell tränad på biljoner webdokument har internaliserat den semantiska strukturen på varje ämnesområde som den stötte på. I stället för att skrapa SERPs eller köpa nyckelorddata kan du läsa strukturen direkt genom att sonda modellens interna representationer — ingen generering krävs.

När du skickar en fråga som "affiliate software" till en LLM skjuter specifika neuroner i feed-forward-lagerna av i ett karakteristiskt mönster. Dessa aktiveringar kodar vad modellen anser är semantiskt intilliggande: konkurrenter, relaterade teknologier, användningsfall, recensionswebbplatser. LarQL gör dessa associationer sökbara.

Kartlägga det semantiska grannskapet för valfritt nyckelord:

-- Vilka begrepp klustrar sig omkring din kärnterm i kunskapszon (lager 12–34)?
WALK "affiliate software" LAYERS 12 TO 34

-- Hitta de bästa associerade enheterna vid toppen av kunskapsdjup
SELECT * FROM edges WHERE entity='affiliate software' NEAREST_TO Layer 22 LIMIT 20

-- Vilka relationstyper använder modellen för denna domän?
SHOW relations

Det du får: en rankad lista över semantiskt intilliggande termer som återspeglar vad modellen (och genom förlängning, webkropussen som den tränades på) anser vara det naturliga grannskapet för ditt ämne — ämnesklyngekandidater, integrationsnyckelord och långsvansa vinklar som konventionella nyckelordverktyg missar eftersom de mäter popularitet, inte semantisk struktur.

Förtroendepoängen från NEAREST_TO indikerar semantisk avstånd i modellens interna representation. Termer med höga förtroendepoäng är djupt sammanflätade med din fråga i modellens kunskap — de är naturliga samförekomstmål för innehållsstrategi.

Bruksfall: Konkurrensupptäckt och märkesamordning

En modell tränad på webskaladata har lärt sig vilka märken som förekommer i samma diskussioner. Detta är signalrikare än bakbindningar eller SERP-samförekomst: det återspeglar modellens konsoliderade tro om vilka företag som verkar i samma utrymme, byggt från miljoner artiklar, recensioner, jämförelsesidor och forumtrådar.

-- Vilka märken anser modellen är samordnade med ditt?
SELECT * FROM edges WHERE entity='YourBrand' NEAREST_TO Layer 19 LIMIT 15

-- Bekräfta att detta är märkesamordning, inte kategoriblandning
DESCRIBE "YourBrand"

-- Kontrollera samma för en specifik konkurrent
SELECT * FROM edges WHERE entity='CompetitorX' NEAREST_TO Layer 19 LIMIT 15

Kryss-referens med inferens för att validera:

-- Producerar modellen konkurrenter i direkta completions?
INFER 'The main alternatives to YourBrand are' TOP 8

-- Monte Carlo-kontroll: vilka märken dyker upp oftast?
INFER 'Companies similar to YourBrand include' TOP 5

Märken som visas både i den interna FFN-spårningen (NEAREST_TO) och i generativa completions (INFER) har högsta förtroende. De representerar modellens konsoliderade konkurrentlandskap — direkt handlingsbar för “vs” jämförelsesidor, migreringsguider och alternativa målsidor.

Bruksfall: Märkesuppfattningsrevision

Innan du distribuerar en LLM i en kundvänd roll — eller innan du lanserar en kampanj — är det värdefullt att förstå hur modellen karakteriserar ditt märke internt. Det är annorlunda från vad modellen säger när den blir tillfrågad: det återspeglar latent associationer byggda från träningsdata, varav några kan motsäga din avsedda positionering.

-- Fullständig karakterisering av ditt märke i modellens kunskap
DESCRIBE "YourBrand"

-- Vilken kategori placerar modellen dig i?
SELECT * FROM edges WHERE entity='YourBrand' AND relation='category'

-- Vilka teknologier är du associerad med?
SELECT * FROM edges WHERE entity='YourBrand' AND relation='integrates_with'

-- Finns det några oönskade associationer?
SELECT * FROM edges WHERE entity='YourBrand' NEAREST_TO Layer 20 LIMIT 30

Lager-för-lager-gång för att se hur associationer utvecklas:

-- Tidiga lager: yttersta samförekomster
-- Mittlager (12–34): faktiska associationer
-- Senare lager: utdataformatering och stil
WALK "YourBrand" LAYERS 10 TO 35

Om modellen placerar ditt märke i fel kategori, associerar det med en konkurrent som det inte bör, eller återspeglar föråldrad positionering, kan dessa luckor läkas direkt med hjälp av kunskapsöverlagermekanismen — korrigera modellens interna representation utan omutbildning.

Bruksfall: Kunskapsluftanalys före distribution

Vid utvärdering av en öppen källmodd för en domänspecifik distribution är den kritiska frågan inte benchmark-prestanda — det är: vet denna modell tillräckligt om vår domän för att vara användbar, och vet den något fel?

LarQL möjliggör en strukturerad pre-distributionskunskapsscan över hela ditt ämnesområde:

-- Steg 1: Revidera produktkunskap
DESCRIBE "YourProduct"
DESCRIBE "YourProduct v2"

-- Steg 2: Kontrollera kategori- och positioneringskunskap
SELECT * FROM edges WHERE entity='YourProduct' AND relation='category'
SELECT * FROM edges WHERE entity='YourProduct' AND relation='primary_use_case'

-- Steg 3: Hitta luckor — ämnen utan associationer
SELECT * FROM edges WHERE entity='your_key_topic' NEAREST_TO Layer 20 LIMIT 5
-- Få eller inga resultat = kunskapslucka

-- Steg 4: Hitta felaktiga fakta
SELECT * FROM edges WHERE entity='YourCompany' AND relation='CEO'
SELECT * FROM edges WHERE entity='YourProduct' AND relation='pricing_model'

-- Steg 5: Patch bekräftade fel före go-live
UPDATE edges SET target='Current CEO Name' WHERE entity='YourCompany' AND relation='CEO'

Detta arbetsflöde ersätter “distribuera och vänta på klagomål”-metoden. En 4-timmars granskning med LarQL mot en Vindex kan avslöja kunskapsluckor och faktafel som annars skulle nå riktiga användare — och reparera dem samma dag, utan GPU krävs.

Bruksfall: Hallucinations-rotorsaksanalys

När en distribuerad LLM producerar ett felaktigt eller skadligt svar är standardsvaret att uppdatera systemprompten eller lägga till skyddsvakter. Men promptuppdateringar behandlar symtom. LarQL möjliggör diagnos på viktnivå: varför trodde modellen det?

-- Återskapa inferencebanan som ledde till felaktigt svar
TRACE 'The CEO of Acme Corp is' TOP 3

-- Hitta lagret där det felaktiga fakta hämtades
-- (Lagernummer i TRACE-utmatning visar där det åtagna svaret kristalliseras)

-- Kontrollera vad modellen faktiskt lagrar för den enheten/relationen
SELECT * FROM edges WHERE entity='Acme Corp' AND relation='CEO'

-- Bekräfta ingen polysemantisk förvirring (samma neuron kodande två saker)
SELECT * FROM edges WHERE entity='Acme Corp' NEAREST_TO Layer 23 LIMIT 10

-- Tillämpa den riktade fixeringen
UPDATE edges SET target='Jane Smith' WHERE entity='Acme Corp' AND relation='CEO'

TRACE-utmatningen visar sannolikhetsfördelningen över lager — från initial syntaxdetektering, genom kunskapsåtervinning i mittlager, till utdataåtagande. Det här är det primära verktyget för rättsmedicinsk analys när en modellorsakad incident kräver regulatorisk eller juridisk dokumentation: det visar var det felaktiga fakta kom in i inferencebanan och varför modellen var säker på det.

Prestanda referens (Apple Silicon)

OperationTid
Grindkinnsökning per skikt0,008 ms
Fullt WALK över 34 skikt0,3 ms
Fullständig inferens (med uppmärksamhet)517 ms
UppdateringtillämpningOmedelbar (filöverlay)
Vindex storlek — Gemma 3 4B, f16~3 GB

Vindex-bläddring och SELECT-frågor körs helt på CPU. INFER och TRACE kräver att modellen laddas.

Förhållande till LLM kunskapstjänster

LarQL är den bakomliggande tekniken bakom varje tjänst i LLM-kunskapslivscykeln:

  • Pre-distributionsrevision: DESCRIBE, SELECT och NEAREST_TO skanna modellens kunskap över din domän före go-live
  • Kunskapsunderhål: patch overlay-mekanismen (INSERT, UPDATE, DELETE) tillämpar korrigeringar direkt på distribuerade vikter utan omutbildning
  • Överensstämmelse och revisionsslip: SHOW patches tillhandahåller en granskningsbar register över varje fakta som ändras i en modell
  • SEO-intelligens: WALK och NEAREST_TO exponera modellens interna semantiska karta för valfritt ämnesområde
  • Konkurrens- och märkeanalys: NEAREST_TO med INFER kryss-validering exponera modellens samordningstro på viktnivå
  • Hallucinations rättsöversättning: TRACE dekomponera inferencebanan lager för lager, identifiera exakt där ett felaktigt svar hämtades och åtogs

Vanliga frågor

Är du redo att bygga din egen AI?

Intelligenta chatbots och AI-verktyg under ett tak. Anslut intuitiva block för att omvandla dina idéer till automatiserade flöden.

Lär dig mer

LIX-läsbarhetsmått
LIX-läsbarhetsmått

LIX-läsbarhetsmått

Lär dig om LIX-läsbarhetsmåttet—en formel utvecklad för att bedöma textkomplexitet genom att analysera meningslängd och långa ord. Förstå dess tillämpningar ino...

7 min läsning
LIX Readability +5
Språkdetektion
Språkdetektion

Språkdetektion

Språkdetektion i stora språkmodeller (LLM:er) är processen där dessa modeller identifierar vilket språk en given text är skriven på, vilket möjliggör korrekt ha...

4 min läsning
Language Detection LLMs +4