LarQL (LQL)

Čo je LarQL?

LarQL — tiež označované ako LQL — je query jazyk určený na priamu interakciu so znalostami kódovanými v váhach veľkých jazykových modelov (LLM). Používa známu SQL-podobnú syntaxu (SELECT, INSERT, UPDATE, DELETE, DESCRIBE) aplikovanú nie na riadky relačnej databázy, ale na štruktúrovaný graf znalostí, ktorý LLM vytvára interné počas tréningu.

Kde tradičné nástroje zaobchádzajú s váhami modelu ako s nepriesvitným binárnym blokom, LarQL s nimi zaobchádza ako s queryovateľným skladom znalostí. Praktik môže skontrolovať, aké znalosti má model o konkrétnej entite, presne sledovať, ako model dospievá k danému odvodzovaniu a aplikovať cielené opravy znalostí — všetko bez retréningu modelu alebo úpravy súborov základných váh.

Základné koncepty

Vindex

Vindex (vektorový index) je extrahovaná, queryovateľná reprezentácia interných znalostí modelu. Generuje sa z váh modelu pomocou príkazu larql extract-index a uloží sa ako samostatný súbor. Po extrahovaní je možné Vindex prehliadať a dotazovať bez načítania úplného modelu — a bez hardvéru GPU.

Vindex kóduje naučené asociácie modelu medzi entitami, vzťahmi a vrstvami, čo umožňuje klásť otázky ako: “Čo si tento model myslí, že je sídlom spoločnosti Apple?” alebo “Aké pojmy si tento model spája s GDPR blízko vrstvy 20?”

Opravy Overlay

Operácie zápisu LarQL — INSERT, UPDATE, DELETE — neupravujú súbory základných váh modelu. Namiesto toho vytvárajú overlay súboru .patch, ktorý sa aplikuje v čase odvodzovaniá. To robí úpravy znalostí:

  • Okamžité: bez kroku rekompilácie alebo doladenia
  • Reverzibilné: základný model zostáva nezmenený; opravy je možné odstrániť alebo nahradiť
  • Ľahké: oprava pokrývajúca 234 faktov vyžaduje približne 2,1 MB oproti základnému modelu o veľkosti 16 GB
Logo

Pripravení rozšíriť svoje podnikanie?

Začnite svoju 30-dňovú skúšobnú verziu ešte dnes a vidzte výsledky behom pár dní.

Nastavenie LarQL

Ak chcete začať pracovať so znalostami modelu, extrahujte Vindex a otvorte interaktívny REPL:

larql extract-index path/to/your-model -o company-model.vindex --f16
larql repl

Príznak --f16 extrahuje index s presnosťou 16-bitového pohyblivého čísla. Výsledný Vindex pre model ako Gemma 3 4B je približne 3 GB.

Prehliadanie znalostí modelu

Tieto príkazy fungujú na extrahovanom Vindex a nevyžadujú GPU:

Skontrolujte konkrétnu entitu:

DESCRIBE "Apple Inc"

Vracia všetky znalosti, ktoré má model o entite, organizované podľa vrstvy a funkcie: priemysel, produkty, sídlo, founded_by, stock_ticker a akýkoľvek iný vzťah naučený počas tréninku.

Dotaz na konkrétny vzťah vo všetkých entitách:

SELECT * FROM edges WHERE relation='headquarters' LIMIT 10

Nájdite asociácie pojmov podľa vzdialenosti:

SELECT * FROM edges WHERE entity='GDPR' NEAREST_TO Layer 20 LIMIT 5

Nájde päť pojmov, ktoré sú GDPR najbližšie spojené blízko vrstvy 20 reprezentácie znalostí modelu.

Zoznam všetkých typov vzťahov, ktoré sa model naučil:

SHOW relations

Vracia úplný zoznam typov vzťahov prítomných v modeli. Typický model strednej veľkosti kóduje viac ako 1 000 typov vzťahov.

Odvodzovaniá a sledovanie

Spustite odvodzovaniá s skóre pravdepodobnosti:

INFER 'The headquarters of Apple is located in' TOP 5

Vracia prvých 5 dokončení so skóre dôvery (napr. Cupertino 0,71, Kalifornia 0,14 atď.).

Sledujte odvodzovaniá vrstvu po vrstve:

TRACE 'The CEO of Tesla is' TOP 3

Vytvorí rozpad po vrstvách ukazujúci, ako model vytvára svoj výstup — od počiatočného zistenia syntaxe cez identifikáciu domény, získavanie znalostí až po záväzok výstupu. Používa sa na forenziku halucinácií, keď model vyprodukuje neočakávanú alebo chybnú odpoveď.

Prejdite koncept cez vrstvy:

WALK "climate change" LAYERS 10 TO 28

Ukazuje, ako sa asociácie modelu pre koncept vyvíjajú cez vrstvy — od konkrétneho textového spoluzemotania v raných vrstvách k abstraktným sémantickým asociáciám v hlbších vrstvách.

Úprava znalostí pomocou opráv Overlay

Operácie zápisu LarQL vytvoria overlay .patch bez dotyku súborov základného modelu:

Vložte nový fakt:

INSERT INTO edges (entity, relation, target, confidence)
VALUES ('Acme Corp', 'CEO', 'Jane Smith', 0.95)

Aktualizujte existujúci fakt:

UPDATE edges
SET target = 'Jane Smith'
WHERE entity = 'Acme Corp' AND relation = 'CEO'

Potlačte fakt:

DELETE FROM edges
WHERE entity = 'Acme Corp' AND relation = 'former_CEO'

Skontrolujte aktívne opravy:

SHOW patches

Vypíše všetky aktívne súbory opravy, ich veľkosti a počty faktov. Oprava so 234 faktami oproti základnému modelu o veľkosti 16 GB činí približne 2,1 MB.

Prípad použitia auditu: Overenie znalostí pred nasadením

Kompletný pracovný postup overenia pred nasadením pomocou LarQL:

-- 1. Skontrolujte, čo model vie o vašom produkte
DESCRIBE "Acme Corp"

-- 2. Nájdite nesprávne asociácie
SELECT * FROM edges WHERE entity='Acme Corp' AND relation='CEO'

-- 3. Overte, že nedochádza k zámene konkurenčnej značky
SELECT * FROM edges WHERE entity='Acme Corp' NEAREST_TO Layer 20 LIMIT 10

-- 4. Opravte všetky nesprávne fakty pred nasadením
UPDATE edges SET target='Jane Smith' WHERE entity='Acme Corp' AND relation='CEO'

Tento pracovný postup je základom auditu modelu pred nasadením: systematické overenie, že interné znalosti modelu sú presné pre vašu doménu pred ich vystavením používateľom.

Prípad použitia: SEO inteligencia z váh modelu

Jazykový model trénovaný na bilióny webových dokumentov internalizoval sémantickú štruktúru každého priestoru tém, na ktorý sa narazil. Namiesto skrapovania SERPs alebo nákupu údajov o kľúčových slovách môžete čítať štruktúru priamo sondovaním interných reprezentácií modelu — nie je potrebná generácia.

Keď zadáte dotaz ako "affiliate software" na LLM, špecifické neuróny vo vrstvách feed-forward strieľajú v charakteristickom vzore. Tieto aktivácie kódujú, čo model považuje za sémanticky susedné: konkurentov, súvisiacich technológií, prípady použitia, recenzné weby. LarQL tieto asociácie robí queryovateľnými.

Mapujte sémantické susedstvo akéhokoľvek kľúčového slova:

-- Aké koncepty sa skupujú okolo vášho základného termínu v zóne znalostí (vrstvy 12–34)?
WALK "affiliate software" LAYERS 12 TO 34

-- Nájdite najlepšie pridružené entity na vrchole hĺbky znalostí
SELECT * FROM edges WHERE entity='affiliate software' NEAREST_TO Layer 22 LIMIT 20

-- Aké typy vzťahov model používa pre túto doménu?
SHOW relations

To, čo dostanete: utriedený zoznam sémanticky susedných termínov odrážajúcich to, čo model (a rozšírením, webový korpus, na ktorom bol trénovaný) považuje za prírodné susedstvo vášho témy — kandidáti na tematické zhluky, kľúčové slová integrácie a dlhé uhlové uhly, ktoré konvenčné nástroje kľúčových slov prehliadajú, pretože merajú popularitu, nie sémantickú štruktúru.

Skóre dôvery z NEAREST_TO označujú sémantickú vzdialenosť v internej reprezentácii modelu. Termíny s vysokými skórami dôvery sú hlboko prepletené s vašou otázkou v znalosttiach modelu — sú prirodzenými cieľmi spochwýtania pre stratégiu obsahu.

Prípad použitia: Objavovanie konkurencie a spolulokalizácia značky

Model trénovaný na webskálových dátach sa naučil, ktoré značky sa zobrazujú v rovnakých diskusiách. Toto je signálom bohatšie ako prekrytie spätných odkazov alebo SERP spoluwýskyt: odráža konsolidovanú veru modelu o tom, ktoré firmy pôsobia v rovnakom priestore, postavenom z miliónov článkov, hodnotení, porovnávacích stránok a vlákien fóra.

-- Ktoré značky model považuje za spolulokalizované s vašou?
SELECT * FROM edges WHERE entity='YourBrand' NEAREST_TO Layer 19 LIMIT 15

-- Potvrďte, že ide o spolulokalizáciu značky, nie zmätok kategórie
DESCRIBE "YourBrand"

-- Skontrolujte to isté pre konkrétneho konkurenta
SELECT * FROM edges WHERE entity='CompetitorX' NEAREST_TO Layer 19 LIMIT 15

Krížová referencia s inferencou na overenie:

-- Produkuje model konkurentov v priamych doplneniach?
INFER 'The main alternatives to YourBrand are' TOP 8

-- Kontrola Monte Carlo: ktoré značky sa objavujú najčastejšie?
INFER 'Companies similar to YourBrand include' TOP 5

Značky, ktoré sa objavujú v oboch interných FFN trasách (NEAREST_TO) a v generatívnych doplneniach (INFER) majú najvyššiu dôveru. Predstavujú konsolidovaný konkurenčný krajinný reliéf modelu — priamo činný pre stránky porovnávania “vs”, migračné sprievodcov a alternatívne cieľové stránky.

Prípad použitia: Audit vnímania značky

Pred nasadením LLM v role orientovanej na zákazníka — alebo pred spustením kampane — stojí za to pochopiť, ako model charakterizuje vašu značku interné. Toto sa líši od toho, čo model hovorí keď je na otázku: odráža latentné asociácie vytvorené z trénovacích údajov, z ktorých niektoré môžu byť v rozpore s vašim zamýšľaným pozicionovaním.

-- Úplná charakterizácia vašej značky v znalostmach modelu
DESCRIBE "YourBrand"

-- Do ktorej kategórie vás model zaraďuje?
SELECT * FROM edges WHERE entity='YourBrand' AND relation='category'

-- S akými technológiami ste asociovaní?
SELECT * FROM edges WHERE entity='YourBrand' AND relation='integrates_with'

-- Existujú nežiaduce asociácie?
SELECT * FROM edges WHERE entity='YourBrand' NEAREST_TO Layer 20 LIMIT 30

Krok vrstvu za vrstvou, aby ste videli, ako sa asociácie vyvíjajú:

-- Skoré vrstvy: povrchné spoluwýskyty
-- Stredné vrstvy (12–34): faktické asociácie
-- Neskôr vrstvy: formátovanie výstupu a štýl
WALK "YourBrand" LAYERS 10 TO 35

Ak model zaradí vašu značku do nesprávnej kategórie, spája ju s konkurentom, s ktorým by nemal, alebo odráža zastarané pozicionovanie, tieto medzery je možné opraviť priamo pomocou mechanizmu prelozhnutia znalostí — opravu internej reprezentácie modelu bez retréningu.

Prípad použitia: Analýza medzery vedomostí pred nasadením

Pri hodnotení modelu s otvoreným zdrojom pre nasadenie špecifické pre doménu je kritické otázkou nie výkonnosti benchmarku — to je: pozná tento model dostatok o našej doméne na to, aby bol užitočný, a pozná niečo zle?

LarQL umožňuje štruktúrované pred-nasadením znalostí skenovanie v celej oblasti tém:

-- Krok 1: Audit vedomostí o produkte
DESCRIBE "YourProduct"
DESCRIBE "YourProduct v2"

-- Krok 2: Kontrola znalostí kategórie a pozicionovania
SELECT * FROM edges WHERE entity='YourProduct' AND relation='category'
SELECT * FROM edges WHERE entity='YourProduct' AND relation='primary_use_case'

-- Krok 3: Nájdite medzery — témy bez asociácií
SELECT * FROM edges WHERE entity='your_key_topic' NEAREST_TO Layer 20 LIMIT 5
-- Niekoľko alebo bez výsledkov = medzera vedomostí

-- Krok 4: Nájdite zle fakty
SELECT * FROM edges WHERE entity='YourCompany' AND relation='CEO'
SELECT * FROM edges WHERE entity='YourProduct' AND relation='pricing_model'

-- Krok 5: Opravujte potvrdené chyby pred spustením
UPDATE edges SET target='Current CEO Name' WHERE entity='YourCompany' AND relation='CEO'

Tento pracovný postup nahrádza prístup “nasad a čakaj na sťažnosti”. Štvrhodinový audit pomocou LarQL na Vindex môže odhaliť medzery vedomostí a faktické chyby, ktoré by inak dosiahli skutočných používateľov — a opraviť ich ten istý deň, bez GPU.

Prípad použitia: Analýza hlavnej príčiny halucinácií

Keď nasadený LLM produkuje nesprávnu alebo škodlivú odpoveď, štandardná odpoveď je aktualizovať systémový prompt alebo pridať gardians. Ale opravy promptu liečia symptómy. LarQL umožňuje diagnostiku na úrovni váhy: prečo si model myslel to?

-- Reprodukujte cestu odvodzovaniá, ktorá viedla k nesprávnej odpovedi
TRACE 'The CEO of Acme Corp is' TOP 3

-- Nájdite vrstvu, kde bola obnámená nesprávna skutočnosť
-- (Čísla vrstiev v TRACE výstupe ukazujú, kde sa kritalizuje zaviazaná odpoveď)

-- Skontrolujte, čo model skutočne ukladá pre túto entitu/vzťah
SELECT * FROM edges WHERE entity='Acme Corp' AND relation='CEO'

-- Potvrďte žiadne polysemantické zmätenie (tá istá neurónová kódovanie dva veci)
SELECT * FROM edges WHERE entity='Acme Corp' NEAREST_TO Layer 23 LIMIT 10

-- Aplikujte cielené opravy
UPDATE edges SET target='Jane Smith' WHERE entity='Acme Corp' AND relation='CEO'

Výstup TRACE ukazuje rozdelenie pravdepodobnosti medzi vrstvami — od počiatočného zistenia syntaxe, cez získavanie znalostí v stredných vrstvách, až po záväzok výstupu. Toto je primárny nástroj na analýzu zákonnej medicíny, keď incident spôsobený modelom vyžaduje regulačnú alebo právnu dokumentáciu: demonštruje kde nesprávna skutočnosť vstúpila na cestu odvodzovaniá a prečo bol model presvedčený.

Referencia výkonu (Apple Silicon)

OperáciaČas
Vyhľadávanie brán KNN za vrstvu0,008 ms
Úplný WALK cez 34 vrstiev0,3 ms
Úplné odvodzovaniá (s pozornosťou)517 ms
Aplikácia opravyOkamžitá (súborový overlay)
Veľkosť Vindex — Gemma 3 4B, f16~3 GB

Prehliadanie Vindex a dotazy SELECT sa spúšťajú úplne na CPU. INFER a TRACE vyžadujú načítanie modelu.

Vzťah ku službám znalostí LLM

LarQL je základná technológia za každou službou v cykle životnosti znalostí LLM:

  • Audit pred nasadením: DESCRIBE, SELECT a NEAREST_TO skenovať znalosti modelu v celej vašej doméne pred spustením
  • Údržba vedomostí: mechanizmus opravy overlay (INSERT, UPDATE, DELETE) aplikujú opravy priamo na nasadené váhy bez retréningu
  • Súlad a audit trail: SHOW patches poskytuje audovateľný záznam každého faktu zmeneného v modeli
  • SEO inteligencia: WALK a NEAREST_TO odhaliť internú sémantickú mapu modelu o ľubovoľnom priestore tém
  • Konkurenčná a značka analýza: NEAREST_TO s INFER krížová validácia odhaliť very spolulokalizácie modelu na úrovni váhy
  • Halucinačná forenzika: TRACE rozložiť cestu odvodzovaniá vrstvu za vrstvou, identifikované presne, kde bola nesprávna odpoveď obnámená a zaviazaná

Najčastejšie kladené otázky

Ste pripravení vytvoriť si vlastnú AI?

Inteligentné chatboty a AI nástroje pod jednou strechou. Prepájajte intuitívne bloky na transformáciu svojich nápadov na automatizované toky.

Zistiť viac

Detekcia jazyka
Detekcia jazyka

Detekcia jazyka

Detekcia jazyka vo veľkých jazykových modeloch (LLM) je proces, ktorým tieto modely identifikujú jazyk vstupného textu, čo umožňuje presné spracovanie pre viacj...

4 min čítania
Language Detection LLMs +4
Ladenie pomocou inštrukcií
Ladenie pomocou inštrukcií

Ladenie pomocou inštrukcií

Ladenie pomocou inštrukcií je technika v oblasti AI, ktorá dolaďuje veľké jazykové modely (LLM) na pároch inštrukcia-odpoveď, čím zlepšuje ich schopnosť nasledo...

4 min čítania
Instruction Tuning AI +3