Groot taalmodel (LLM)
Een Groot Taalmodel (LLM) is een type AI dat is getraind op enorme hoeveelheden tekstuele data om menselijke taal te begrijpen, genereren en manipuleren. LLM's ...
LarQL (LQL) is een SQL-achtige querytaal voor het inspecteren, bewerken en audieren van kennis opgeslagen in LLM-gewichten. Query modelinternals, traceer afleidingspaden, ontdek semantische buurten voor SEO, auditeren brandperceptie en pas doelgerichte kennispatches toe zonder herscholing.
LarQL — ook wel LQL genoemd — is een querytaal die is ontworpen om rechtstreeks met de kennis gecodeerd in grote taalmodelgewichten (LLM) te communiceren. Het gebruikt vertrouwde SQL-achtige syntaxis (SELECT, INSERT, UPDATE, DELETE, DESCRIBE) toegepast niet op rijen in een relationele database, maar op de gestructureerde kennisgraaf die LLM’s intern bouwen tijdens training.
Terwijl traditionele tools modelgewichten als een ondoorzichtige binaire blob behandelen, behandelt LarQL ze als een queerbare kennisopslag. Een praktijkmedewerker kan inspecteren wat een model over een specifieke entiteit weet, precies traceren hoe het model tot een bepaalde afleiding komt en doelgerichte kennispatches toepassen — alles zonder het model opnieuw te trainen of basisgewichtbestanden te wijzigen.
Een Vindex (vectorindex) is de geëxtraheerde, queerbare representatie van de interne kennis van een model. Het wordt gegenereerd uit modelgewichten met behulp van de larql extract-index-opdracht en opgeslagen als een zelfstandig bestand. Na extractie kan een Vindex zonder het volledige model te laden worden doorzocht en bevraagd — en zonder GPU-hardware.
Vindex codeert de geleerde associaties van het model tussen entiteiten, relaties en lagen, waardoor het mogelijk is vragen te stellen als: “Wat denkt dit model dat het hoofdkwartier van Apple is?” of “Welke concepten associeert dit model met GDPR nabij laag 20?”
LarQL’s schrijfbewerkingen — INSERT, UPDATE, DELETE — wijzigen niet de basismodelgewichtbestanden. In plaats daarvan creëren ze een .patch-bestandsoverlay dat op inferencetijd wordt toegepast. Dit maakt kennisbewerking:
Om aan de slag te gaan met de kennis van een model, extraheert u een Vindex en opent u de interactieve REPL:
larql extract-index path/to/your-model -o company-model.vindex --f16
larql repl
De vlag --f16 extraheert de index met 16-bits drijvende-komma nauwkeurigheid. De resulterende Vindex voor een model als Gemma 3 4B is ongeveer 3 GB.
Deze opdrachten werken op basis van de geëxtraheerde Vindex en vereisen geen GPU:
Inspecteer een specifieke entiteit:
DESCRIBE "Apple Inc"
Retourneert alle kennis die het model over de entiteit heeft, georganiseerd per laag en functie: industrie, producten, hoofdkwartier, founded_by, stock_ticker en elke andere relatie die tijdens training is geleerd.
Query een specifieke relatie over alle entiteiten:
SELECT * FROM edges WHERE relation='headquarters' LIMIT 10
Zoek conceptassociaties op afstand:
SELECT * FROM edges WHERE entity='GDPR' NEAREST_TO Layer 20 LIMIT 5
Vindt de vijf concepten die het nauwst zijn gekoppeld aan GDPR nabij laag 20 van de kennisrepresentatie van het model.
Vermeld alle relatietype die het model heeft geleerd:
SHOW relations
Retourneert de volledige lijst met relatietype in het model. Een typisch model van gemiddelde grootte codeert meer dan 1.000 relatietype.
Voer inferentie uit met waarschijnlijkheidsscores:
INFER 'The headquarters of Apple is located in' TOP 5
Retourneert de top 5 aanvullingen met betrouwbaarheidsscores (bijv. Cupertino 0,71, Californië 0,14, enz.).
Traceer inferentie laag voor laag:
TRACE 'The CEO of Tesla is' TOP 3
Produceert een laag-voor-laag-afbraak die aantoont hoe het model naar zijn output werkt — van initiële syntaxisdetectie via domeinidentificatie, kennisherwinning tot outputbinding. Wordt gebruikt voor halluccinatieforensische wetenschap als een model een onverwacht of onjuist antwoord produceert.
Loop een concept door lagen:
WALK "climate change" LAYERS 10 TO 28
Toont hoe de associaties van het model voor een concept zich over lagen ontwikkelen — van concrete tekstsamenvoeging in vroege lagen tot abstracte semantische associaties in diepere lagen.
LarQL’s schrijfbewerkingen creëren een .patch-overlay zonder basismodelbestanden aan te raken:
Een nieuw feit invoegen:
INSERT INTO edges (entity, relation, target, confidence)
VALUES ('Acme Corp', 'CEO', 'Jane Smith', 0.95)
Een bestaand feit bijwerken:
UPDATE edges
SET target = 'Jane Smith'
WHERE entity = 'Acme Corp' AND relation = 'CEO'
Een feit onderdrukken:
DELETE FROM edges
WHERE entity = 'Acme Corp' AND relation = 'former_CEO'
Inspecteer actieve patches:
SHOW patches
Vermeldt alle actieve patchbestanden, hun grootte en aantal feiten. Een patch met 234 feiten tegen een 16 GB basismodel totaal ongeveer 2,1 MB.
Een complete verificatieworkflow vóór implementatie met behulp van LarQL:
-- 1. Controleer wat het model over uw product weet
DESCRIBE "Acme Corp"
-- 2. Zoek onjuiste associaties
SELECT * FROM edges WHERE entity='Acme Corp' AND relation='CEO'
-- 3. Controleer op geen concurrerende merkverwarring
SELECT * FROM edges WHERE entity='Acme Corp' NEAREST_TO Layer 20 LIMIT 10
-- 4. Patch eventuele onjuiste feiten vóór implementatie
UPDATE edges SET target='Jane Smith' WHERE entity='Acme Corp' AND relation='CEO'
Deze workflow is de basis voor een modelcontrole vóór implementatie: systematisch verifiëren dat de interne kennis van het model nauwkeurig is voor uw domein voordat deze aan gebruikers wordt blootgesteld.
Een taalmodel getraind op triljoen webdocumenten heeft de semantische structuur van elke onderwerpruimte die het tegenkwam, geïnternaliseerd. In plaats van SERP’s te schrapen of trefwoordgegevens te kopen, kunt u deze structuur rechtstreeks lezen door de interne representaties van het model te onderzoeken — geen generatie vereist.
Wanneer u een query zoals "affiliate software" naar een LLM indient, branden specifieke neuronen in feedforward-lagen in een karakteristiek patroon. Deze activaties coderen wat het model semantisch aangrenzend beschouwt: concurrenten, gerelateerde technologieën, gebruiksscenario’s, beoordelingssites. LarQL maakt deze associaties opvraagbaar.
Wijk de semantische buurt van elk trefwoord in kaart:
-- Welke concepten clusteren rond uw kernterm in de kenniszone (lagen 12–34)?
WALK "affiliate software" LAYERS 12 TO 34
-- Zoek de meest verwante entiteiten op topkennisdiepte
SELECT * FROM edges WHERE entity='affiliate software' NEAREST_TO Layer 22 LIMIT 20
-- Welke relatietype gebruikt het model voor dit domein?
SHOW relations
Wat u krijgt: een gerangschikt lijstje van semantisch aangrenzende termen die weerspiegelen wat het model (en bij uitbreiding, het webcorpus waarop het werd getraind) als de natuurlijke buurt van uw onderwerp beschouwt — onderwerpclusterkandidaten, integratietrefwoorden en staarthoeken die traditionele trefwoordtools missen omdat ze populariteit meten, niet semantische structuur.
De vertrouwensscores van NEAREST_TO geven semantische afstand in de interne representatie van het model aan. Termen met hoge vertrouwensscores zijn diep verweven met uw query in de kennis van het model — ze zijn natuurlijke co-occurrencedoelen voor contentstrategie.
Een model getraind op webschaalgegevens heeft geleerd welke merken in dezelfde discussies voorkomen. Dit is signaalrijker dan backlink-overlap of SERP-co-voorkomen: het weerspiegelt de geconsolideerde overtuiging van het model over welke bedrijven in dezelfde ruimte opereren, gebouwd uit miljoenen artikelen, beoordelingen, vergelijkingspagina’s en forumdraden.
-- Welke merken beschouwt het model als medegeleide met uw merk?
SELECT * FROM edges WHERE entity='UwMerk' NEAREST_TO Layer 19 LIMIT 15
-- Controleer of dit merkco-locatie is, geen categorieconflict
DESCRIBE "UwMerk"
-- Controleer hetzelfde voor een specifieke concurrent
SELECT * FROM edges WHERE entity='ConcurrentX' NEAREST_TO Layer 19 LIMIT 15
Kruis-valideer met inferentie:
-- Produceert het model concurrenten in directe voltooiingen?
INFER 'De belangrijkste alternatieven voor UwMerk zijn' TOP 8
-- Monte Carlo-controle: Welke merken komen het meest voor?
INFER 'Bedrijven vergelijkbaar met UwMerk zijn' TOP 5
Merken die in zowel interne FFN-tracering (NEAREST_TO) als generatieve afmakingen (INFER) voorkomen, hebben het hoogste vertrouwen. Ze vertegenwoordigen het geconsolideerde concurrentielandschap van het model — rechtstreeks bruikbaar voor “vs” vergelijkingspagina’s, migratiehandleidingen en alternatieve landingspagina’s.
Voordat u een LLM in een klantgerichte rol implementeert — of voordat u een campagne lanceert — is het de moeite waard te begrijpen hoe het model uw merk intern karakteriseert. Dit verschilt van wat het model zegt wanneer daarom wordt gevraagd: het weerspiegelt latente associaties die zijn opgebouwd uit trainingsgegevens, waarvan sommige kunnen conflicteren met uw beoogde positionering.
-- Volledige karakterisering van uw merk in de kennis van het model
DESCRIBE "UwMerk"
-- In welke categorie plaatst het model u?
SELECT * FROM edges WHERE entity='UwMerk' AND relation='category'
-- Met welke technologieën bent u geassocieerd?
SELECT * FROM edges WHERE entity='UwMerk' AND relation='integrates_with'
-- Zijn er ongewenste associaties?
SELECT * FROM edges WHERE entity='UwMerk' NEAREST_TO Layer 20 LIMIT 30
Loop laag voor laag om te zien hoe associaties evolueren:
-- Vroege lagen: oppervlakte-co-voorkomen
-- Middenlagen (12–34): feitelijke associaties
-- Latere lagen: outputformatering en stijl
WALK "UwMerk" LAYERS 10 TO 35
Als het model uw merk in de verkeerde categorie plaatst, het associeert met een concurrent dat niet zou moeten zijn, of verouderde positionering weerspiegelt, kunnen deze gaten rechtstreeks worden gerepareerd met behulp van het kennisoverlay-mechanisme — de interne representatie van het model corrigeren zonder herscholing.
Bij het evalueren van een open-source-model voor domeinspecifieke implementatie is de kritieke vraag niet benchmarkprestaties — het is: weet dit model genoeg over ons domein om nuttig te zijn, en weet het iets verkeerd?
LarQL maakt een gestructureerde pre-implementatiekenniscan over uw hele onderwerpgebied mogelijk:
-- Stap 1: Productkennis controleren
DESCRIBE "UwProduct"
DESCRIBE "UwProduct v2"
-- Stap 2: Categorie- en positioneringskennis controleren
SELECT * FROM edges WHERE entity='UwProduct' AND relation='category'
SELECT * FROM edges WHERE entity='UwProduct' AND relation='primary_use_case'
-- Stap 3: Zoek hiaten — onderwerpen zonder associaties
SELECT * FROM edges WHERE entity='your_key_topic' NEAREST_TO Layer 20 LIMIT 5
-- Weinig of geen resultaten = kennishiaat
-- Stap 4: Zoek foutieve feiten
SELECT * FROM edges WHERE entity='UwBedrijf' AND relation='CEO'
SELECT * FROM edges WHERE entity='UwProduct' AND relation='pricing_model'
-- Stap 5: Patch bevestigde fouten vóór go-live
UPDATE edges SET target='Huidige directeur naam' WHERE entity='UwBedrijf' AND relation='CEO'
Deze werkstroom vervangt de “implementeer en wacht op klachten”-benadering. Een vieruurse audit met behulp van LarQL tegen een Vindex kan kennishiaten en feitelijke fouten aan het licht brengen die anders echte gebruikers zouden bereiken — en ze dezelfde dag repareren, zonder GPU nodig.
Wanneer een geïmplementeerde LLM een onjuist of schadelijk antwoord produceert, is het standaardantwoord om de systeemaanwijzing bij te werken of guardrails toe te voegen. Maar aanwijzingspatches behandelen symptomen. LarQL maakt diagnose op gewichtsniveau mogelijk: waarom geloofde het model dat?
-- Het gevolgtrekkingspad opnieuw creëren dat tot het foutieve antwoord leidde
TRACE 'De directeur van Acme Corp is' TOP 3
-- Zoek de laag waar het foutieve feit werd opgehaald
-- (Laagnummers in TRACE-uitvoer geven aan waar het gelegde antwoord kristalliseert)
-- Controleer wat het model daadwerkelijk opslaat voor die entiteit/relatie
SELECT * FROM edges WHERE entity='Acme Corp' AND relation='CEO'
-- Controleer op geen polysemantische verwarring (dezelfde neuron codeert twee dingen)
SELECT * FROM edges WHERE entity='Acme Corp' NEAREST_TO Layer 23 LIMIT 10
-- De gerichte correctie toepassen
UPDATE edges SET target='Jane Smith' WHERE entity='Acme Corp' AND relation='CEO'
De TRACE-uitvoer toont de waarschijnlijkheidsverdeling over lagen — van initiële syntaxisdetectie, via kennisherwinning in middenlagen tot outputbinding. Dit is het primaire hulpmiddel voor forensische analyse wanneer een modelgeïnduceerd incident regelgevings- of wettelijke documentatie vereist: het toont waar het foutieve feit het gevolgtrekkingspad binnenkwam en waarom het model er zeker van was.
| Bewerking | Tijd |
|---|---|
| Gate KNN-opzoeken per laag | 0,008 ms |
| Volledige WALK over 34 lagen | 0,3 ms |
| Volledige inferentie (met aandacht) | 517 ms |
| Patchtoepassing | Onmiddellijk (bestandsoverlay) |
| Vindex-grootte — Gemma 3 4B, f16 | ~3 GB |
Vindex-bladeren en SELECT-query’s werken volledig op CPU. INFER en TRACE vereisen dat het model wordt geladen.
LarQL is de onderliggende technologie achter elke service in de LLM-kennislevenscyclus:
DESCRIBE, SELECT, en NEAREST_TO scannen de kennis van het model in uw domein vóór go-liveINSERT, UPDATE, DELETE) passen correcties rechtstreeks toe op geïmplementeerde gewichten zonder herscholingSHOW patches biedt een auditeerbaar verslag van elk feit dat in een model is gewijzigdWALK en NEAREST_TO onthullen de interne semantische kaart van het model van elke onderwerpruimteNEAREST_TO met INFER kruis-validatie onthult de merkco-locatieovertuigingen van het model op gewichtsniveauTRACE breekt het gevolgtrekkingspad laag voor laag af en identificeert precies waar een onjuist antwoord werd opgehaald en vastgesteldIntelligente chatbots en AI-tools onder één dak. Verbind intuïtieve blokken om uw ideeën in geautomatiseerde stromen om te zetten.
Een Groot Taalmodel (LLM) is een type AI dat is getraind op enorme hoeveelheden tekstuele data om menselijke taal te begrijpen, genereren en manipuleren. LLM's ...
Large Language Model Meta AI (LLaMA) is een geavanceerd model voor natuurlijke taalverwerking, ontwikkeld door Meta. Met tot 65 miljard parameters blinkt LLaMA ...
Lees meer over de LIX Leesbaarheidsmaat—een formule die is ontwikkeld om tekstcomplexiteit te beoordelen door het analyseren van zinslengte en lange woorden. Be...