LarQL (LQL)

Mikä on LarQL?

LarQL — viitaten myös nimellä LQL — on kyselykieli, joka on suunniteltu suoraan vuorovaikutukseen suurten kielimallien (LLM) painoihin koodatun tiedon kanssa. Se käyttää tuttua SQL-kaltaista syntaksia (SELECT, INSERT, UPDATE, DELETE, DESCRIBE), joka sovelletaan ei relatiivisen tietokannan riveihin vaan strukturoituun tietokaavioihin, joita LLM:t rakentavat sisäisesti koulutuksen aikana.

Kun perinteiset työkalut käsittelevät mallin painoja opaakin binäärinä sijoina, LarQL käsittelee niitä kyselykelpoisen tietovaraston kohdalla. Ammattilainen voi tarkastaa, mitä malli tietää tietystä entiteetistä, jäljittää tarkasti kuinka malli saavuttaa tietyn päätelmän ja soveltaa kohdennettuja tietokorjauksia — kaikki ilman mallin uudelleenkoulutusta tai peruspainojen tiedostojen muokkaamista.

Ydinkonkeptit

Vindex

Vindex (vektorihakemisto) on mallin sisäisen tiedon poimittu, kyselykelpoinen esitys. Se luodaan mallin painoista käyttämällä larql extract-index-komentoa ja tallennetaan erillisenä tiedostona. Kun se on poimittu, Vindex voidaan selata ja kysyä ilman täyden mallin lataamista — ja ilman GPU-laitteistoa.

Vindex koodaa mallin oppimia assosiaatioita entiteettien, suhteiden ja kerrosten välillä, mikä tekee mahdolliseksi kysyä: “Mitä tämä malli uskoo olevan Applen pääkonttoria?” tai “Mitä käsitteitä tämä malli liittää GDPR:ään lähellä kerrosta 20?”

Korjaustasot

LarQL:n kirjoitusoperaatiot — INSERT, UPDATE, DELETE — eivät muokkaa perusmallin painotiedostoja. Sen sijaan ne luovat .patch-tiedostopeitto, joka sovelletaan päättelynaikaisesti. Tämä tekee tiedon muokkauksesta:

  • Välitöntä: ei uudelleenkääntämistä tai hienonsäätöä
  • Palautuva: perusmalli pysyy muuttumattomana; korjauksia voidaan poistaa tai korvata
  • Kevyt: 234 tosiasiaa kattava korjaus vaatii noin 2,1 MB:ta 16 GB:n perustallista
Logo

Valmis kasvattamaan liiketoimintaasi?

Aloita ilmainen kokeilujakso tänään ja näe tulokset muutamassa päivässä.

LarQL:n asennus

Mallin tiedon kanssa työskentelemisen aloittamiseksi poiminta Vindex ja avaa vuorovaikutteinen REPL:

larql extract-index path/to/your-model -o company-model.vindex --f16
larql repl

--f16-lippu poimii hakemiston 16-bittisen liukulukutarkkuuden kanssa. Tuloksena oleva Vindex Gemma 3 4B:n kaltaiselle mallille on noin 3 GB.

Mallin tiedon selaaminen

Nämä komennot toimivat poimittua Vindex:ia vastaan ja eivät vaadi GPU:ta:

Tarkasta tietty entiteetti:

DESCRIBE "Apple Inc"

Palauttaa kaiken tiedon, joka mallilla on entiteetistä, järjestettynä kerroksittain ja ominaisuuksittain: teollisuus, tuotteet, pääkonttori, founded_by, stock_ticker ja mikä tahansa muu suhde, joka opittiin koulutuksessa.

Kysy tietystä suhteesta kaikissa entiteeteissä:

SELECT * FROM edges WHERE relation='headquarters' LIMIT 10

Etsi käsiteassosiaaatioita etäisyyden perusteella:

SELECT * FROM edges WHERE entity='GDPR' NEAREST_TO Layer 20 LIMIT 5

Etsii viisi käsitettä, jotka liittyvät lähinnä GDPR:ään lähellä kerrosta 20 mallin tiedon esityksessä.

Listaa kaikki suhteet, joita malli on oppinut:

SHOW relations

Palauttaa täydellisen luettelon mallin olevista suhdetyypeistä. Tyypillinen keskikokoinen malli koodaa yli 1 000 suhdettyypin.

Päätelmä ja jäljitys

Suorita päätelmä todennäköisyyspisteiden kanssa:

INFER 'The headquarters of Apple is located in' TOP 5

Palauttaa 5 parasta täydennystä luottamuspisteiden kanssa (esim. Cupertino 0,71, California 0,14 jne.).

Jäljitä päätelmä kerros kerrokselta:

TRACE 'The CEO of Tesla is' TOP 3

Tuottaa kerroskohtaisen hajoitelman, joka näyttää kuinka malli rakentaa tuloseen — alkuperäisestä syntaksin tunnistuksesta verkkotunnuksen tunnistuksen, tiedon hakemisen ja tulossitoumuksen kautta. Käytetään hallusinaatiolakitieteeseen, kun malli tuottaa odottamattoman tai väärän vastauksen.

Kävele käsite kerroksien läpi:

WALK "climate change" LAYERS 10 TO 28

Näyttää kuinka mallin käsitteiden assosiaatiot kehittyvät kerroksissa — konkreettisista tekstin samanaikaisuuksista varhaisissa kerroksissa abstrakteihin semanttisiin assosiaatioihin syvemmissä kerroksissa.

Tiedon muokkaus korjaustaso-peiteillä

LarQL:n kirjoitusoperaatiot luovat .patch-peitteen koskematta perusmallin tiedostoihin:

Lisää uusi tosiasia:

INSERT INTO edges (entity, relation, target, confidence)
VALUES ('Acme Corp', 'CEO', 'Jane Smith', 0.95)

Päivitä olemassa oleva tosiasia:

UPDATE edges
SET target = 'Jane Smith'
WHERE entity = 'Acme Corp' AND relation = 'CEO'

Tukahduta tosiasia:

DELETE FROM edges
WHERE entity = 'Acme Corp' AND relation = 'former_CEO'

Tarkasta aktiiviset korjaukset:

SHOW patches

Listaa kaikki aktiiviset korjaustiedostot, niiden koot ja tosiasiakertoimet. 234 tosiasiaa sisältävä korjaus 16 GB:n peustaa vastaan yhteensä noin 2,1 MB.

Auditointihaetapaus: Tiedon tarkastaminen ennen käyttöönottoa

Täydellinen käyttöönotto-aikaisesta verifikaatiotyökulku LarQL:a käyttäen:

-- 1. Tarkasta mitä malli tietää tuotteestasi
DESCRIBE "Acme Corp"

-- 2. Etsi vääriä assosiaatioita
SELECT * FROM edges WHERE entity='Acme Corp' AND relation='CEO'

-- 3. Varmista, ettei kilpailevan brändin sekaannusta
SELECT * FROM edges WHERE entity='Acme Corp' NEAREST_TO Layer 20 LIMIT 10

-- 4. Korjaa kaikki väärät tosiasiaat ennen käyttöönottoa
UPDATE edges SET target='Jane Smith' WHERE entity='Acme Corp' AND relation='CEO'

Tämä työnkulku on pohja käyttöönotto-aikaiselle mallin tarkastukselle: järjestelmällisin varmistaa, että mallin sisäinen tieto on tarkka domeenilleen ennen sen paljastamista käyttäjille.

Käyttötapaus: SEO-älykkyys mallin painoista

Kielimalli, joka on koulutettu triljoonille verkkodokumenteille, on sisäistänyt jokaisen aiheenalueen semanttisen rakenteen, jonka se kohtasi. Voit lukea tämän rakenteen suoraan mallisi sisäisten esitysten tutkimalla — ei mitään sukupuolia tarvita.

Kun lähetät kyselyn kuten "affiliate software" LLM:lle, ammutaan tietyt neuronit feedforward-kerroksissa ominaisessa kuviossa. Nämä aktivaatiot koodaavat, mitä malli pitää semanttisesti vierekkäisenä: kilpailijoina, liittyvinä teknologioina, käyttötapauksina, arviointisivustoina. LarQL tekee näistä assosiaatioista kyselytuloksia.

Kartoita minkä tahansa avainsanan semanttinen lähiö:

-- Mitkä käsitteet kasaantuvat ydinpätkän ympärille tietovyöhykkeellä (tasot 12–34)?
WALK "affiliate software" LAYERS 12 TO 34

-- Etsi eniten liittyviä entiteettejä huipputiedon syvyydestä
SELECT * FROM edges WHERE entity='affiliate software' NEAREST_TO Layer 22 LIMIT 20

-- Mitä suhdetyyppejä malli käyttää tälle alueelle?
SHOW relations

Mitä saat: Semanttisesti vierekkäisten termien sijoitettu luettelo, joka heijastaa sitä, mitä malli (ja laajennuksella webkorpus, jolla se koulutettiin) pitää aiheesi luonnollisena lähiöinä — aiheklusterin ehdokkaat, integrointiavainsanat ja pitkän hännän kulmat, joita perinteiset avainsanatyökalut menettävät, koska ne mittaavat suosiota eivät semanttista rakennetta.

NEAREST_TO:n luottamuspisteet osoittavat semanttisen etäisyyden mallin sisäisessä esityksessä. Korkeat luottamuspisteet sisältävät termit ovat syvällä kietoutuneita kyselysi kanssa mallin tiedossa — ne ovat luonnollisia yhdessä esiintymisen tavoitteita sisältöstrategialle.

Käyttötapaus: Kilpailija-löytö ja brändin rinnakkaispaikkaus

Webskaalissa koulutettu malli on oppinut, mitkä tuotemerkit näkyvät samoissa keskusteluissa. Tämä on signaalinäyttörikaampi kuin backlink-päällekkäisyys tai SERP-yhtäaikaisuus: se heijastaa mallin konsolidoitua uskomusta siitä, mitkä yritykset toimivat samassa tilassa, joka on rakennettu miljoonista artikkeleista, arvioinneista, vertailusivu ja foorumiketjuista.

-- Mitkä tuotemerkit malli katsoo olevan rinnankerralla sinun kanssa?
SELECT * FROM edges WHERE entity='SinunTuote' NEAREST_TO Layer 19 LIMIT 15

-- Tarkista, että tämä on tuotteiden rinnakkaispaikkaus, ei kategoriaväärinkäsitys
DESCRIBE "SinunTuote"

-- Tarkista sama tietyn kilpailijan osalta
SELECT * FROM edges WHERE entity='KilpailijaN' NEAREST_TO Layer 19 LIMIT 15

Ristin validointi päätelmällä:

-- Tuottaako malli kilpailijat suorassa täydentämisessä?
INFER 'SinunTuotteen pääasiallisia vaihtoehtoja ovat' TOP 8

-- Monte Carlo-tarkastus: mitkä tuotemerkit näkyvät useimmin?
INFER 'SinunTuotteeseen samankaltaisia yrityksiä ovat' TOP 5

Tuotemerkit, jotka näkyvät sekä sisäisessä FFN-jäljityksessä (NEAREST_TO) että tuottavissa täydennyksissä (INFER), kantavat korkeinta luottamusta. Ne edustävat mallin konsolidoitua kilpailuympäristöä — suoraan käytettävissä “vs” vertailusivuille, siirtymäoppaille ja vaihtoehtoaisille saapumissivuille.

Käyttötapaus: Tuotteiden käsityksen tarkastus

Ennen LLM:n käyttöönottoa asiakaslähtöisessä roolissa — tai ennen kampanjan käynnistystä — kannattaa ymmärtää, kuinka malli kuvaa tuotettasi sisäisesti. Tämä eroaa siitä, mitä malli sanoo, kun sitä kysytään: se heijastaa koulutustiedoista rakennettuja piiloilevia assosiaatioita, joista osa voi olla ristiriidassa tarkoitettujen sijoittamisen kanssa.

-- Täydellinen tuotteen karakterisointi mallin tiedossa
DESCRIBE "SinunTuote"

-- Mihin kategoriaan malli sijoittaa sinut?
SELECT * FROM edges WHERE entity='SinunTuote' AND relation='category'

-- Mihin teknologioihin liityt?
SELECT * FROM edges WHERE entity='SinunTuote' AND relation='integrates_with'

-- Onko haluttamattomia assosiaatioita?
SELECT * FROM edges WHERE entity='SinunTuote' NEAREST_TO Layer 20 LIMIT 30

Kävele kerros kerrokselta nähdäksesi kuinka assosiaatiot kehittyvät:

-- Varhaiset tasot: pinta yhteisesiintuloita
-- Keskitasot (12–34): faktisia assosiaatioita
-- Myöhemmät tasot: tulosmuotoilua ja tyyli
WALK "SinunTuote" LAYERS 10 TO 35

Jos malli sijoittaa tuotettasi väärään kategoriaan, liittää sen kilpailijaan, jonka ei pitäisi olla, tai heijastaa vanhentuneita sijoituksia, nämä aukot voidaan korjata suoraan tietojen silmukkamekanismilla — korjata mallin sisäinen esitys ilman uudelleenkoulutusta.

Käyttötapaus: Tiedon aukko-analyysi ennen käyttöönottoa

Kun arvioidaan avoimen lähdekoodin mallia verkkotunnuskohtaiseen käyttöönottoon, kriittinen kysymys ei ole benchmark-suorituskyky — se on: tietääkö tämä malli tarpeeksi verkkotunnuksestamme ollakseen hyödyllinen, ja tietääkö se jotain väärin?

LarQL mahdollistaa strukturoidun käyttöönotto-edeltävän tiedon skannauksen koko aihealueellasi:

-- Vaihe 1: Tuotetiedon auditointi
DESCRIBE "SinunTuote"
DESCRIBE "SinunTuote v2"

-- Vaihe 2: Tarkista luokka- ja sijoitustiedot
SELECT * FROM edges WHERE entity='SinunTuote' AND relation='category'
SELECT * FROM edges WHERE entity='SinunTuote' AND relation='primary_use_case'

-- Vaihe 3: Etsi aukot — aiheet ilman assosiaatioita
SELECT * FROM edges WHERE entity='sinun_pääaihe' NEAREST_TO Layer 20 LIMIT 5
-- Vähän tai ei tuloksia = tiedon aukko

-- Vaihe 4: Etsi väärät tosiasiaa
SELECT * FROM edges WHERE entity='SinunYritys' AND relation='CEO'
SELECT * FROM edges WHERE entity='SinunTuote' AND relation='pricing_model'

-- Vaihe 5: Korjaa vahvistetut virheet ennen käynnistystä
UPDATE edges SET target='Nykyinen toimitusjohtajan nimi' WHERE entity='SinunYritys' AND relation='CEO'

Tämä työnkulku korvaa “käynnistä ja odota valituksia” -lähestymistavan. Neljän tunnin LarQL-auditointi Vindex:ia vastaan voi paljastaa tiedon aukot ja faktavirheet, jotka muuten saavuttaisivat todellisia käyttäjiä — ja korjata ne samana päivänä, ilman GPU:ta.

Käyttötapaus: Harhaluulon pääsyyn analyysi

Kun käyttöön otettu LLM tuottaa väärän tai haitallisen vastauksen, vakiovaste on päivittää järjestelmäkehote tai lisätä suojaukset. Mutta kehotepaikat hoitavat oireita. LarQL mahdollistaa painotason diagnoosin: miksi malli uskoi sen?

-- Toista päätelmäreitti, joka johti väärään vastaukseen
TRACE 'Acme Corp:n toimitusjohtaja on' TOP 3

-- Etsi kerros, jossa väärä tosiasia noudettiin
-- (Kerrosnumerot TRACE-tuotoksessa osoittavat, missä sitoumunut vastaus kiteyttyy)

-- Tarkista mitä malli todella tallentaa tälle entiteetille/suhteelle
SELECT * FROM edges WHERE entity='Acme Corp' AND relation='CEO'

-- Tarkista polysemantista sekaannusta (sama neuroni koodaa kahta asiaa)
SELECT * FROM edges WHERE entity='Acme Corp' NEAREST_TO Layer 23 LIMIT 10

-- Käytä kohdennettua korjausta
UPDATE edges SET target='Jane Smith' WHERE entity='Acme Corp' AND relation='CEO'

TRACE-tuotos näyttää todennäköisyysjakauman kerroksissa — alkuperäisestä syntaksin tunnistuksesta tiedon hakemisen kautta tulossitoumukseen. Tämä on ensisijainen työkalu oikeuslääkkeelliseen analyysiin, kun mallin aiheuttama tapaus vaatii sääntely- tai oikeudellista dokumentointia: se osoittaa missä väärä tosiasia tuli päätelmäreittiin ja miksi malli oli siitä varma.

Suorituskykyviite (Apple Silicon)

OperaatioAika
Gate KNN -haku kerrosta kohti0,008 ms
Täysi WALK 34 kerroksella0,3 ms
Täysi päätelmä (huomiolla)517 ms
Korjauksen soveltaminenVälitöntä (tiedoston peitto)
Vindex-koko — Gemma 3 4B, f16~3 GB

Vindex-selaus ja SELECT-kyselyt toimivat kokonaan CPU:lla. INFER ja TRACE vaativat mallin lataamisen.

Suhde LLM-tietopalveluihin

LarQL on LLM-tietojen elinkaaren kunkin palvelun perustava tekniikka:

  • Käyttöönotto-edeltävä auditointi: DESCRIBE, SELECT, ja NEAREST_TO skannaavat mallin tiedon verkkotunnuksesi alueella ennen käynnistystä
  • Tiedon ylläpito: korjauspeitto(INSERT, UPDATE, DELETE) soveltavat korjauksia suoraan käytettyihin painoihin ilman uudelleenkoulutusta
  • Noudattaminen ja tarkastusketju: SHOW patches tarjoaa tarkastettavan tietueen jokaisesta mallissa muutetusta tosiasiasta
  • SEO-älykkyys: WALK ja NEAREST_TO paljastaa mallin sisäisen semanttisen kartan mille tahansa aiheenalueen
  • Kilpailija- ja tuotteiden analyysi: NEAREST_TO INFER ristin validoinnilla paljastaa mallin rinnakkaispaikkauksen uskomukset painotasolla
  • Harhaluulon lakitieteen: TRACE hajottaa päätelmäreitin kerros kerrokselta, tunnistaen tarkasti missä väärä vastaus noudettiin ja sitoutui

Usein kysytyt kysymykset

Oletko valmis rakentamaan omaa tekoälyä?

Älykät chatbot-sovellukset ja tekoälytyökalut yhden katon alla. Yhdistä intuitiivisia lohkoja muuttaaksesi ideasi automatisoiduiksi virtauksiksi.

Lue lisää

Kielentunnistus
Kielentunnistus

Kielentunnistus

Kielentunnistus suurissa kielimalleissa (LLM) on prosessi, jossa nämä mallit tunnistavat syötetyn tekstin kielen, mahdollistaen tarkan käsittelyn monikielisissä...

3 min lukuaika
Language Detection LLMs +4
LIX-luettavuusmittari
LIX-luettavuusmittari

LIX-luettavuusmittari

Tutustu LIX-luettavuusmittariin—kaavaan, joka on kehitetty tekstin monimutkaisuuden arviointiin analysoimalla lauseiden pituutta ja pitkiä sanoja. Ymmärrä sen s...

6 min lukuaika
LIX Readability +5
BigQuery MCP -integraatio
BigQuery MCP -integraatio

BigQuery MCP -integraatio

Integroi FlowHunt Google BigQueryyn Model Context Protocol (MCP) -palvelimen avulla reaaliaikaista analytiikkaa, älykästä automaatiota ja vaivattomia tekoälypoh...

3 min lukuaika
AI BigQuery +3