LarQL (LQL)

Co to jest LarQL?

LarQL — również określane jako LQL — to język zapytań przeznaczony do bezpośredniej interakcji z wiedzą zakodowaną w wagach dużych modeli języka (LLM). Używa znanej składni podobnej do SQL (SELECT, INSERT, UPDATE, DELETE, DESCRIBE) zastosowanej nie do wierszy w relacyjnej bazie danych, ale do strukturyzowanego grafu wiedzy, który LLM:y budują wewnętrznie podczas trenowania.

Tam, gdzie tradycyjne narzędzia traktują wagi modelu jako nieprzejrzysty blob binarny, LarQL traktuje je jako queryowalny magazyn wiedzy. Praktyk może sprawdzić, co model wie o konkretnej encji, dokładnie śledzić, jak model osiąga daną konkluzję i stosować docelowe łatki wiedzy — wszystko bez ponownego szkolenia modelu lub modyfikowania plików wag bazowych.

Koncepcje główne

Vindex

Vindex (indeks wektorowy) to wyodrębniona, queryowalna reprezentacja wewnętrznej wiedzy modelu. Jest generowana z wag modelu za pomocą polecenia larql extract-index i zapisywana jako niezależny plik. Po wyodrębnieniu Vindex może być przeglądany i wyszukiwany bez ładowania pełnego modelu — i bez sprzętu GPU.

Vindex koduje wyuczone przez model skojarzenia między encjami, relacjami i warstwami, umożliwiając zadawanie pytań takich jak: “Co ten model uważa za siedzibę Apple?” lub “Jakie pojęcia ten model kojarzy z GDPR blisko warstwy 20?”

Nakładki łatek

Operacje zapisu LarQL — INSERT, UPDATE, DELETE — nie modyfikują plików wag modelu bazowego. Zamiast tego tworzą nakładkę pliku .patch, która jest stosowana w czasie wnioskowania. To czyni edycję wiedzy:

  • Natychmiastową: brak kroku rekompilacji lub dostrojenia
  • Odwracalną: model bazowy pozostaje niezmieniony; łatki można usunąć lub zastąpić
  • Lekką: łatka obejmująca 234 fakty wymaga około 2,1 MB w stosunku do 16 GB modelu bazowego
Logo

Gotowy na rozwój swojej firmy?

Rozpocznij bezpłatny okres próbny już dziś i zobacz rezultaty w ciągu kilku dni.

Konfiguracja LarQL

Aby zacząć pracować z wiedzą modelu, wyodrębnij Vindex i otwórz interaktywny REPL:

larql extract-index path/to/your-model -o company-model.vindex --f16
larql repl

Flaga --f16 wyodrębnia indeks z 16-bitową precyzją zmiennoprzecinkową. Wynikowy Vindex dla modelu takiego jak Gemma 3 4B to około 3 GB.

Przeglądanie wiedzy modelu

Te polecenia działają względem wyodrębnionego Vindex i nie wymagają GPU:

Sprawdź konkretną encję:

DESCRIBE "Apple Inc"

Zwraca całą wiedzę, którą model ma o encji, zorganizowaną warstwą i funkcją: branżę, produkty, siedzibę, founded_by, ticker giełdowy i wszelkie inne relacje poznane podczas treningu.

Zapytaj o konkretną relację na wszystkich encjach:

SELECT * FROM edges WHERE relation='headquarters' LIMIT 10

Znajdź skojarzenia koncepcji wg odległości:

SELECT * FROM edges WHERE entity='GDPR' NEAREST_TO Layer 20 LIMIT 5

Znajduje pięć pojęć najciśle powiązanych z GDPR blisko warstwy 20 reprezentacji wiedzy modelu.

Wymień wszystkie typy relacji poznane przez model:

SHOW relations

Zwraca pełną listę typów relacji obecnych w modelu. Typowy model średniej wielkości koduje ponad 1 000 typów relacji.

Wnioskowanie i śledzenie

Uruchom wnioskowanie z wynikami prawdopodobieństwa:

INFER 'The headquarters of Apple is located in' TOP 5

Zwraca 5 najlepszych uzupełnień z wynikami pewności (np. Cupertino 0,71, Kalifornia 0,14 itp.).

Śledź wnioskowanie warstwę po warstwie:

TRACE 'The CEO of Tesla is' TOP 3

Tworzy rozkład warstwy po warstwie pokazujący, jak model buduje do swojego wyjścia — od początkowego wykrywania składni poprzez identyfikację domeny, pobieranie wiedzy aż do zobowiązania do wyjścia. Używane dla medycyny sądowej halucynacji, gdy model generuje nieoczekiwaną lub błędną odpowiedź.

Przejdź koncepcję między warstwami:

WALK "climate change" LAYERS 10 TO 28

Pokazuje, jak skojarzenia modelu dla koncepcji ewoluują między warstwami — od konkretnych współwystąpień tekstu we wczesnych warstwach do abstrakcyjnych asocjacji semantycznych w głębszych warstwach.

Edycja wiedzy z nakładkami łatek

Operacje zapisu LarQL tworzą nakładkę .patch bez dotykania plików modelu bazowego:

Wstaw nowy fakt:

INSERT INTO edges (entity, relation, target, confidence)
VALUES ('Acme Corp', 'CEO', 'Jane Smith', 0.95)

Zaktualizuj istniejący fakt:

UPDATE edges
SET target = 'Jane Smith'
WHERE entity = 'Acme Corp' AND relation = 'CEO'

Usuń fakt:

DELETE FROM edges
WHERE entity = 'Acme Corp' AND relation = 'former_CEO'

Sprawdź aktywne łatki:

SHOW patches

Wyświetla wszystkie aktywne pliki łatek, ich rozmiary i liczby faktów. Łatka z 234 faktami względem 16 GB modelu bazowego wynosi około 2,1 MB.

Przypadek użycia audytu: Weryfikacja wiedzy przed wdrożeniem

Kompletny przepływ pracy weryfikacji przed wdrożeniem przy użyciu LarQL:

-- 1. Sprawdzenie, co model wie o twoim produkcie
DESCRIBE "Acme Corp"

-- 2. Znalezienie nieprawidłowych skojarzeń
SELECT * FROM edges WHERE entity='Acme Corp' AND relation='CEO'

-- 3. Weryfikacja braku zamieszania konkurencyjnej marki
SELECT * FROM edges WHERE entity='Acme Corp' NEAREST_TO Layer 20 LIMIT 10

-- 4. Naprawienie wszelkich błędnych faktów przed wdrożeniem
UPDATE edges SET target='Jane Smith' WHERE entity='Acme Corp' AND relation='CEO'

Ten przepływ pracy jest podstawą audytu modelu przed wdrożeniem: systematyczne weryfikowanie, że wewnętrzna wiedza modelu jest dokładna dla twojej domeny przed ujawnieniem jej użytkownikom.

Przypadek użycia: Inteligencja SEO z wag modelowych

Model języka wytrenowany na bilionach dokumentów internetowych internalizował strukturę semantyczną każdego obszaru tematycznego, na którą się natknął. Zamiast skrobać SERPs lub kupować dane słów kluczowych, możesz odczytać strukturę bezpośrednio, sondując wewnętrzne reprezentacje modelu — bez generowania.

Gdy przesyłasz zapytanie takie jak "affiliate software" do LLM, określone neurony w warstwach feed-forward strzelają w charakterystycznym wzorze. Te aktywacje kodują to, co model uważa za semantycznie sąsiednie: konkurentów, powiązane technologie, przypadki użycia, strony opinii. LarQL sprawia, że te skojarzenia są możliwe do wyszukania.

Mapuj semantyczne sąsiedztwo dowolnego słowa kluczowego:

-- Jakie koncepcje grupują się wokół twojego terminu rdzeniowego w strefie wiedzy (warstwy 12–34)?
WALK "affiliate software" LAYERS 12 TO 34

-- Znajdź najlepsze powiązane encje na szczycie głębi wiedzy
SELECT * FROM edges WHERE entity='affiliate software' NEAREST_TO Layer 22 LIMIT 20

-- Jakie typy relacji model używa dla tej domeny?
SHOW relations

To, co otrzymujesz: uszeregowana lista semantycznie sąsiednich terminów odzwierciedlająca to, co model (i przez rozszerzenie, korpus internetowy, na którym został wytrenowany) uważa za naturalne sąsiedztwo twojego tematu — kandydaci na klastry tematyczne, słowa kluczowe integracji i kąty długiego ogona, które konwencjonalne narzędzia słów kluczowych pomijają, ponieważ mierzą popularność, a nie strukturę semantyczną.

Wyniki pewności z NEAREST_TO wskazują odległość semantyczną w wewnętrznej reprezentacji modelu. Terminy o wysokich wynikach pewności są głęboko splecione z twoim zapytaniem w wiedzy modelu — są naturalnymi celami współ-pojawiania się dla strategii treści.

Przypadek użycia: Odkrywanie konkurencji i współlokalizacja marki

Model wytrenowany na danych w skali sieci internetowej nauczył się, które marki pojawiają się w tych samych dyskusjach. To jest bogatsze w sygnały niż nakładanie się odnośników lub współ-pojawianie się SERP: odzwierciedla skonsolidowaną wiarę modelu o tym, które firmy działają w tej samej przestrzeni, zbudowaną na podstawie milionów artykułów, przeglądów, stron porównawczych i wątków forów.

-- Które marki model uważa za współlokalizowane z twoją?
SELECT * FROM edges WHERE entity='YourBrand' NEAREST_TO Layer 19 LIMIT 15

-- Potwierdź, że to współlokalizacja marki, a nie zamieszanie kategorii
DESCRIBE "YourBrand"

-- Sprawdź to samo dla konkretnego konkurenta
SELECT * FROM edges WHERE entity='CompetitorX' NEAREST_TO Layer 19 LIMIT 15

Kryż-referencyj z wnioskowania w celu weryfikacji:

-- Czy model generuje konkurentów w bezpośrednich uzupełnieniach?
INFER 'The main alternatives to YourBrand are' TOP 8

-- Kontrola Monte Carlo: które marki pojawiają się najczęściej?
INFER 'Companies similar to YourBrand include' TOP 5

Marki, które pojawiają się zarówno w wewnętrznym śladzie FFN (NEAREST_TO), jak i w generacyjnych uzupełnieniach (INFER) mają najwyższą pewność. Reprezentują skonsolidowany krajobraz konkurencji modelu — bezpośrednio możliwy do działania dla stron porównawczych “vs”, przewodników migracyjnych i alternatywnych stron docelowych.

Przypadek użycia: Audyt percepcji marki

Przed wdrożeniem LLM w roli skierowanej do klienta — lub przed uruchomieniem kampanii — warto zrozumieć, jak model charakteryzuje twoją markę wewnętrznie. To różni się od tego, co model mówi gdy zostanie zapytany: odzwierciedla ukryte skojarzenia zbudowane z danych treningowych, niektóre z których mogą być sprzeczne z twoim zamierzonym pozycjonowaniem.

-- Pełna charakterystyka twojej marki w wiedzy modelu
DESCRIBE "YourBrand"

-- Do której kategorii model cię klasyfikuje?
SELECT * FROM edges WHERE entity='YourBrand' AND relation='category'

-- Z jakimi technologiami jesteś powiązany?
SELECT * FROM edges WHERE entity='YourBrand' AND relation='integrates_with'

-- Czy istnieją jakieś niechcialne skojarzenia?
SELECT * FROM edges WHERE entity='YourBrand' NEAREST_TO Layer 20 LIMIT 30

Przejście warstwę po warstwie, aby zobaczyć, jak ewoluują skojarzenia:

-- Wczesne warstwy: powierzchniowe współ-pojawianie
-- Warstwy pośrednie (12–34): asocjacje faktyczne
-- Później: formatowanie danych wyjściowych i styl
WALK "YourBrand" LAYERS 10 TO 35

Jeśli model umieszcza twoją markę w złej kategorii, kojarzy ją z konkurentem, którego nie powinien, lub odzwierciedla nieaktualne pozycjonowanie, te luki można naprawić bezpośrednio przy użyciu mechanizmu nakładki wiedzy — korygując wewnętrzną reprezentację modelu bez ponownego szkolenia.

Przypadek użycia: Analiza luki wiedzy przed wdrożeniem

Oceniając model open-source do wdrożenia specyficznego dla domeny, krytyczne pytanie nie dotyczy wydajności benchmarku — to: czy ten model wie dość o naszej domenie, aby być przydatny, i czy wie coś złego?

LarQL umożliwia strukturalny przescan wiedzy przed wdrożeniem na całym obszarze tematycznym:

-- Krok 1: Audyt wiedzy produktowej
DESCRIBE "YourProduct"
DESCRIBE "YourProduct v2"

-- Krok 2: Sprawdź wiedzę kategorii i pozycjonowania
SELECT * FROM edges WHERE entity='YourProduct' AND relation='category'
SELECT * FROM edges WHERE entity='YourProduct' AND relation='primary_use_case'

-- Krok 3: Znajdź luki — tematy bez skojarzeń
SELECT * FROM edges WHERE entity='your_key_topic' NEAREST_TO Layer 20 LIMIT 5
-- Kilka lub brak wyników = luka w wiedzy

-- Krok 4: Znajdź błędne fakty
SELECT * FROM edges WHERE entity='YourCompany' AND relation='CEO'
SELECT * FROM edges WHERE entity='YourProduct' AND relation='pricing_model'

-- Krok 5: Łataj potwierdzone błędy przed uruchomieniem
UPDATE edges SET target='Current CEO Name' WHERE entity='YourCompany' AND relation='CEO'

Ten przepływ pracy zastępuje podejście “wdróż i czekaj na skargi”. Czterogodzinny audyt przy użyciu LarQL na Vindex może ujawnić luki w wiedzy i błędy faktyczne, które w inny sposób osiągnęłyby rzeczywistych użytkowników — i załatać je tego samego dnia, bez GPU.

Przypadek użycia: Analiza przyczyny głównej halucynacji

Gdy wdrożony LLM generuje błędną lub szkodliwą odpowiedź, standardową odpowiedzią jest aktualizacja systemowego monitora lub dodanie zabezpieczeń. Ale łatki w monicie leczy objawy. LarQL umożliwia diagnozę na poziomie wagi: dlaczego model w to wierzył?

-- Odtwórz ścieżkę wnioskowania, która doprowadziła do błędnej odpowiedzi
TRACE 'The CEO of Acme Corp is' TOP 3

-- Znajdź warstwę, gdzie pobrano błędny fakt
-- (Numery warstw w danych wyjściowych TRACE pokazują, gdzie utrwala się udzielona odpowiedź)

-- Sprawdź, co model faktycznie przechowuje dla tej encji/relacji
SELECT * FROM edges WHERE entity='Acme Corp' AND relation='CEO'

-- Potwierdź brak polysemantycznego zamieszania (ten sam neuron kodujący dwie rzeczy)
SELECT * FROM edges WHERE entity='Acme Corp' NEAREST_TO Layer 23 LIMIT 10

-- Zastosuj ukierunkowaną poprawkę
UPDATE edges SET target='Jane Smith' WHERE entity='Acme Corp' AND relation='CEO'

Wynik TRACE pokazuje rozkład prawdopodobieństwa między warstwami — od początkowego wykrywania składni, poprzez pobieranie wiedzy w warstwach pośrednich, do zobowiązania się do wyjścia. To jest główne narzędzie do analizy sądowej, gdy zdarzenie spowodowane modelem wymaga dokumentacji regulacyjnej lub prawnej: demonstruje gdzie błędny fakt weszł do ścieżki wnioskowania i dlaczego model był pewny.

Referencja wydajności (Apple Silicon)

OperacjaCzas
Wyszukiwanie bram KNN na warstwę0,008 ms
Pełny WALK przez 34 warstwy0,3 ms
Pełne wnioskowanie (z uwagą)517 ms
Aplikacja łatkiNatychmiastowa (nakładka pliku)
Rozmiar Vindex — Gemma 3 4B, f16~3 GB

Przeglądanie Vindex i zapytania SELECT działają całkowicie na CPU. INFER i TRACE wymagają załadowania modelu.

Relacja z usługami wiedzy LLM

LarQL to podstawowa technologia stojąca za każdą usługą w cyklu życia wiedzy LLM:

  • Audyt przed wdrożeniem: DESCRIBE, SELECT i NEAREST_TO skanuj wiedzę modelu na całej twojej domenie przed uruchomieniem
  • Utrzymanie wiedzy: mechanizm nakładki łatki (INSERT, UPDATE, DELETE) stosuj poprawki bezpośrednio do wdrożonych wag bez ponownego szkolenia
  • Zgodność i ślady audytu: SHOW patches dostarcz audytowalny zapis każdego faktu zmienionego w modelu
  • Inteligencja SEO: WALK i NEAREST_TO ujawnij wewnętrzną mapę semantyczną modelu dowolnej przestrzeni tematycznej
  • Analiza konkurencji i marki: NEAREST_TO z kryż-walidacją INFER ujawnij wiary współ-lokalizacji modelu na poziomie wagi
  • Medycyna sądowa halucynacji: TRACE rozbierz ścieżkę wnioskowania warstwę po warstwie, identyfikując dokładnie, gdzie błędna odpowiedź została pobrana i zatwierdzona

Najczęściej zadawane pytania

Gotowy do zbudowania własnej sztucznej inteligencji?

Inteligentne chatboty i narzędzia sztucznej inteligencji pod jednym dachem. Połącz intuicyjne klocki, aby przekształcić swoje pomysły w zautomatyzowane przepływy.

Dowiedz się więcej

Large Language Model Meta AI (LLaMA)
Large Language Model Meta AI (LLaMA)

Large Language Model Meta AI (LLaMA)

Large Language Model Meta AI (LLaMA) to najnowocześniejszy model przetwarzania języka naturalnego opracowany przez firmę Meta. Dzięki aż 65 miliardom parametrów...

2 min czytania
AI Language Model +6
Duży model językowy (LLM)
Duży model językowy (LLM)

Duży model językowy (LLM)

Duży model językowy (LLM) to rodzaj sztucznej inteligencji, trenowany na ogromnych zbiorach tekstowych, aby rozumieć, generować i przetwarzać ludzki język. LLM-...

8 min czytania
AI Large Language Model +4
Jak znaleźć najlepszy LLM do pisania treści: test i ranking
Jak znaleźć najlepszy LLM do pisania treści: test i ranking

Jak znaleźć najlepszy LLM do pisania treści: test i ranking

Przetestowaliśmy i oceniliśmy możliwości pisania 5 popularnych modeli dostępnych w FlowHunt, aby znaleźć najlepszy LLM do tworzenia treści.

10 min czytania
AI Content Writing +6