LarQL (LQL)

ما هو LarQL?

LarQL — ويُشار إليه أيضًا بـ LQL — هي لغة استعلام مصممة للتفاعل المباشر مع المعرفة المشفرة في أوزان نماذج اللغة الكبيرة (LLM). تستخدم بناء جملة SQL مألوفًا (SELECT و INSERT و UPDATE و DELETE و DESCRIBE) مطبقًا ليس على الصفوف في قاعدة بيانات علائقية، بل على الرسم البياني للمعرفة المنظمة الذي تبنيه LLMs داخليًا أثناء التدريب.

حيث تعامل الأدوات التقليدية أوزان النموذج كـ blob ثنائي معتم، تعاملها LarQL كمتجر معرفة قابل للاستعلام. يمكن للممارس فحص ما يعرفه النموذج عن كيان معين وتتبع كيفية وصول النموذج إلى الاستدلال المعطى بالضبط وتطبيق رقع المعرفة الموجهة — كل ذلك بدون إعادة تدريب النموذج أو تعديل ملفات الأوزان الأساسية.

المفاهيم الأساسية

Vindex

Vindex (فهرس متجه) هو التمثيل المستخرج والقابل للاستعلام للمعرفة الداخلية للنموذج. يتم إنشاؤه من أوزان النموذج باستخدام أمر larql extract-index ويتم حفظه كملف مستقل. بمجرد استخراجه، يمكن استعراض Vindex والاستعلام عنه بدون تحميل النموذج الكامل — وبدون أجهزة GPU.

يقوم Vindex بترميز الارتباطات المتعلمة للنموذج بين الكيانات والعلاقات والطبقات، مما يجعل من الممكن طرح أسئلة مثل: “ما الذي يعتقده هذا النموذج أنه مقر Apple؟” أو “أي المفاهيم التي يربطها هذا النموذج بـ GDPR بالقرب من الطبقة 20؟”

تراكبات الرقعة

عمليات الكتابة في LarQL — INSERT و UPDATE و DELETE — لا تعدل ملفات أوزان النموذج الأساسية. بدلاً من ذلك، تنشئ تراكب ملف .patch يتم تطبيقه وقت الاستدلال. هذا يجعل تحرير المعرفة:

  • فوري: لا خطوة إعادة تجميع أو ضبط دقيق
  • قابل للعكس: النموذج الأساسي لم يتغير؛ يمكن إزالة الرقع أو استبدالها
  • خفيف الوزن: رقعة تغطي 234 حقيقة تتطلب حوالي 2.1 ميجابايت مقابل نموذج أساسي بحجم 16 جيجابايت
Logo

هل أنت مستعد لتنمية عملك؟

ابدأ تجربتك المجانية اليوم وشاهد النتائج في غضون أيام.

إعداد LarQL

لبدء العمل مع معرفة النموذج، استخرج Vindex وافتح REPL التفاعلي:

larql extract-index path/to/your-model -o company-model.vindex --f16
larql repl

يستخرج العلم --f16 الفهرس بدقة النقطة العائمة 16 بت. Vindex الناتج لنموذج مثل Gemma 3 4B حوالي 3 جيجابايت.

استعراض معرفة النموذج

تعمل هذه الأوامر على Vindex المستخرج ولا تتطلب GPU:

فحص كيان محدد:

DESCRIBE "Apple Inc"

يعيد جميع المعرفة التي يمتلكها النموذج عن الكيان، منظمة حسب الطبقة والميزة: الصناعة والمنتجات والمقر الرئيسي و founded_by وتذكرة الأسهم وأي علاقة أخرى تم تعلمها أثناء التدريب.

استعلم عن علاقة محددة عبر جميع الكيانات:

SELECT * FROM edges WHERE relation='headquarters' LIMIT 10

ابحث عن تجمعات المفاهيم حسب المسافة:

SELECT * FROM edges WHERE entity='GDPR' NEAREST_TO Layer 20 LIMIT 5

يجد المفاهيم الخمس الأكثر ارتباطًا بـ GDPR بالقرب من الطبقة 20 من تمثيل معرفة النموذج.

اسرد جميع أنواع العلاقات التي تعلمها النموذج:

SHOW relations

يعيد القائمة الكاملة لأنواع العلاقات الموجودة في النموذج. نموذج نموذجي بحجم متوسط يرمز إلى أكثر من 1000 نوع من العلاقات.

الاستدلال والتتبع

قم بتشغيل الاستدلال مع درجات الاحتمالية:

INFER 'The headquarters of Apple is located in' TOP 5

يعيد أفضل 5 إكمالات مع درجات الثقة (على سبيل المثال: Cupertino 0.71 و California 0.14 وما إلى ذلك).

تتبع الاستدلال طبقة تلو الأخرى:

TRACE 'The CEO of Tesla is' TOP 3

ينتج تحللاً طبقة تلو الأخرى يوضح كيف يبني النموذج نحو مخرجاته — من الكشف الأولي عن بناء الجملة من خلال تحديد المجال واسترجاع المعرفة إلى التزام المخرجات. يُستخدم لعلم الشرعيات الهلوسة عندما ينتج النموذج إجابة غير متوقعة أو خاطئة.

اسر مفهومًا عبر الطبقات:

WALK "climate change" LAYERS 10 TO 28

يوضح كيف تتطور ارتباطات النموذج لمفهوم ما عبر الطبقات — من التزامنات النصية الملموسة في الطبقات المبكرة إلى الارتباطات الدلالية المجردة في الطبقات الأعمق.

تحرير المعرفة مع تراكبات الرقعة

تنشئ عمليات الكتابة في LarQL تراكب .patch بدون لمس ملفات النموذج الأساسي:

أدرج حقيقة جديدة:

INSERT INTO edges (entity, relation, target, confidence)
VALUES ('Acme Corp', 'CEO', 'Jane Smith', 0.95)

حدّث حقيقة موجودة:

UPDATE edges
SET target = 'Jane Smith'
WHERE entity = 'Acme Corp' AND relation = 'CEO'

قمع حقيقة:

DELETE FROM edges
WHERE entity = 'Acme Corp' AND relation = 'former_CEO'

افحص الرقع النشطة:

SHOW patches

يسرد جميع ملفات الرقعة النشطة وأحجامها وعدد الحقائق. رقعة 234 حقيقة مقابل نموذج أساسي بحجم 16 جيجابايت يبلغ إجمالي حوالي 2.1 ميجابايت.

حالة استخدام التدقيق: فحص المعرفة قبل النشر

سير عمل تحقق شامل قبل النشر باستخدام LarQL:

-- 1. فحص ما يعرفه النموذج عن منتجك
DESCRIBE "Acme Corp"

-- 2. ابحث عن الارتباطات غير الصحيحة
SELECT * FROM edges WHERE entity='Acme Corp' AND relation='CEO'

-- 3. تحقق من عدم حدوث التباس مع العلامات التجارية المنافسة
SELECT * FROM edges WHERE entity='Acme Corp' NEAREST_TO Layer 20 LIMIT 10

-- 4. صحح أي حقائق خاطئة قبل النشر
UPDATE edges SET target='Jane Smith' WHERE entity='Acme Corp' AND relation='CEO'

هذا سير العمل هو الأساس لتدقيق النموذج قبل النشر: التحقق المنهجي من أن معرفة النموذج الداخلية دقيقة لمجالك قبل تعريضها للمستخدمين.

حالة الاستخدام: الذكاء SEO من أوزان النموذج

يقوم نموذج اللغة المدرب على تريليونات مستندات الويب بترميز البنية الدلالية لكل مساحة موضوع التقاها. بدلاً من كشط SERP أو شراء بيانات الكلمات الرئيسية، يمكنك قراءة تلك البنية مباشرة من خلال التحقيق من تمثيلات النموذج الداخلية — بدون توليد مطلوب.

عند تقديم استعلام مثل "برامج العمولة" إلى LLM، تطلق النيران على نيورونات محددة في الطبقات feedforward في نمط مميز. تشفر هذه التنشيطات ما يعتبره النموذج مجاورًا دلاليًا: المنافسين والتكنولوجيات ذات الصلة وحالات الاستخدام ومواقع المراجعة. LarQL يجعل هذه الارتباطات قابلة للاستعلام.

خريطة الحي الدلالي لأي كلمة رئيسية:

-- ما المفاهيم التي تتجمع حول مصطلحك الأساسي في منطقة المعرفة (الطبقات 12–34)?
WALK "برامج العمولة" LAYERS 12 TO 34

-- العثور على الكيانات الأكثر ارتباطًا بعمق المعرفة الذروة
SELECT * FROM edges WHERE entity='برامج العمولة' NEAREST_TO Layer 22 LIMIT 20

-- ما أنواع العلاقات التي يستخدمها النموذج لهذا المجال?
SHOW relations

ما تحصل عليه: قائمة مرتبة من المصطلحات المجاورة دلاليًا التي تعكس ما يعتبره النموذج (وبامتداد، مجموعة الويب التي تم تدريبها عليها) الحي الطبيعي لموضوعك — مرشحي كتلة الموضوع وكلمات رئيسية للتكامل والزوايا الطويلة التي تفتقد أدوات الكلمات الرئيسية التقليدية لأنها تقيس الشهرة وليس البنية الدلالية.

تشير درجات الثقة من NEAREST_TO إلى المسافة الدلالية في التمثيل الداخلي للنموذج. المصطلحات التي حصلت على درجات ثقة عالية متشابكة بعمق مع استعلامك في معرفة النموذج — فهي أهداف حدوث مشترك طبيعي لاستراتيجية المحتوى.

حالة الاستخدام: اكتشاف المنافسين والموضع المشترك للعلامة التجارية

تعلم نموذج مدرب على بيانات بحجم الويب العلامات التجارية التي تظهر في نفس المناقشات. هذا أغنى بالإشارات من تداخل الارتباط الخلفي أو التزامن SERP: يعكس الاعتقاد الموحد للنموذج حول الشركات التي تعمل في نفس المساحة، المبني من ملايين المقالات ومراجعات وصفحات المقارنة وسلاسل المنتدى.

-- ما العلامات التجارية التي يعتبرها النموذج موضعًا مشتركًا مع علامتك التجارية؟
SELECT * FROM edges WHERE entity='YourBrand' NEAREST_TO Layer 19 LIMIT 15

-- تحقق من أن هذا هو موضع العلامة التجارية وليس التباس الفئة
DESCRIBE "YourBrand"

-- التحقق من نفس الشيء لمنافس محدد
SELECT * FROM edges WHERE entity='CompetitorX' NEAREST_TO Layer 19 LIMIT 15

التحقق المتقاطع مع الاستدلال:

-- هل ينتج النموذج منافسين في الإكمالات المباشرة?
INFER 'البدائل الرئيسية للعلامة التجارية YourBrand هي' TOP 8

-- فحص مونت كارلو: ما العلامات التجارية التي تظهر في أغلب الأحيان?
INFER 'الشركات المماثلة لـ YourBrand تشمل' TOP 5

العلامات التجارية التي تظهر في كل من آثار FFN الداخلية (NEAREST_TO) والإكمالات التوليدية (INFER) تحمل أعلى ثقة. يمثلان المشهد التنافسي الموحد للنموذج — مباشر لصفحات المقارنة “vs” وأدلة الترحيل وصفحات الهبوط البديلة.

حالة الاستخدام: تدقيق إدراك العلامة التجارية

قبل نشر LLM في دور موجه للعملاء — أو قبل إطلاق حملة — من الجدير أن نفهم كيفية تحديد موضع النموذج لعلامتك التجارية بشكل داخلي. هذا يختلف عما يقول النموذج عند السؤال: يعكس الارتباطات الكامنة المبنية من بيانات التدريب، وبعضها قد يتناقض مع موضعك المقصود.

-- التوصيف الكامل لعلامتك التجارية في معرفة النموذج
DESCRIBE "YourBrand"

-- أي فئة يضع فيها النموذج علامتك التجارية؟
SELECT * FROM edges WHERE entity='YourBrand' AND relation='category'

-- ما التقنيات التي ترتبط بها؟
SELECT * FROM edges WHERE entity='YourBrand' AND relation='integrates_with'

-- هل هناك أي ارتباطات غير مرغوب فيها؟
SELECT * FROM edges WHERE entity='YourBrand' NEAREST_TO Layer 20 LIMIT 30

اسر الطبقة تلو الطبقة لمشاهدة كيفية تطور الارتباطات:

-- الطبقات المبكرة: التزامنات السطحية
-- الطبقات الوسطى (12–34): الارتباطات الحقيقية
-- الطبقات اللاحقة: تنسيق المخرجات والأسلوب
WALK "YourBrand" LAYERS 10 TO 35

إذا وضع النموذج علامتك التجارية في الفئة الخاطئة أو ربطها بمنافس لا يجب أن يكون كذلك، أو عكس موضعًا قديمًا، فيمكن إصلاح هذه الفجوات مباشرة باستخدام آلية تراكب المعرفة — إصلاح التمثيل الداخلي للنموذج بدون إعادة تدريب.

حالة الاستخدام: تحليل فجوة المعرفة قبل الانتشار

عند تقييم نموذج مفتوح المصدر لنشر خاص بالمجال، السؤال الحرج ليس أداء المعيار — بل: هل يعرف هذا النموذج ما يكفي عن مجالنا ليكون مفيدًا، وهل يعرف أي شيء خاطئ؟

يتيح LarQL فحصًا منظمًا للمعرفة قبل الانتشار في منطقة الموضوع بأكملها:

-- الخطوة 1: تدقيق معرفة المنتج
DESCRIBE "YourProduct"
DESCRIBE "YourProduct v2"

-- الخطوة 2: تحقق من معرفة الفئة والموضع
SELECT * FROM edges WHERE entity='YourProduct' AND relation='category'
SELECT * FROM edges WHERE entity='YourProduct' AND relation='primary_use_case'

-- الخطوة 3: البحث عن الفجوات — الموضوعات بدون ارتباطات
SELECT * FROM edges WHERE entity='your_key_topic' NEAREST_TO Layer 20 LIMIT 5
-- النتائج القليلة أو لا شيء = فجوة معرفة

-- الخطوة 4: البحث عن الحقائق الخاطئة
SELECT * FROM edges WHERE entity='YourCompany' AND relation='CEO'
SELECT * FROM edges WHERE entity='YourProduct' AND relation='pricing_model'

-- الخطوة 5: تصحيح الأخطاء المؤكدة قبل البدء
UPDATE edges SET target='Current CEO Name' WHERE entity='YourCompany' AND relation='CEO'

يحل هذا سير العمل محل “النشر والانتظار للشكاوى”. يمكن لتدقيق لمدة 4 ساعات باستخدام LarQL مقابل Vindex سد فجوات المعرفة والأخطاء الحقيقية التي ستصل بطريقة أخرى إلى المستخدمين الحقيقيين — وإصلاحها في نفس اليوم، بدون GPU مطلوب.

حالة الاستخدام: تحليل السبب الجذري للهلوسة

عندما ينتج LLM المنتشر إجابة خاطئة أو ضارة، الرد القياسي هو تحديث موجه النظام أو إضافة حراس. لكن رقع الموجه تعالج الأعراض. يتيح LarQL التشخيص على مستوى الوزن: لماذا يعتقد النموذج ذلك؟

-- إعادة إنتاج مسار الاستدلال الذي أدى إلى الإجابة الخاطئة
TRACE 'الرئيس التنفيذي لشركة Acme هو' TOP 3

-- العثور على الطبقة حيث تم استرجاع الحقيقة الخاطئة
-- (أرقام الطبقات في إخراج TRACE تُظهر أين تتبلور الإجابة الملتزم بها)

-- تحقق مما يخزنه النموذج بالفعل لهذه الكيان/العلاقة
SELECT * FROM edges WHERE entity='Acme Corp' AND relation='CEO'

-- تحقق من عدم وجود ارتباك متعدد المعاني (نفس الخلية العصبية تشفر شيئين)
SELECT * FROM edges WHERE entity='Acme Corp' NEAREST_TO Layer 23 LIMIT 10

-- تطبيق الإصلاح المستهدف
UPDATE edges SET target='Jane Smith' WHERE entity='Acme Corp' AND relation='CEO'

يُظهر إخراج TRACE توزيع الاحتمالات عبر الطبقات — من الكشف الأولي عن بناء الجملة، من خلال استرجاع المعرفة في الطبقات الوسطى، إلى التزام المخرجات. هذه هي أداة الخط الأول للتحليل الجنائي عندما يتطلب حادث يُسبب أسبابه توثيقًا تنظيميًا أو قانونيًا: يوضح حيث دخلت الحقيقة الخاطئة إلى مسار الاستدلال ولماذا كان النموذج واثقًا منها.

مرجع الأداء (Apple Silicon)

العمليةالوقت
بحث بوابة KNN لكل طبقة0.008 ms
WALK كامل عبر 34 طبقة0.3 ms
الاستدلال الكامل (مع الانتباه)517 ms
تطبيق الرقعةفوري (تراكب الملف)
حجم Vindex — Gemma 3 4B، f16~3 GB

يعمل استعراض Vindex واستعلامات SELECT بالكامل على CPU. يتطلب INFER و TRACE تحميل النموذج.

العلاقة مع خدمات معرفة LLM

LarQL هي التكنولوجيا الأساسية وراء كل خدمة في دورة حياة معرفة LLM:

  • تدقيق قبل الانتشار: DESCRIBE, SELECT, و NEAREST_TO تفحص معرفة النموذج عبر مجالك قبل الانتشار
  • صيانة المعرفة: تراكب الرقعة(INSERT, UPDATE, DELETE) تطبق التصحيحات مباشرة على الأوزان المنتشرة بدون إعادة تدريب
  • الامتثال والسجلات الدقيقة: SHOW patches توفر سجلاً قابلاً للتدقيق لكل حقيقة تم تغييرها في نموذج
  • ذكاء SEO: WALK و NEAREST_TO كشف الخريطة الدلالية الداخلية للنموذج لأي مساحة موضوع
  • تحليل المنافس والعلامة التجارية: NEAREST_TO مع التحقق المتقاطع INFER تكشف معتقدات الموضع المشترك للنموذج على مستوى الوزن
  • الشرعيات الهلوسة: TRACE تحلل مسار الاستدلال طبقة تلو الأخرى، وتحديد بالضبط حيث تم استرجاع الإجابة الخاطئة والتزام بها

الأسئلة الشائعة

هل أنت مستعد لبناء ذكاء اصطناعي خاص بك?

روبوتات محادثة ذكية وأدوات ذكاء اصطناعي تحت سقف واحد. قم بتوصيل الكتل البديهية لتحويل أفكارك إلى تدفقات مؤتمتة.

اعرف المزيد

أفضل نماذج اللغة الكبيرة للبرمجة – يونيو 2025
أفضل نماذج اللغة الكبيرة للبرمجة – يونيو 2025

أفضل نماذج اللغة الكبيرة للبرمجة – يونيو 2025

استكشف أفضل نماذج اللغة الكبيرة (LLMs) للبرمجة في يونيو 2025. يوفر هذا الدليل التعليمي الشامل رؤى ومقارنات ونصائح عملية للطلاب والهواة والمحترفين في مجال البرمج...

10 دقيقة قراءة
LLM Coding +1
لانغ تشين
لانغ تشين

لانغ تشين

لانغ تشين هو إطار عمل مفتوح المصدر لتطوير التطبيقات المدعومة بنماذج اللغة الضخمة (LLMs)، ويُسهّل دمج النماذج القوية مثل GPT-3.5 وGPT-4 من OpenAI مع مصادر البيان...

2 دقيقة قراءة
LangChain LLM +4
مقياس قابلية القراءة LIX
مقياس قابلية القراءة LIX

مقياس قابلية القراءة LIX

تعرف على مقياس قابلية القراءة LIX—وهو صيغة تم تطويرها لتقييم تعقيد النص من خلال تحليل طول الجمل والكلمات الطويلة. افهم تطبيقاته في التعليم، والنشر، والصحافة، وا...

7 دقيقة قراءة
LIX Readability +5