تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب استنادا إلى OP Stack + EigenDA
أ. المقدمة | انتقال طبقة النموذج لـ Crypto AI
البيانات، النماذج وقوة الحوسبة هي العناصر الأساسية الثلاثة للبنية التحتية للذكاء الاصطناعي، تشبه الوقود (البيانات)، المحرك (النموذج)، الطاقة (قوة الحوسبة) لا يمكن الاستغناء عن أي منها. على غرار مسار تطور البنية التحتية لصناعة الذكاء الاصطناعي التقليدية، شهدت أيضًا مجال Crypto AI مراحل مشابهة. في بداية عام 2024، هيمن السوق لفترة على مشاريع GPU اللامركزية، مؤكدًا بشكل عام على منطق النمو الواسع النطاق "تجميع قوة الحوسبة". ومع دخول عام 2025، بدأت نقطة تركيز الصناعة تتجه تدريجياً نحو طبقة النماذج والبيانات، مما يدل على أن Crypto AI ينتقل من المنافسة على الموارد الأساسية إلى بناء أكثر استدامة وقيمة تطبيقية في الطبقة المتوسطة.
نموذج عام (LLM) مقابل نموذج متخصص (SLM)
تعتمد نماذج اللغة الكبيرة التقليدية (LLM) بشكل كبير على مجموعات البيانات الكبيرة والهياكل الموزعة المعقدة، حيث تتراوح أحجام المعلمات من 70B إلى 500B، وغالبًا ما تصل تكلفة التدريب لمرة واحدة إلى ملايين الدولارات. ومن ناحية أخرى، تُعتبر SLM (نموذج اللغة المتخصص) كأحد أنماط التعديل الخفيف القابل لإعادة الاستخدام لنموذج أساسي، والتي عادة ما تستند إلى نماذج مفتوحة المصدر، وتجمع بين عدد قليل من البيانات المهنية عالية الجودة وتقنيات مثل LoRA، لبناء نماذج خبراء سريعة تمتلك معرفة في مجالات محددة، مما يقلل بشكل كبير من تكاليف التدريب والعتبات التقنية.
من الجدير بالذكر أن SLM لن يتم دمجه في أوزان LLM، بل سيتم التعاون مع LLM من خلال استدعاء بنية Agent، نظام المكونات الإضافية للتوجيه الديناميكي، الإدخال الساخن لوحدات LoRA، وRAG (التوليد المعزز بالاسترجاع) وغيرها من الطرق. يحتفظ هذا الهيكل بقدرة LLM على التغطية الواسعة، بينما يعزز الأداء المتخصص من خلال وحدات التعديل الدقيق، مما يشكل نظامًا ذكيًا مركبًا عالي المرونة.
قيمة وحدود الذكاء الاصطناعي في نموذج الطبقة
مشروع Crypto AI من الصعب بشكل أساسي أن يعزز مباشرة من القدرات الأساسية لنموذج اللغة الكبير (LLM) ، والسبب الرئيسي في ذلك هو
العوائق التقنية مرتفعة للغاية: إن حجم البيانات والموارد الحسابية والقدرات الهندسية المطلوبة لتدريب نموذج Foundation ضخمة للغاية، حالياً فقط شركات التكنولوجيا الكبرى مثل الولايات المتحدة والصين تمتلك القدرات اللازمة.
قيود النظام البيئي مفتوح المصدر: على الرغم من أن النماذج الأساسية الرئيسية مثل LLaMA و Mixtral قد تم فتح مصدرها، إلا أن المفتاح الحقيقي لدفع النموذج إلى الأمام لا يزال يتركز في المؤسسات البحثية وأنظمة الهندسة المغلقة، حيث تظل مساحة المشاركة للمشاريع على السلسلة في مستوى النموذج الأساسي محدودة.
ومع ذلك، يمكن لمشاريع Crypto AI أن تحقق قيمة مضافة من خلال ضبط نماذج اللغة المتخصصة (SLM) على نماذج أساسية مفتوحة المصدر، ودمج قابلية التحقق والتحفيز في Web3. كـ "طبقة واجهة محيطية" في سلسلة صناعة الذكاء الاصطناعي، تتجلى في اتجاهين رئيسيين:
طبقة التحقق الموثوقة: من خلال تسجيل مسار توليد النموذج، ومساهمات البيانات، واستخدامها على السلسلة، تعزز القابلية للتتبع ومقاومة التلاعب في مخرجات الذكاء الاصطناعي.
آلية التحفيز: من خلال استخدام الرمز الأصلي، لتحفيز تحميل البيانات، واستدعاء النماذج، وتنفيذ الوكلاء (Agent)، لبناء دورة إيجابية في تدريب النماذج وتقديم الخدمات.
تصنيف أنواع نماذج الذكاء الاصطناعي وتحليل ملاءمة blockchain
من هنا، يتضح أن النقاط الممكنة لمشاريع Crypto AI من نوع نموذجية تتركز بشكل رئيسي على تحسين خفة SLM الصغيرة، ودمج بيانات السلسلة والتحقق من هيكل RAG، بالإضافة إلى نشر وتحفيز النموذج المحلي Edge. مع دمج القابلية للتحقق من البلوكشين وآلية التوكن، يمكن لـ Crypto أن توفر قيمة فريدة لهذه السيناريوهات ذات الموارد المتوسطة والمنخفضة، مما يخلق قيمة مميزة لطبقة واجهة AI.
سلسلة كتل الذكاء الاصطناعي المستندة إلى البيانات والنماذج، يمكن أن تسجل بوضوح وسجل غير قابل للتغيير مصدر مساهمة كل بيانات ونموذج، مما يعزز بشكل ملحوظ موثوقية البيانات وقابلية تتبع تدريب النموذج. في الوقت نفسه، من خلال آلية العقود الذكية، يتم تفعيل توزيع المكافآت تلقائيًا عند استدعاء البيانات أو النموذج، مما يحول سلوك الذكاء الاصطناعي إلى قيمة رمزية قابلة للقياس والتداول، وبناء نظام تحفيز مستدام. بالإضافة إلى ذلك، يمكن لمستخدمي المجتمع أيضًا تقييم أداء النموذج من خلال تصويت الرموز، والمشاركة في وضع القواعد وتكرارها، وتحسين هيكل الحوكمة اللامركزية.
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-62B3FAe810F4772AABA3D91C74C1AA6)
二、项目概述 | OpenLedger رؤية سلسلة الذكاء الاصطناعي
OpenLedger هو واحد من المشاريع القليلة في سوق البلوكشين AI التي تركز على آليات تحفيز البيانات والنماذج. وقد طرحت لأول مرة مفهوم "AI القابلة للدفع"، والتي تهدف إلى بناء بيئة تشغيل AI عادلة وشفافة وقابلة للتجميع، لتحفيز مساهمي البيانات ومطوري النماذج وبناة تطبيقات AI للتعاون على نفس المنصة، والحصول على عوائد على السلسلة بناءً على المساهمات الفعلية.
OpenLedger توفر سلسلة مغلقة كاملة من "تقديم البيانات" إلى "نشر النموذج" ثم إلى "استدعاء توزيع الأرباح"، وتشمل وحداتها الأساسية:
مصنع النموذج: لا حاجة للبرمجة، يمكنك استخدام LoRA لتعديل وتدريب ونشر نموذج مخصص بناءً على LLM مفتوح المصدر؛
OpenLoRA: يدعم وجود آلاف النماذج معًا، تحميل ديناميكي حسب الحاجة، مما يقلل بشكل كبير من تكاليف النشر؛
PoA (إثبات النسبة): تحقيق قياس المساهمة وتوزيع الجوائز من خلال سجلات استدعاء على السلسلة؛
Datanets: شبكة بيانات هيكلية موجهة نحو سيناريوهات عمودية، تم بناؤها والتحقق منها من خلال التعاون المجتمعي؛
منصة اقتراح النماذج (Model Proposal Platform): سوق نماذج على السلسلة قابلة للتجميع، قابلة للاستدعاء، وقابلة للدفع.
من خلال الوحدات أعلاه، قامت OpenLedger ببناء "بنية تحتية اقتصادية للوكيل الذكي" مدفوعة بالبيانات وقابلة للتجميع، لدفع سلسلة قيمة الذكاء الاصطناعي إلى السلسلة.
وفي اعتماد تقنية blockchain، تستخدم OpenLedger قاعدة OP Stack + EigenDA لبناء بيئة تشغيل بيانات وعقود عالية الأداء ومنخفضة التكلفة وقابلة للتحقق لنماذج الذكاء الاصطناعي.
مبني على OP Stack: استنادًا إلى تقنية Optimism، يدعم تنفيذ عالي من حيث السعة ومنخفض من حيث التكلفة؛
التسوية على الشبكة الرئيسية لـ Ethereum: ضمان أمان المعاملات وسلامة الأصول؛
متوافق مع EVM: يسهل على المطورين نشر وتوسيع بسرعة استنادًا إلى Solidity؛
EigenDA توفر دعم توفر البيانات: تقلل بشكل كبير من تكاليف التخزين، وتضمن قابلية التحقق من البيانات.
بالمقارنة مع شبكات مثل NEAR التي تركز أكثر على البنية التحتية وتدعم سيادة البيانات ومعمارية "AI Agents on BOS"، تركز OpenLedger أكثر على بناء سلسلة مخصصة للذكاء الاصطناعي تركز على بيانات التحفيز والنماذج، وتهدف إلى تحقيق دورة قيمة قابلة للتتبع، وقابلة للتجميع، ومستدامة لتطوير النماذج واستدعائها على السلسلة. إنها البنية التحتية لتحفيز النماذج في عالم Web3، حيث تجمع بين استضافة النماذج، وفواتير الاستخدام، وواجهات قابلة للتجميع على السلسلة، مما يعزز مسار تحقيق "النموذج كأصل".
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-19C2276FCCC616CCF9260FB7E35C9C24)
ثلاثة، المكونات الأساسية لـ OpenLedger والهندسة التقنية
3.1 نموذج المصنع، لا حاجة لشفرة نموذج المصنع
ModelFactory هو منصة لضبط نموذج اللغة الكبير (LLM) ضمن نظام OpenLedger البيئي. على عكس أطر الضبط التقليدية، يوفر ModelFactory واجهة رسومية بحتة للعمل، دون الحاجة إلى أدوات سطر الأوامر أو تكامل API. يمكن للمستخدمين ضبط النموذج استنادًا إلى مجموعة البيانات التي تم تفويضها ومراجعتها على OpenLedger. تم تحقيق سير العمل المتكامل لتفويض البيانات، وتدريب النموذج، والنشر، والذي يتضمن العمليات الأساسية التالية:
التحكم في وصول البيانات: يقوم المستخدم بتقديم طلبات البيانات، ويقوم المزود بمراجعة الموافقة، وتتصل البيانات تلقائيًا بواجهة تدريب النماذج.
اختيار النموذج وتكوينه: يدعم LLM الشائعة (مثل LLaMA و Mistral) ، من خلال واجهة المستخدم الرسومية لتكوين المعلمات الفائقة.
التحسين الخفيف: محرك LoRA / QLoRA المدمج، يعرض تقدم التدريب في الوقت الحقيقي.
تقييم النموذج ونشره: أدوات تقييم مدمجة، تدعم تصدير النشر أو مشاركة استدعاء النظام البيئي.
واجهة التحقق التفاعلي: توفر واجهة محادثة لتسهيل اختبار قدرة النموذج على الإجابة.
توليد تتبع RAG: إجابات تحتوي على مراجع المصادر، لتعزيز الثقة وقابلية التدقيق.
يتضمن هيكل نظام Model Factory ستة وحدات، تغطي مصادقة الهوية، وصلاحيات البيانات، وتعديل النموذج، ونشر التقييم وRAG تتبع المصدر، لإنشاء منصة خدمات نموذج متكاملة آمنة وقابلة للتحكم، وتفاعلية في الوقت الفعلي، وقابلة للت Monetization المستدام.
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-F23F47F09226573B1FCACEBDCFB8c1f3)
نموذج مصنع يدعم حاليا قدرات نموذج اللغة الكبيرة كما هو موضح أدناه:
سلسلة LLaMA: الأكثر تنوعًا في النظام البيئي، وذات مجتمع نشط، وأداء عام قوي، وهي واحدة من النماذج الأساسية مفتوحة المصدر الأكثر شيوعًا حاليًا.
Mistral: هيكل فعال، أداء استدلال ممتاز، مناسب للنشر المرن، في السيناريوهات ذات الموارد المحدودة.
Qwen: أداء المهام باللغة الصينية ممتاز، والقدرة الشاملة قوية، مما يجعله الخيار الأول للمطورين المحليين.
ChatGLM: تأثير المحادثة باللغة الصينية بارز، مناسب لخدمات العملاء في مجالات محددة والسيناريوهات المحلية.
Deepseek: يتمتع بأداء ممتاز في توليد الشفرات والاستدلال الرياضي، مناسب كأداة مساعدة للتطوير الذكي.
Gemma: نموذج خفيف الوزن مقدم من Google، له هيكل واضح، وسهل الاستخدام والتجريب بسرعة.
فالكون: كان معيار الأداء، مناسب للبحوث الأساسية أو اختبارات المقارنة، ولكن نشاط المجتمع قد انخفض.
BLOOM: دعم متعدد اللغات قوي، لكن أداء الاستدلال ضعيف، مناسب لأبحاث تغطية اللغات.
GPT-2: نموذج مبكر كلاسيكي، مناسب فقط لأغراض التعليم والتحقق، ولا يُنصح باستخدامه في النشر الفعلي.
على الرغم من أن مجموعة نماذج OpenLedger لا تحتوي على أحدث نماذج MoE عالية الأداء أو النماذج متعددة الأنماط، إلا أن استراتيجيتها ليست متخلفة، بل هي تكوين "الأولوية العملية" المبني على قيود الواقع المعمول بها على السلسلة (تكاليف الاستدلال، تكيف RAG، توافق LoRA، بيئة EVM).
تعتبر Model Factory كأداة بدون كود ، حيث أن جميع النماذج مدمجة بآلية إثبات المساهمة ، لضمان حقوق المساهمين في البيانات ومطوري النماذج ، مع مزايا العتبة المنخفضة ، والقابلية للتسييل ، والقدرة على التركيب ، مقارنة بأدوات تطوير النماذج التقليدية:
للمطورين: تقديم مسار كامل لنماذج الاحتضان، التوزيع، والإيرادات؛
بالنسبة للمنصة: تشكيل نموذج لتداول الأصول البيانية وبيئة التركيب؛
للمستخدمين: يمكن دمج النماذج أو الوكلاء مثل استدعاء API.
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ moments-909dc3f796ad6aa44a1c97a51ade4193)
3.2 OpenLoRA ، تحويل الأصول على السلسلة للنموذج المعدل
LoRA (تكييف منخفض الرتبة) هي طريقة فعالة لضبط المعلمات، من خلال إدخال "مصفوفات منخفضة الرتبة" في نماذج كبيرة مدربة مسبقًا لتعلم مهام جديدة، دون تعديل معلمات النموذج الأصلي، مما يقلل بشكل كبير من تكاليف التدريب ومتطلبات التخزين. عادةً ما تحتوي نماذج اللغة الكبيرة التقليدية (مثل LLaMA و GPT-3) على عشرات المليارات أو حتى مئات المليارات من المعلمات. لاستخدامها في مهام محددة (مثل الأسئلة القانونية، الاستشارات الطبية)، يلزم إجراء ضبط (fine-tuning). الاستراتيجية الأساسية لـ LoRA هي: "تجميد معلمات النموذج الكبير الأصلي، وتدريب مصفوفات المعلمات الجديدة المدخلة فقط."، مما يجعلها فعالة من حيث المعلمات، سريعة التدريب، ومرنة في النشر، وهي الطريقة الأكثر ملاءمة حاليًا لنشر نماذج Web3 واستدعائها بشكل مركب.
OpenLoRA هو إطار استدلال خفيف الوزن تم تصميمه خصيصًا لنشر النماذج المتعددة ومشاركة الموارد من قبل OpenLedger. الهدف الرئيسي منه هو معالجة المشكلات الشائعة في نشر نماذج الذكاء الاصطناعي الحالية مثل التكلفة العالية، وانخفاض إمكانية إعادة الاستخدام، وإهدار موارد GPU، وتعزيز تنفيذ "الذكاء الاصطناعي القابل للدفع".
OpenLoRA نظام هيكل المكونات الأساسية، يعتمد على التصميم المعياري، يغطي تخزين النماذج، تنفيذ الاستدلال، توجيه الطلبات وغيرها من المراحل الأساسية، لتحقيق نشر واستدعاء متعدد النماذج بكفاءة وتكلفة منخفضة:
وحدة تخزين LoRA Adapter (LoRA Adapters Storage): يتم استضافة LoRA adapter المعدل على OpenLedger، مما يتيح التحميل عند الطلب، وتجنب تحميل جميع النماذج مسبقًا في ذاكرة الفيديو، مما يوفر الموارد.
استضافة النموذج وطبقة دمج المحولات (Model Hosting & Adapter Merging Layer): جميع نماذج الضبط الدقيق تشترك في النموذج الأساسي (base model)، أثناء الاستدلال يتم دمج محول LoRA ديناميكياً
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
OpenLedger تبني اقتصاد الوكلاء: منصة نموذجية مدفوعة بالبيانات تعتمد على OP Stack و EigenDA
تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب استنادا إلى OP Stack + EigenDA
أ. المقدمة | انتقال طبقة النموذج لـ Crypto AI
البيانات، النماذج وقوة الحوسبة هي العناصر الأساسية الثلاثة للبنية التحتية للذكاء الاصطناعي، تشبه الوقود (البيانات)، المحرك (النموذج)، الطاقة (قوة الحوسبة) لا يمكن الاستغناء عن أي منها. على غرار مسار تطور البنية التحتية لصناعة الذكاء الاصطناعي التقليدية، شهدت أيضًا مجال Crypto AI مراحل مشابهة. في بداية عام 2024، هيمن السوق لفترة على مشاريع GPU اللامركزية، مؤكدًا بشكل عام على منطق النمو الواسع النطاق "تجميع قوة الحوسبة". ومع دخول عام 2025، بدأت نقطة تركيز الصناعة تتجه تدريجياً نحو طبقة النماذج والبيانات، مما يدل على أن Crypto AI ينتقل من المنافسة على الموارد الأساسية إلى بناء أكثر استدامة وقيمة تطبيقية في الطبقة المتوسطة.
نموذج عام (LLM) مقابل نموذج متخصص (SLM)
تعتمد نماذج اللغة الكبيرة التقليدية (LLM) بشكل كبير على مجموعات البيانات الكبيرة والهياكل الموزعة المعقدة، حيث تتراوح أحجام المعلمات من 70B إلى 500B، وغالبًا ما تصل تكلفة التدريب لمرة واحدة إلى ملايين الدولارات. ومن ناحية أخرى، تُعتبر SLM (نموذج اللغة المتخصص) كأحد أنماط التعديل الخفيف القابل لإعادة الاستخدام لنموذج أساسي، والتي عادة ما تستند إلى نماذج مفتوحة المصدر، وتجمع بين عدد قليل من البيانات المهنية عالية الجودة وتقنيات مثل LoRA، لبناء نماذج خبراء سريعة تمتلك معرفة في مجالات محددة، مما يقلل بشكل كبير من تكاليف التدريب والعتبات التقنية.
من الجدير بالذكر أن SLM لن يتم دمجه في أوزان LLM، بل سيتم التعاون مع LLM من خلال استدعاء بنية Agent، نظام المكونات الإضافية للتوجيه الديناميكي، الإدخال الساخن لوحدات LoRA، وRAG (التوليد المعزز بالاسترجاع) وغيرها من الطرق. يحتفظ هذا الهيكل بقدرة LLM على التغطية الواسعة، بينما يعزز الأداء المتخصص من خلال وحدات التعديل الدقيق، مما يشكل نظامًا ذكيًا مركبًا عالي المرونة.
قيمة وحدود الذكاء الاصطناعي في نموذج الطبقة
مشروع Crypto AI من الصعب بشكل أساسي أن يعزز مباشرة من القدرات الأساسية لنموذج اللغة الكبير (LLM) ، والسبب الرئيسي في ذلك هو
ومع ذلك، يمكن لمشاريع Crypto AI أن تحقق قيمة مضافة من خلال ضبط نماذج اللغة المتخصصة (SLM) على نماذج أساسية مفتوحة المصدر، ودمج قابلية التحقق والتحفيز في Web3. كـ "طبقة واجهة محيطية" في سلسلة صناعة الذكاء الاصطناعي، تتجلى في اتجاهين رئيسيين:
تصنيف أنواع نماذج الذكاء الاصطناعي وتحليل ملاءمة blockchain
من هنا، يتضح أن النقاط الممكنة لمشاريع Crypto AI من نوع نموذجية تتركز بشكل رئيسي على تحسين خفة SLM الصغيرة، ودمج بيانات السلسلة والتحقق من هيكل RAG، بالإضافة إلى نشر وتحفيز النموذج المحلي Edge. مع دمج القابلية للتحقق من البلوكشين وآلية التوكن، يمكن لـ Crypto أن توفر قيمة فريدة لهذه السيناريوهات ذات الموارد المتوسطة والمنخفضة، مما يخلق قيمة مميزة لطبقة واجهة AI.
سلسلة كتل الذكاء الاصطناعي المستندة إلى البيانات والنماذج، يمكن أن تسجل بوضوح وسجل غير قابل للتغيير مصدر مساهمة كل بيانات ونموذج، مما يعزز بشكل ملحوظ موثوقية البيانات وقابلية تتبع تدريب النموذج. في الوقت نفسه، من خلال آلية العقود الذكية، يتم تفعيل توزيع المكافآت تلقائيًا عند استدعاء البيانات أو النموذج، مما يحول سلوك الذكاء الاصطناعي إلى قيمة رمزية قابلة للقياس والتداول، وبناء نظام تحفيز مستدام. بالإضافة إلى ذلك، يمكن لمستخدمي المجتمع أيضًا تقييم أداء النموذج من خلال تصويت الرموز، والمشاركة في وضع القواعد وتكرارها، وتحسين هيكل الحوكمة اللامركزية.
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-62B3FAe810F4772AABA3D91C74C1AA6)
二、项目概述 | OpenLedger رؤية سلسلة الذكاء الاصطناعي
OpenLedger هو واحد من المشاريع القليلة في سوق البلوكشين AI التي تركز على آليات تحفيز البيانات والنماذج. وقد طرحت لأول مرة مفهوم "AI القابلة للدفع"، والتي تهدف إلى بناء بيئة تشغيل AI عادلة وشفافة وقابلة للتجميع، لتحفيز مساهمي البيانات ومطوري النماذج وبناة تطبيقات AI للتعاون على نفس المنصة، والحصول على عوائد على السلسلة بناءً على المساهمات الفعلية.
OpenLedger توفر سلسلة مغلقة كاملة من "تقديم البيانات" إلى "نشر النموذج" ثم إلى "استدعاء توزيع الأرباح"، وتشمل وحداتها الأساسية:
من خلال الوحدات أعلاه، قامت OpenLedger ببناء "بنية تحتية اقتصادية للوكيل الذكي" مدفوعة بالبيانات وقابلة للتجميع، لدفع سلسلة قيمة الذكاء الاصطناعي إلى السلسلة.
وفي اعتماد تقنية blockchain، تستخدم OpenLedger قاعدة OP Stack + EigenDA لبناء بيئة تشغيل بيانات وعقود عالية الأداء ومنخفضة التكلفة وقابلة للتحقق لنماذج الذكاء الاصطناعي.
بالمقارنة مع شبكات مثل NEAR التي تركز أكثر على البنية التحتية وتدعم سيادة البيانات ومعمارية "AI Agents on BOS"، تركز OpenLedger أكثر على بناء سلسلة مخصصة للذكاء الاصطناعي تركز على بيانات التحفيز والنماذج، وتهدف إلى تحقيق دورة قيمة قابلة للتتبع، وقابلة للتجميع، ومستدامة لتطوير النماذج واستدعائها على السلسلة. إنها البنية التحتية لتحفيز النماذج في عالم Web3، حيث تجمع بين استضافة النماذج، وفواتير الاستخدام، وواجهات قابلة للتجميع على السلسلة، مما يعزز مسار تحقيق "النموذج كأصل".
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-19C2276FCCC616CCF9260FB7E35C9C24)
ثلاثة، المكونات الأساسية لـ OpenLedger والهندسة التقنية
3.1 نموذج المصنع، لا حاجة لشفرة نموذج المصنع
ModelFactory هو منصة لضبط نموذج اللغة الكبير (LLM) ضمن نظام OpenLedger البيئي. على عكس أطر الضبط التقليدية، يوفر ModelFactory واجهة رسومية بحتة للعمل، دون الحاجة إلى أدوات سطر الأوامر أو تكامل API. يمكن للمستخدمين ضبط النموذج استنادًا إلى مجموعة البيانات التي تم تفويضها ومراجعتها على OpenLedger. تم تحقيق سير العمل المتكامل لتفويض البيانات، وتدريب النموذج، والنشر، والذي يتضمن العمليات الأساسية التالية:
يتضمن هيكل نظام Model Factory ستة وحدات، تغطي مصادقة الهوية، وصلاحيات البيانات، وتعديل النموذج، ونشر التقييم وRAG تتبع المصدر، لإنشاء منصة خدمات نموذج متكاملة آمنة وقابلة للتحكم، وتفاعلية في الوقت الفعلي، وقابلة للت Monetization المستدام.
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-F23F47F09226573B1FCACEBDCFB8c1f3)
نموذج مصنع يدعم حاليا قدرات نموذج اللغة الكبيرة كما هو موضح أدناه:
على الرغم من أن مجموعة نماذج OpenLedger لا تحتوي على أحدث نماذج MoE عالية الأداء أو النماذج متعددة الأنماط، إلا أن استراتيجيتها ليست متخلفة، بل هي تكوين "الأولوية العملية" المبني على قيود الواقع المعمول بها على السلسلة (تكاليف الاستدلال، تكيف RAG، توافق LoRA، بيئة EVM).
تعتبر Model Factory كأداة بدون كود ، حيث أن جميع النماذج مدمجة بآلية إثبات المساهمة ، لضمان حقوق المساهمين في البيانات ومطوري النماذج ، مع مزايا العتبة المنخفضة ، والقابلية للتسييل ، والقدرة على التركيب ، مقارنة بأدوات تطوير النماذج التقليدية:
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ moments-909dc3f796ad6aa44a1c97a51ade4193)
3.2 OpenLoRA ، تحويل الأصول على السلسلة للنموذج المعدل
LoRA (تكييف منخفض الرتبة) هي طريقة فعالة لضبط المعلمات، من خلال إدخال "مصفوفات منخفضة الرتبة" في نماذج كبيرة مدربة مسبقًا لتعلم مهام جديدة، دون تعديل معلمات النموذج الأصلي، مما يقلل بشكل كبير من تكاليف التدريب ومتطلبات التخزين. عادةً ما تحتوي نماذج اللغة الكبيرة التقليدية (مثل LLaMA و GPT-3) على عشرات المليارات أو حتى مئات المليارات من المعلمات. لاستخدامها في مهام محددة (مثل الأسئلة القانونية، الاستشارات الطبية)، يلزم إجراء ضبط (fine-tuning). الاستراتيجية الأساسية لـ LoRA هي: "تجميد معلمات النموذج الكبير الأصلي، وتدريب مصفوفات المعلمات الجديدة المدخلة فقط."، مما يجعلها فعالة من حيث المعلمات، سريعة التدريب، ومرنة في النشر، وهي الطريقة الأكثر ملاءمة حاليًا لنشر نماذج Web3 واستدعائها بشكل مركب.
OpenLoRA هو إطار استدلال خفيف الوزن تم تصميمه خصيصًا لنشر النماذج المتعددة ومشاركة الموارد من قبل OpenLedger. الهدف الرئيسي منه هو معالجة المشكلات الشائعة في نشر نماذج الذكاء الاصطناعي الحالية مثل التكلفة العالية، وانخفاض إمكانية إعادة الاستخدام، وإهدار موارد GPU، وتعزيز تنفيذ "الذكاء الاصطناعي القابل للدفع".
OpenLoRA نظام هيكل المكونات الأساسية، يعتمد على التصميم المعياري، يغطي تخزين النماذج، تنفيذ الاستدلال، توجيه الطلبات وغيرها من المراحل الأساسية، لتحقيق نشر واستدعاء متعدد النماذج بكفاءة وتكلفة منخفضة: