تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب استنادا إلى OP Stack + EigenDA
1. المقدمة | الانتقال في طبقة النموذج لـ Crypto AI
تعتبر البيانات والنماذج والطاقة الحاسوبية العناصر الأساسية الثلاثة لبنية الذكاء الاصطناعي التحتية، ومماثلة للوقود (البيانات) والمحرك (النموذج) والطاقة (الطاقة الحاسوبية) التي لا يمكن الاستغناء عن أي منها. وبالمثل، شهدت بنية الذكاء الاصطناعي التقليدية مسار تطور مشابه. في أوائل عام 2024، هيمن السوق لفترة على مشاريع GPU اللامركزية، مع التركيز العام على منطق النمو الخشن لـ "تجميع الطاقة الحاسوبية". ومع دخول عام 2025، بدأت نقطة تركيز الصناعة في الارتفاع تدريجياً نحو طبقة النموذج والبيانات، مما يدل على أن Crypto AI ينتقل من المنافسة على الموارد الأساسية إلى بناء طبقة وسطى أكثر استدامة وقيمة تطبيقية.
النموذج العام الكبير (LLM) مقابل النموذج المتخصص (SLM)
تعتمد نماذج اللغة الكبيرة التقليدية (LLM) بشكل كبير على مجموعات البيانات الضخمة والهياكل الموزعة المعقدة، حيث يصل حجم المعلمات إلى 70B~500B، وغالبًا ما تصل تكلفة التدريب لمرة واحدة إلى ملايين الدولارات. بينما يعد نموذج اللغة المتخصص (SLM) كونه نموذجًا أساسيًا قابلاً لإعادة الاستخدام، نمطًا خفيفًا للتعديل الدقيق، وعادة ما يعتمد على نماذج مفتوحة المصدر، ويجمع بين كمية صغيرة من البيانات المتخصصة عالية الجودة وتقنيات مثل LoRA، لبناء نماذج خبراء تمتلك معرفة خاصة بمجال معين بسرعة، مما يقلل بشكل كبير من تكلفة التدريب وعتبة التقنية.
من الجدير بالذكر أن SLM لن يتم دمجه في أوزان LLM، بل سيتم تشغيله بالتعاون مع LLM من خلال بنية الوكيل، نظام الإضافات للتوجيه الديناميكي، القابل للإزالة الساخنة لوحدات LoRA، وRAG (التوليد المعزز بالاسترجاع) وغيرها من الطرق. هذه البنية تحتفظ بقدرة تغطية LLM الواسعة، بينما تعزز الأداء المهني من خلال وحدات التعديل الدقيق، مما يشكل نظام ذكاء مركب عالي المرونة.
قيمة و حدود Crypto AI في طبقة النموذج
مشاريع الذكاء الاصطناعي للعملات المشفرة في جوهرها صعبة في تعزيز القدرة الأساسية لنماذج اللغة الكبيرة (LLM) بشكل مباشر، والسبب الرئيسي في ذلك هو
عائق تقني مرتفع للغاية: حجم البيانات والموارد الحسابية والقدرات الهندسية المطلوبة لتدريب نموذج الأساس هائلة للغاية، و حاليًا لا تمتلك القدرة اللازمة سوى عمالقة التكنولوجيا.
قيود النظام البيئي المصدر المفتوح: على الرغم من أن النماذج الأساسية الرئيسية قد تم فتح مصدرها، إلا أن المفتاح الحقيقي لدفع النموذج إلى التقدم لا يزال مركزًا في مؤسسات البحث والنظم الهندسية المغلقة، مما يحد من مساحة المشاركة للمشاريع على السلسلة في مستوى النموذج الأساسي.
ومع ذلك، يمكن لمشاريع Crypto AI أن تحقق قيمة إضافية من خلال ضبط نماذج اللغة المتخصصة (SLM) على نماذج الأساس المفتوحة، بالإضافة إلى دمج قابلية التحقق وآليات التحفيز في Web3. كـ "طبقة واجهة محيطية" في سلسلة صناعة الذكاء الاصطناعي، تتجلى في اتجاهين رئيسيين:
طبقة التحقق الموثوقة: من خلال تسجيل مسارات توليد النموذج، ومساهمات البيانات، واستخداماتها على السلسلة، يعزز من إمكانية تتبع مخرجات الذكاء الاصطناعي وقدرتها على مقاومة التلاعب.
آلية التحفيز: باستخدام الرموز الأصلية، لتحفيز سلوكيات تحميل البيانات، واستدعاء النماذج، وتنفيذ العملاء (Agent)، لبناء حلقة إيجابية لتدريب النماذج وخدماتها.
تحليل قابلية تطبيق نوع نموذج الذكاء الاصطناعي وتصنيفها في البلوكشين
يتضح من ذلك أن النقاط القابلة للتطبيق في مشاريع Crypto AI من نوع النماذج تتركز بشكل رئيسي على تحسين خفة نموذج SLM الصغير، وتكامل البيانات والتحقق من صحة البيانات على السلسلة من خلال هيكل RAG، وكذلك النشر المحلي لنموذج Edge والتحفيز. من خلال الجمع بين القابلية للتحقق من صحة blockchain وآلية الرموز، يمكن لـ Crypto تقديم قيمة فريدة لهذه السيناريوهات ذات الموارد المتوسطة والمنخفضة، مما يشكل قيمة مميزة "لطبقة واجهة" الذكاء الاصطناعي.
سلسلة الذكاء الاصطناعي القائمة على البيانات والنماذج، يمكنها تسجيل مصدر مساهمة كل بيانات ونموذج بشكل واضح وغير قابل للتعديل على السلسلة، مما يعزز بشكل ملحوظ من مصداقية البيانات وقابلية تتبع تدريب النموذج. في الوقت نفسه، من خلال آلية العقود الذكية، يتم تنشيط توزيع المكافآت تلقائيًا عند استدعاء البيانات أو النماذج، مما يحول سلوك الذكاء الاصطناعي إلى قيمة رمزية قابلة للقياس والتداول، لبناء نظام تحفيز مستدام. بالإضافة إلى ذلك، يمكن لمستخدمي المجتمع أيضًا تقييم أداء النموذج من خلال التصويت بالرموز، والمشاركة في وضع القواعد وتكرارها، مما يُحسن هيكل الحوكمة اللامركزية.
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-62B3FAe810F4772AABA3D91C74C1AA6)
٢. نظرة عامة على المشروع | رؤية OpenLedger للذكاء الاصطناعي في سلسلة الكتل
OpenLedger هو واحد من المشاريع القليلة في السوق التي تركز على آليات تحفيز البيانات والنماذج في مجال الذكاء الاصطناعي على البلوكشين. لقد اقترح مفهوم "الذكاء الاصطناعي القابل للدفع"، والذي يهدف إلى بناء بيئة تشغيل عادلة وشفافة وقابلة للتجميع للذكاء الاصطناعي، لتحفيز المساهمين في البيانات ومطوري النماذج وبناة تطبيقات الذكاء الاصطناعي للتعاون على نفس المنصة، والحصول على عائدات على السلسلة بناءً على المساهمات الفعلية.
OpenLedger توفر حلقة مغلقة كاملة من "توفير البيانات" إلى "نشر النماذج" ثم "استدعاء توزيع الأرباح"، تتضمن وحداتها الأساسية ما يلي:
مصنع النموذج: بدون الحاجة إلى البرمجة، يمكنك استخدام LoRA للتدريب والتعديل على نماذج مخصصة بناءً على LLM مفتوح المصدر؛
OpenLoRA: يدعم تواجد آلاف النماذج، التحميل الديناميكي حسب الحاجة، مما يقلل بشكل كبير من تكاليف النشر؛
PoA (إثبات النسبة): قياس المساهمة وتوزيع المكافآت من خلال تسجيلات استدعاء السلسلة.
Datanets: شبكة بيانات هيكلية موجهة نحو سيناريوهات عمودية، تم بناؤها والتحقق منها من خلال التعاون المجتمعي؛
منصة اقتراح النماذج (Model Proposal Platform): سوق نماذج على السلسلة يمكن تجميعه، واستدعاؤه، ودفعه.
من خلال الوحدات المذكورة أعلاه، قامت OpenLedger ببناء "البنية التحتية للاقتصاد الذكي" المدفوعة بالبيانات والقابلة للتجميع، مما يعزز تحويل سلسلة قيمة الذكاء الاصطناعي إلى السلسلة.
وفي تبني تقنية blockchain، تستخدم OpenLedger OP Stack + EigenDA كأساس، لبناء بيئة تشغيل بيانات وعقود عالية الأداء ومنخفضة التكلفة وقابلة للتحقق لنماذج الذكاء الاصطناعي.
مبني على OP Stack: مبني على تكنولوجيا Optimism، يدعم التنفيذ عالي الإنتاجية ومنخفض التكلفة؛
تسوية على الشبكة الرئيسية للإيثيريوم: ضمان أمان المعاملات وسلامة الأصول؛
متوافق مع EVM: يسهل على المطورين نشر وتوسيع بسرعة استنادًا إلى Solidity؛
EigenDA تقدم دعم توفر البيانات: تخفيض كبير في تكاليف التخزين، وضمان قابلية التحقق من البيانات.
بالمقارنة مع NEAR، التي تركز أكثر على الطبقة الأساسية وتستهدف سيادة البيانات مع هيكل "AI Agents on BOS"، تركز OpenLedger بشكل أكبر على بناء سلسلة مخصصة للذكاء الاصطناعي تستهدف حوافز البيانات والنماذج، وتهدف إلى جعل تطوير النماذج واستدعائها في السلسلة قابلة للتتبع، وقابلة للتجميع، وقابلة للاستدامة. إنها البنية التحتية لتحفيز النماذج في عالم Web3، حيث تجمع بين استضافة النماذج، وفوترة الاستخدام، وواجهات قابلة للتجميع على السلسلة، مما يعزز مسار تحقيق "النموذج كأصل".
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-19C2276FCCC616CCF9260FB7E35C9C24)
٣. المكونات الأساسية و الهيكل التكنولوجي لـ OpenLedger
3.1 نموذج المصنع، بدون الحاجة إلى نموذج البرمجة
ModelFactory هو منصة لتعديل النماذج اللغوية الكبيرة (LLM) تحت نظام OpenLedger البيئي. على عكس أطر التعديل التقليدية، يوفر ModelFactory واجهة رسومية بحتة، دون الحاجة إلى أدوات سطر الأوامر أو تكامل API. يمكن للمستخدمين تعديل النماذج استنادًا إلى مجموعة البيانات التي تم إكمال تفويضها ومراجعتها على OpenLedger. وقد تم تحقيق تدفق العمل المتكامل لتفويض البيانات، وتدريب النموذج، ونشره، حيث تشمل العمليات الأساسية ما يلي:
التحكم في الوصول إلى البيانات: يقدم المستخدم طلب البيانات، يقوم المزود بمراجعته والموافقة عليه، ويتم الاتصال بالبيانات تلقائيًا بواجهة تدريب النموذج.
اختيار النموذج وإعداده: يدعم LLM الشائعة، من خلال واجهة المستخدم الرسومية لضبط المعلمات الفائقة.
تعديل خفيف الوزن: محرك LoRA / QLoRA المدمج، يعرض تقدم التدريب في الوقت الحقيقي.
يتضمن هيكل نظام Model Factory ستة وحدات، تشمل مصادقة الهوية، وصلاحيات البيانات، وضبط النماذج، ونشر التقييم، وتتبع RAG، لإنشاء منصة خدمات نموذجية متكاملة آمنة وقابلة للتحكم، وتفاعلية في الوقت الفعلي، وقابلة للتحقيق المستدام.
تظهر الجدول أدناه قدرات نماذج اللغة الكبيرة المدعومة حاليًا من ModelFactory:
سلسلة LLaMA: الأكثر اتساعًا في النظام البيئي، نشطة في المجتمع، قوية في الأداء العام، وهي واحدة من النماذج الأساسية مفتوحة المصدر الأكثر شهرة حاليًا.
Mistral: هيكل فعال، أداء استدلال ممتاز، مناسب للنشر المرن والسيناريوهات ذات الموارد المحدودة.
Qwen: منتج من علي بابا، أداء ممتاز في المهام الصينية، قدرة شاملة قوية، مناسب كخيار أول للمطورين المحليين.
ChatGLM: تأثير المحادثة باللغة الصينية بارز، مناسب لخدمة العملاء في القطاعات المتخصصة والمشاهد المحلية.
Deepseek: يتميز بأداء متفوق في توليد الشيفرة والاستدلال الرياضي، وهو مناسب لأدوات المساعدة في التطوير الذكي.
Gemma: نموذج خفيف أطلقته جوجل، هيكلها واضح، من السهل البدء بها والتجربة.
Falcon: كانت معيار الأداء، مناسبة للبحث الأساسي أو اختبارات المقارنة، ولكن نشاط المجتمع قد انخفض.
BLOOM: دعم متعدد اللغات قوي، لكن أداء الاستدلال ضعيف، مناسب للبحوث التي تغطي اللغات.
GPT-2: نموذج كلاسيكي مبكر، مناسب فقط لأغراض التعليم والتحقق، لا يُنصح باستخدامه في النشر الفعلي.
على الرغم من أن مجموعة نماذج OpenLedger لا تتضمن أحدث نماذج MoE عالية الأداء أو النماذج متعددة الوسائط، إلا أن استراتيجيتها ليست قديمة، بل هي تكوين "الأولوية العملية" المبني على القيود الواقعية للتنفيذ على السلسلة (تكاليف الاستدلال، توافق RAG، توافق LoRA، بيئة EVM).
Model Factory كأداة بدون كود، تحتوي جميع النماذج على آلية إثبات المساهمة المدمجة، لضمان حقوق المساهمين في البيانات ومطوري النماذج، وتتميز بمتطلبات دخول منخفضة، وقابلية للتسييل والتركيب، مقارنة بأدوات تطوير النماذج التقليدية:
للمطورين: توفير مسار كامل للنماذج من الحضانة، التوزيع، والإيرادات؛
بالنسبة للمنصة: تشكيل تداول الأصول النموذجية وبيئة التركيب؛
بالنسبة للمستخدمين: يمكن دمج النماذج أو الوكلاء كما هو الحال عند استدعاء واجهة برمجة التطبيقات.
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-F23F47F09226573B1FCACEBDCFB8c1f3)
3.2 OpenLoRA، الأصول المعتمدة على السلسلة لنموذج الضبط الدقيق
LoRA (التكيف منخفض الرتبة) هي طريقة فعالة لتعديل المعلمات، من خلال إدخال "المصفوفات ذات الرتبة المنخفضة" في نموذج كبير مدرب مسبقًا لتعلم مهام جديدة، دون تعديل معلمات النموذج الأصلي، مما يقلل بشكل كبير من تكاليف التدريب ومتطلبات التخزين. عادة ما تحتوي نماذج اللغة الكبيرة التقليدية على عشرات المليارات أو حتى مئات المليارات من المعلمات. لاستخدامها في مهام معينة، تحتاج إلى تعديل. الاستراتيجية الأساسية لـ LoRA هي: "تجميد معلمات النموذج الكبير الأصلي، وتدريب مصفوفات المعلمات الجديدة المدخلة فقط". إنها فعالة من حيث المعلمات، سريعة التدريب، ومرنة في النشر، مما يجعلها الطريقة الرئيسية الأنسب لنشر نماذج Web3 واستدعاء المكونات.
OpenLoRA هو إطار استدلال خفيف الوزن تم بناؤه بواسطة OpenLedger ومصمم خصيصًا لنشر نماذج متعددة ومشاركة الموارد. الهدف الأساسي هو حل المشكلات الشائعة في نشر نماذج الذكاء الاصطناعي الحالية مثل التكلفة العالية، وانخفاض إعادة الاستخدام، وإهدار موارد GPU، وتعزيز تنفيذ "الذكاء الاصطناعي القابل للدفع".
OpenLoRA نظام العمارة المكون الأساسي، يعتمد على تصميم معياري، يغطي تخزين النموذج، تنفيذ الاستدلال، توجيه الطلبات وغيرها من المراحل الأساسية، لتحقيق كفاءة وتكلفة منخفضة في نشر واستدعاء نماذج متعددة:
وحدة تخزين LoRA Adapter: يتم استضافة LoRA adapter المعدل على OpenLedger، مما يتيح التحميل عند الطلب، وتجنب تحميل جميع النماذج مسبقًا في ذاكرة الفيديو، وتوفير الموارد.
استضافة النماذج وطبقة الدمج الديناميكية: تشترك جميع نماذج الضبط الدقيق في النموذج الأساسي الكبير، وخلال الاستدلال يتم الدمج الديناميكي لمهايئ LoRA، مما يدعم الاستدلال المشترك لعدة محولات، مما يعزز الأداء.
محرك الاستدلال: يتضمن تقنيات تحسين CUDA متعددة مثل Flash-Attention و Paged-Attention و SGMV.
وحدة توجيه الطلبات والإخراج المتدفق: توجيه ديناميكي إلى الموصل الصحيح بناءً على النموذج المطلوب في الطلب، وتحقيق توليد متدفق على مستوى الرمز من خلال تحسين النواة.
تندرج عملية استدلال OpenLoRA ضمن الخدمات النموذجية "الناضجة العامة" على المستوى الفني "كالآتي:
تحميل النموذج الأساسي: يقوم النظام بتحميل النموذج الكبير الأساسي مسبقًا
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تسجيلات الإعجاب 9
أعجبني
9
5
مشاركة
تعليق
0/400
GasFeeNightmare
· منذ 13 س
النموذج يحرق الأموال، من الأفضل مباشرة التداول في عالم العملات الرقمية.
شاهد النسخة الأصليةرد0
GateUser-aa7df71e
· منذ 13 س
مرة أخرى يتم استغلال الحمقى من خلال سرد القصص.
شاهد النسخة الأصليةرد0
ContractCollector
· منذ 13 س
الذكاء الاصطناعي رائع ، لكن لا تقع فيه
شاهد النسخة الأصليةرد0
BrokenYield
· منذ 13 س
أوه... رواية أخرى عن GPU ستنتهي مثل لونا بصراحة
شاهد النسخة الأصليةرد0
OnChainDetective
· منذ 13 س
همم... النمط يوحي بوجود دعاية أخرى لـ gpt/ai لكن *يتحقق من البيانات التاريخية* بنية op stack قد تكون شرعية بصراحة
تحليل العمق لـ OpenLedger: بناء بنية تحتية للاقتصاد الذكي على أساس OP Stack و EigenDA
تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب استنادا إلى OP Stack + EigenDA
1. المقدمة | الانتقال في طبقة النموذج لـ Crypto AI
تعتبر البيانات والنماذج والطاقة الحاسوبية العناصر الأساسية الثلاثة لبنية الذكاء الاصطناعي التحتية، ومماثلة للوقود (البيانات) والمحرك (النموذج) والطاقة (الطاقة الحاسوبية) التي لا يمكن الاستغناء عن أي منها. وبالمثل، شهدت بنية الذكاء الاصطناعي التقليدية مسار تطور مشابه. في أوائل عام 2024، هيمن السوق لفترة على مشاريع GPU اللامركزية، مع التركيز العام على منطق النمو الخشن لـ "تجميع الطاقة الحاسوبية". ومع دخول عام 2025، بدأت نقطة تركيز الصناعة في الارتفاع تدريجياً نحو طبقة النموذج والبيانات، مما يدل على أن Crypto AI ينتقل من المنافسة على الموارد الأساسية إلى بناء طبقة وسطى أكثر استدامة وقيمة تطبيقية.
النموذج العام الكبير (LLM) مقابل النموذج المتخصص (SLM)
تعتمد نماذج اللغة الكبيرة التقليدية (LLM) بشكل كبير على مجموعات البيانات الضخمة والهياكل الموزعة المعقدة، حيث يصل حجم المعلمات إلى 70B~500B، وغالبًا ما تصل تكلفة التدريب لمرة واحدة إلى ملايين الدولارات. بينما يعد نموذج اللغة المتخصص (SLM) كونه نموذجًا أساسيًا قابلاً لإعادة الاستخدام، نمطًا خفيفًا للتعديل الدقيق، وعادة ما يعتمد على نماذج مفتوحة المصدر، ويجمع بين كمية صغيرة من البيانات المتخصصة عالية الجودة وتقنيات مثل LoRA، لبناء نماذج خبراء تمتلك معرفة خاصة بمجال معين بسرعة، مما يقلل بشكل كبير من تكلفة التدريب وعتبة التقنية.
من الجدير بالذكر أن SLM لن يتم دمجه في أوزان LLM، بل سيتم تشغيله بالتعاون مع LLM من خلال بنية الوكيل، نظام الإضافات للتوجيه الديناميكي، القابل للإزالة الساخنة لوحدات LoRA، وRAG (التوليد المعزز بالاسترجاع) وغيرها من الطرق. هذه البنية تحتفظ بقدرة تغطية LLM الواسعة، بينما تعزز الأداء المهني من خلال وحدات التعديل الدقيق، مما يشكل نظام ذكاء مركب عالي المرونة.
قيمة و حدود Crypto AI في طبقة النموذج
مشاريع الذكاء الاصطناعي للعملات المشفرة في جوهرها صعبة في تعزيز القدرة الأساسية لنماذج اللغة الكبيرة (LLM) بشكل مباشر، والسبب الرئيسي في ذلك هو
ومع ذلك، يمكن لمشاريع Crypto AI أن تحقق قيمة إضافية من خلال ضبط نماذج اللغة المتخصصة (SLM) على نماذج الأساس المفتوحة، بالإضافة إلى دمج قابلية التحقق وآليات التحفيز في Web3. كـ "طبقة واجهة محيطية" في سلسلة صناعة الذكاء الاصطناعي، تتجلى في اتجاهين رئيسيين:
تحليل قابلية تطبيق نوع نموذج الذكاء الاصطناعي وتصنيفها في البلوكشين
يتضح من ذلك أن النقاط القابلة للتطبيق في مشاريع Crypto AI من نوع النماذج تتركز بشكل رئيسي على تحسين خفة نموذج SLM الصغير، وتكامل البيانات والتحقق من صحة البيانات على السلسلة من خلال هيكل RAG، وكذلك النشر المحلي لنموذج Edge والتحفيز. من خلال الجمع بين القابلية للتحقق من صحة blockchain وآلية الرموز، يمكن لـ Crypto تقديم قيمة فريدة لهذه السيناريوهات ذات الموارد المتوسطة والمنخفضة، مما يشكل قيمة مميزة "لطبقة واجهة" الذكاء الاصطناعي.
سلسلة الذكاء الاصطناعي القائمة على البيانات والنماذج، يمكنها تسجيل مصدر مساهمة كل بيانات ونموذج بشكل واضح وغير قابل للتعديل على السلسلة، مما يعزز بشكل ملحوظ من مصداقية البيانات وقابلية تتبع تدريب النموذج. في الوقت نفسه، من خلال آلية العقود الذكية، يتم تنشيط توزيع المكافآت تلقائيًا عند استدعاء البيانات أو النماذج، مما يحول سلوك الذكاء الاصطناعي إلى قيمة رمزية قابلة للقياس والتداول، لبناء نظام تحفيز مستدام. بالإضافة إلى ذلك، يمكن لمستخدمي المجتمع أيضًا تقييم أداء النموذج من خلال التصويت بالرموز، والمشاركة في وضع القواعد وتكرارها، مما يُحسن هيكل الحوكمة اللامركزية.
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-62B3FAe810F4772AABA3D91C74C1AA6)
٢. نظرة عامة على المشروع | رؤية OpenLedger للذكاء الاصطناعي في سلسلة الكتل
OpenLedger هو واحد من المشاريع القليلة في السوق التي تركز على آليات تحفيز البيانات والنماذج في مجال الذكاء الاصطناعي على البلوكشين. لقد اقترح مفهوم "الذكاء الاصطناعي القابل للدفع"، والذي يهدف إلى بناء بيئة تشغيل عادلة وشفافة وقابلة للتجميع للذكاء الاصطناعي، لتحفيز المساهمين في البيانات ومطوري النماذج وبناة تطبيقات الذكاء الاصطناعي للتعاون على نفس المنصة، والحصول على عائدات على السلسلة بناءً على المساهمات الفعلية.
OpenLedger توفر حلقة مغلقة كاملة من "توفير البيانات" إلى "نشر النماذج" ثم "استدعاء توزيع الأرباح"، تتضمن وحداتها الأساسية ما يلي:
من خلال الوحدات المذكورة أعلاه، قامت OpenLedger ببناء "البنية التحتية للاقتصاد الذكي" المدفوعة بالبيانات والقابلة للتجميع، مما يعزز تحويل سلسلة قيمة الذكاء الاصطناعي إلى السلسلة.
وفي تبني تقنية blockchain، تستخدم OpenLedger OP Stack + EigenDA كأساس، لبناء بيئة تشغيل بيانات وعقود عالية الأداء ومنخفضة التكلفة وقابلة للتحقق لنماذج الذكاء الاصطناعي.
بالمقارنة مع NEAR، التي تركز أكثر على الطبقة الأساسية وتستهدف سيادة البيانات مع هيكل "AI Agents on BOS"، تركز OpenLedger بشكل أكبر على بناء سلسلة مخصصة للذكاء الاصطناعي تستهدف حوافز البيانات والنماذج، وتهدف إلى جعل تطوير النماذج واستدعائها في السلسلة قابلة للتتبع، وقابلة للتجميع، وقابلة للاستدامة. إنها البنية التحتية لتحفيز النماذج في عالم Web3، حيث تجمع بين استضافة النماذج، وفوترة الاستخدام، وواجهات قابلة للتجميع على السلسلة، مما يعزز مسار تحقيق "النموذج كأصل".
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-19C2276FCCC616CCF9260FB7E35C9C24)
٣. المكونات الأساسية و الهيكل التكنولوجي لـ OpenLedger
3.1 نموذج المصنع، بدون الحاجة إلى نموذج البرمجة
ModelFactory هو منصة لتعديل النماذج اللغوية الكبيرة (LLM) تحت نظام OpenLedger البيئي. على عكس أطر التعديل التقليدية، يوفر ModelFactory واجهة رسومية بحتة، دون الحاجة إلى أدوات سطر الأوامر أو تكامل API. يمكن للمستخدمين تعديل النماذج استنادًا إلى مجموعة البيانات التي تم إكمال تفويضها ومراجعتها على OpenLedger. وقد تم تحقيق تدفق العمل المتكامل لتفويض البيانات، وتدريب النموذج، ونشره، حيث تشمل العمليات الأساسية ما يلي:
يتضمن هيكل نظام Model Factory ستة وحدات، تشمل مصادقة الهوية، وصلاحيات البيانات، وضبط النماذج، ونشر التقييم، وتتبع RAG، لإنشاء منصة خدمات نموذجية متكاملة آمنة وقابلة للتحكم، وتفاعلية في الوقت الفعلي، وقابلة للتحقيق المستدام.
تظهر الجدول أدناه قدرات نماذج اللغة الكبيرة المدعومة حاليًا من ModelFactory:
على الرغم من أن مجموعة نماذج OpenLedger لا تتضمن أحدث نماذج MoE عالية الأداء أو النماذج متعددة الوسائط، إلا أن استراتيجيتها ليست قديمة، بل هي تكوين "الأولوية العملية" المبني على القيود الواقعية للتنفيذ على السلسلة (تكاليف الاستدلال، توافق RAG، توافق LoRA، بيئة EVM).
Model Factory كأداة بدون كود، تحتوي جميع النماذج على آلية إثبات المساهمة المدمجة، لضمان حقوق المساهمين في البيانات ومطوري النماذج، وتتميز بمتطلبات دخول منخفضة، وقابلية للتسييل والتركيب، مقارنة بأدوات تطوير النماذج التقليدية:
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-F23F47F09226573B1FCACEBDCFB8c1f3)
3.2 OpenLoRA، الأصول المعتمدة على السلسلة لنموذج الضبط الدقيق
LoRA (التكيف منخفض الرتبة) هي طريقة فعالة لتعديل المعلمات، من خلال إدخال "المصفوفات ذات الرتبة المنخفضة" في نموذج كبير مدرب مسبقًا لتعلم مهام جديدة، دون تعديل معلمات النموذج الأصلي، مما يقلل بشكل كبير من تكاليف التدريب ومتطلبات التخزين. عادة ما تحتوي نماذج اللغة الكبيرة التقليدية على عشرات المليارات أو حتى مئات المليارات من المعلمات. لاستخدامها في مهام معينة، تحتاج إلى تعديل. الاستراتيجية الأساسية لـ LoRA هي: "تجميد معلمات النموذج الكبير الأصلي، وتدريب مصفوفات المعلمات الجديدة المدخلة فقط". إنها فعالة من حيث المعلمات، سريعة التدريب، ومرنة في النشر، مما يجعلها الطريقة الرئيسية الأنسب لنشر نماذج Web3 واستدعاء المكونات.
OpenLoRA هو إطار استدلال خفيف الوزن تم بناؤه بواسطة OpenLedger ومصمم خصيصًا لنشر نماذج متعددة ومشاركة الموارد. الهدف الأساسي هو حل المشكلات الشائعة في نشر نماذج الذكاء الاصطناعي الحالية مثل التكلفة العالية، وانخفاض إعادة الاستخدام، وإهدار موارد GPU، وتعزيز تنفيذ "الذكاء الاصطناعي القابل للدفع".
OpenLoRA نظام العمارة المكون الأساسي، يعتمد على تصميم معياري، يغطي تخزين النموذج، تنفيذ الاستدلال، توجيه الطلبات وغيرها من المراحل الأساسية، لتحقيق كفاءة وتكلفة منخفضة في نشر واستدعاء نماذج متعددة:
تندرج عملية استدلال OpenLoRA ضمن الخدمات النموذجية "الناضجة العامة" على المستوى الفني "كالآتي: