منذ عام 2023، أصبحت الذكاء الاصطناعي وDePIN اتجاهات شائعة في مجال Web3، حيث وصلت قيمتها السوقية إلى 30 مليار دولار و23 مليار دولار على التوالي. تركز هذه المقالة على المجال المشترك بينهما، وتستكشف تطورات البروتوكولات ذات الصلة.
في مجموعة تقنيات الذكاء الاصطناعي، يوفر شبكة DePIN القابلية للاستخدام للذكاء الاصطناعي من خلال الموارد الحاسوبية. أدى تطور الشركات التقنية الكبرى إلى نقص في وحدات معالجة الرسوميات (GPU)، مما جعل من الصعب على المطورين الآخرين الحصول على ما يكفي من وحدات معالجة الرسوميات لإجراء الحسابات. وغالبًا ما يؤدي ذلك إلى اختيار المطورين لمقدمي خدمات السحابة المركزية، ولكن بسبب عدم مرونة عقود الأجهزة طويلة الأجل، تكون الكفاءة منخفضة.
يوفر DePIN بديلاً أكثر مرونة وفعالية من حيث التكلفة، من خلال تحفيز مساهمات الموارد بمكافآت رمزية. يقوم DePIN في مجال الذكاء الاصطناعي بتجميع موارد GPU من المالكين الأفراد إلى مراكز البيانات، مما يوفر إمدادًا موحدًا للمستخدمين الذين يحتاجون إلى الوصول إلى الأجهزة. هذا لا يوفر فقط للمطورين إمكانية الوصول المخصص وعند الطلب، بل يوفر أيضًا دخلًا إضافيًا لمالكي GPU.
يوجد العديد من شبكات AI DePIN في السوق، ستتناول هذه المقالة دور كل بروتوكول وأهدافه وإنجازاته لفهم الفروق بينها.
نظرة عامة على شبكة DePIN الذكاء الاصطناعي
Render هو رائد شبكة P2P التي توفر قدرة حساب GPU، بدأ في التركيز على إنشاء محتوى الرسوم المتحركة، ثم توسع ليشمل مهام حساب الذكاء الاصطناعي.
ضروريات:
أسستها شركة السحابة الرسومية OTOY
يتم استخدام شبكة GPU من قبل الشركات الكبرى في صناعة الترفيه
التعاون مع Stability AI وغيرها، دمج نماذج الذكاء الاصطناعي مع سير عمل التصيير ثلاثي الأبعاد
الموافقة على عدة عملاء حسابيين، دمج المزيد من شبكات DePIN GPU
تعتبر Akash بديلاً "سوبر سحابي" يدعم التخزين والحوسبة GPU وCPU. باستخدام أدوات صديقة للمطورين مثل منصة الحاويات والعقد الحاسوبية المدارة بواسطة Kubernetes، يمكن نشر البرمجيات بسلاسة عبر البيئات.
نقاط رئيسية:
للمهام الحسابية الواسعة النطاق من الحوسبة العامة إلى استضافة الشبكة
AkashML يسمح لشبكات GPU بتشغيل أكثر من 15,000 نموذج على Hugging Face
استضافت تطبيقات مثل روبوت الدردشة LLM لنموذج Mistral AI
بناء الميتافيرس، نشر الذكاء الاصطناعي وغير ذلك من المنصات باستخدام Supercloud
io.net يوفر الوصول إلى تجمعات GPU السحابية الموزعة، المخصصة لحالات استخدام الذكاء الاصطناعي والتعلم الآلي. تجميع من مراكز البيانات وعمال التعدين المشفرة وغيرها من المجالات GPU.
ضروريات:
IO-SDK متوافق مع أطر مثل PyTorch، والهندسة المعمارية متعددة الطبقات قابلة للتوسع ديناميكيًا
يدعم إنشاء 3 أنواع مختلفة من التجمعات، والبدء في غضون دقيقتين
التعاون مع Render و Filecoin لتكامل موارد GPU
Gensyn توفر قدرات GPU تركز على حسابات التعلم الآلي والتعلم العميق. تدعي أنها تحقق آليات تحقق أكثر كفاءة من خلال مفاهيم مثل إثبات التعلم.
ضروريات:
تكلفة ساعة استخدام GPU معادل V100 حوالي 0.40 دولار أمريكي، مما يوفر بشكل كبير
يمكن ضبط النموذج الأساسي المدرب مسبقًا لإكمال المهام المحددة
توفير نموذج أساسي عالمي مشترك لامركزي
Aethir مصمم خصيصًا لتشغيل وحدات معالجة الرسوميات الخاصة بالشركات، مع التركيز على مجالات الحوسبة كثيفة الاستخدام مثل الذكاء الاصطناعي، التعلم الآلي، وألعاب السحابة. تعمل الحاويات في الشبكة كنقاط نهاية افتراضية لتطبيقات السحابة، مما يحقق تجربة ذات تأخير منخفض.
ضروريات:
توسيع خدمات الهاتف السحابي، بالتعاون مع APHONE لإطلاق هاتف ذكي سحابي لامركزي
إقامة شراكات واسعة مع شركات Web2 الكبرى مثل NVIDIA
التعاون مع مشاريع Web3 مثل CARV و Magic Eden
Phala Network تعمل كطبقة تنفيذ لحلول الذكاء الاصطناعي Web3. بلوكتشين الخاص بها هو حل حوسبة سحابية لا يتطلب الثقة، مصمم لمعالجة قضايا الخصوصية من خلال بيئة التنفيذ الموثوقة (TEE).
ضروريات:
تعمل كبرتوكول معالج مساعد يمكن التحقق منه، مما يسمح لوكلاء الذكاء الاصطناعي بالوصول إلى الموارد على السلسلة.
يمكن الحصول على نماذج اللغة الرائدة مثل OpenAI من خلال عقد وكيل AI عبر Redpill
ستشمل المستقبل أنظمة إثبات متعددة مثل zk-proofs و MPC و FHE
دعم مستقبلًا لبطاقات الرسوم TEE GPU مثل H100، لتحسين القدرة الحسابية
مقارنة المشاريع
| | التقديم | عكاش | io.net | جينسين | أثير | فالا |
|--------|------------|------------------|---------------------|--------|--------------|---------|
| الأجهزة | وحدة معالجة الرسومات ووحدة المعالجة المركزية | وحدة معالجة الرسومات ووحدة المعالجة المركزية | وحدة معالجة الرسومات ووحدة المعالجة المركزية | وحدة معالجة الرسومات | وحدة معالجة الرسومات | وحدة المعالجة المركزية |
| النقاط الرئيسية | عرض الرسوميات والذكاء الاصطناعي | الحوسبة السحابية، العرض والذكاء الاصطناعي | الذكاء الاصطناعي | الذكاء الاصطناعي | الذكاء الاصطناعي، الألعاب السحابية والاتصالات | تنفيذ الذكاء الاصطناعي على السلسلة |
| نوع مهمة AI| استدلال | تدريب واستدلال | تدريب واستدلال | تدريب | تدريب | تنفيذ |
| تسعير العمل | تسعير بناءً على الأداء | مزاد عكسي | تسعير السوق | تسعير السوق | نظام المناقصات | حساب الحقوق |
| بلوكشين | سولانا | كوزموس | سولانا | جينسين | أربيتروم | بولكادوت|
| خصوصية البيانات | التشفير والتجزئة | مصادقة mTLS | تشفير البيانات | خريطة الأمان | التشفير | TEE |
| تكلفة العمل | 0.5-5%/عمل | 20% USDC، 4% AKT| 2% USDC، 0.25% احتياطي | تكلفة منخفضة | 20%/جلسة | تتناسب مع الرهن
| الأمان | إثبات العرض | إثبات الملكية | إثبات الحساب | إثبات الملكية | إثبات قدرة العرض | وراثي من سلسلة الوسيط|
| إثبات الإنجاز | - | - | إثبات قفل الوقت | إثبات التعلم | إثبات العمل المرئي | إثبات TEE |
| ضمان الجودة | نزاع | - | - | تحقق وإبلاغ | فحص العقد | إثبات عن بعد |
| مجموعة GPU | لا | نعم | نعم | نعم | نعم | لا |
إطار حساب موزع ينفذ مجموعة GPU، مما يحسن من كفاءة التدريب وقابليته للتوسع. يتطلب تدريب نماذج الذكاء الاصطناعي المعقدة قدرة حسابية قوية، وعادة ما يعتمد على الحوسبة الموزعة. على سبيل المثال، يحتوي نموذج GPT-4 من OpenAI على أكثر من 1.8 تريليون معلمة، ويستغرق 3-4 أشهر، باستخدام حوالي 25,000 من وحدات معالجة الرسوميات Nvidia A100.
تجتمع معظم المشاريع الآن في تجميعات لتحقيق حساب متوازي. تعاون io.net مع مشاريع أخرى لنشر أكثر من 3,800 مجموعة في الربع الأول. على الرغم من أن Render لا يدعم التجميعات، إلا أنه يقوم بتفكيك الإطار الفردي لمعالجته في عدة عقد في نفس الوقت. تدعم Phala تجميعات عمال المعالجة المركزية.
إطار التجميع مهم لشبكة تدفقات العمل AI، لكن عدد ونوع وحدات معالجة الرسوميات (GPU) في التجميع التي تلبي احتياجات المطورين هو مسألة أخرى.
خصوصية البيانات
تتطلب تطوير نماذج الذكاء الاصطناعي مجموعات بيانات كبيرة، وقد تتعلق بمعلومات حساسة. قامت شركة سامسونج بحظر ChatGPT بسبب مخاوف الخصوصية، وأبرز تسرب بيانات مايكروسوفت الذي بلغ 38 تيرابايت أهمية أمان الذكاء الاصطناعي. إن طرق الخصوصية المختلفة للبيانات ضرورية لاستعادة حقوق مقدمي البيانات.
تستخدم معظم المشاريع نوعًا من تشفير البيانات لحماية الخصوصية. تستخدم Render التشفير والتجزئة، بينما تستخدم io.net وGensyn تشفير البيانات، وتستخدم Akash مصادقة mTLS.
أصدرت io.net بالتعاون مع شبكة Mind تشفيرًا متجانسًا تمامًا (FHE)، مما يسمح بمعالجة البيانات المشفرة دون الحاجة إلى فك تشفيرها. هذا يوفر حماية أفضل للخصوصية مقارنةً بتقنيات التشفير الحالية.
تقدم شبكة فالا بيئة تنفيذ موثوقة ( TEE )، لمنع الوصول الخارجي أو تعديل البيانات. كما أنها تجمع بين zk-proofs لتكامل RiscZero zkVM.
إثبات إكمال الحساب وفحص الجودة
بسبب نطاق الخدمة الواسع، قد لا تتوافق الجودة النهائية مع معايير المستخدمين. تُظهر شهادة الإنجاز أن GPU قد تم استخدامه بالفعل للخدمة المطلوبة، وتكون مراجعة الجودة مفيدة للمستخدم.
تم الانتهاء من إثباتات Gensyn و Aethir، وتثبت io.net أن أداء GPU مستغل بشكل كامل دون مشاكل. يتم إجراء فحص الجودة بواسطة Gensyn و Aethir. تستخدم Gensyn المدققين لإعادة تشغيل جزء من الإثباتات، ويتحقق المبلغ مرة أخرى. تستخدم Aethir نقاط التفتيش لتقييم جودة الخدمة، وتفرض عقوبات على الخدمات التي لا تتوافق مع المعايير. تقترح Render عملية حل النزاعات، ويمكن للجنة المراجعة تقليل النقاط المشكلة. تقوم Phala بتوليد إثباتات TEE، لضمان تنفيذ وكلاء الذكاء الاصطناعي للعمليات على السلسلة.
تتطلب تدريب نماذج الذكاء الاصطناعي وحدات معالجة الرسوميات المتقدمة مثل Nvidia A100 و H100. أداء الاستدلال لـ H100 هو 4 أضعاف A100 ، مما يجعلها الخيار المفضل ، خاصة بالنسبة للشركات الكبيرة.
يجب على سوق GPU اللامركزي أن يتنافس مع Web2، وليس فقط بأسعار منخفضة، ولكن أيضًا لتلبية الاحتياجات الفعلية. في عام 2023، قامت Nvidia بتسليم 500000 وحدة من H100 إلى شركات التكنولوجيا الكبرى، مما جعل تكاليف الأجهزة المماثلة مرتفعة للغاية. من المهم النظر في عدد الأجهزة التي يمكن أن تدخل هذه المشاريع بتكاليف منخفضة.
تقدم المشاريع المختلفة قدرات حسابية مختلفة. يحتوي Akash على أكثر من 150 H100 و A100 فقط، بينما يحتوي io.net و Aethir على أكثر من 2000. عادةً ما تحتاج نماذج LLM المدربة مسبقًا إلى مجموعة من 248 إلى أكثر من 2000 وحدة معالجة رسومات، والمشروعان الأخيران أكثر ملاءمة لحساب النماذج الكبيرة.
حاليًا، تكلفة خدمات GPU اللامركزية أقل بكثير من الخدمات المركزية. تدعي Gensyn و Aethir أن أجهزة A100 تكلف أقل من دولار واحد في الساعة، ولكن لا يزال يتعين التحقق من ذلك.
رغم أن الشبكة المتصلة بمجموعات GPU تحتوي على عدد كبير من وحدات GPU وتكلفة منخفضة، إلا أن الذاكرة محدودة مقارنةً بوحدات GPU المتصلة عبر NVLink. يدعم NVLink الاتصال المباشر بين وحدات GPU، مما يجعله مناسبًا لنماذج اللغة الكبيرة التي تحتوي على عدد كبير من المعلمات ومجموعات بيانات كبيرة.
ومع ذلك، لا يزال شبكة GPU اللامركزية توفر قوة حسابية قوية وقابلية للتوسع لتلبية متطلبات أحمال العمل الديناميكية أو للمستخدمين الذين يحتاجون إلى المرونة، مما يخلق فرصًا لبناء المزيد من حالات استخدام الذكاء الاصطناعي.
يوفر GPU/CPU من مستوى المستهلك
وحدة المعالجة المركزية مهمة أيضًا في تدريب نماذج الذكاء الاصطناعي، حيث تُستخدم في معالجة البيانات وإدارة الذاكرة. يمكن استخدام وحدات معالجة الرسوميات المخصصة للمستهلكين لتعديل النماذج المدربة مسبقًا أو التدريب على نطاق صغير.
بالنظر إلى أن أكثر من 85% من مستهلكي GPU غير مستغلين، فإن مشاريع مثل Render و Akash و io.net تخدم أيضًا هذه السوق. وهذا يسمح لها بالتركيز على الحوسبة ذات الكثافة العالية على نطاق واسع، أو على الرندر الصغير العام، أو مزيج من الاثنين.
الاستنتاج
مجال DePIN للذكاء الاصطناعي لا يزال جديدًا نسبيًا، ويواجه تحديات. على سبيل المثال، تم اتهام io.net بتزوير عدد وحدات معالجة الرسوميات، ومن ثم تم حل ذلك من خلال إثبات العمل.
ومع ذلك، زاد عدد المهام والأجهزة المنفذة على هذه الشبكات بشكل ملحوظ، مما يبرز تزايد الطلب على بدائل لمزودي خدمات السحابة Web2. في الوقت نفسه، يُظهر الارتفاع الكبير في مزودي الأجهزة أن العرض لم يُستغل بشكل كافٍ قبل ذلك. وهذا يثبت ملاءمة منتج شبكة AI DePIN للسوق، حيث يعالج بفعالية تحديات الطلب والعرض.
تتطلع إلى المستقبل، من المتوقع أن تصبح الذكاء الاصطناعي سوقًا مزدهرًا بقيمة تريليون دولار، وستلعب هذه الشبكات الموزعة من وحدات معالجة الرسومات دورًا رئيسيًا في توفير بدائل حسابية فعالة من حيث التكلفة للمطورين. من خلال سد الفجوة بين الطلب والعرض باستمرار، ستساهم هذه الشبكات بشكل كبير في المشهد المستقبلي للذكاء الاصطناعي وبنية الحساب.
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تسجيلات الإعجاب 11
أعجبني
11
4
مشاركة
تعليق
0/400
DecentralizeMe
· 07-24 18:34
ما هو depin ، لا يزال أفضل من القيام بمشروعات poi
شاهد النسخة الأصليةرد0
ContractCollector
· 07-24 18:33
اللامركزية才是王道啊
شاهد النسخة الأصليةرد0
CoffeeNFTs
· 07-24 18:10
من أمام أمازون ومن خلفه gpt، من يفهم هذه اللعبة الكبيرة لـ gpu؟
شبكة DePIN الذكية: الحوسبة الموزعة باستخدام وحدات معالجة الرسوميات تدعم تطوير الذكاء الاصطناعي
تقاطع الذكاء الاصطناعي وDePIN: صعود الشبكات الحاسوبية الموزعة
منذ عام 2023، أصبحت الذكاء الاصطناعي وDePIN اتجاهات شائعة في مجال Web3، حيث وصلت قيمتها السوقية إلى 30 مليار دولار و23 مليار دولار على التوالي. تركز هذه المقالة على المجال المشترك بينهما، وتستكشف تطورات البروتوكولات ذات الصلة.
! تقاطع الذكاء الاصطناعي و DePIN
في مجموعة تقنيات الذكاء الاصطناعي، يوفر شبكة DePIN القابلية للاستخدام للذكاء الاصطناعي من خلال الموارد الحاسوبية. أدى تطور الشركات التقنية الكبرى إلى نقص في وحدات معالجة الرسوميات (GPU)، مما جعل من الصعب على المطورين الآخرين الحصول على ما يكفي من وحدات معالجة الرسوميات لإجراء الحسابات. وغالبًا ما يؤدي ذلك إلى اختيار المطورين لمقدمي خدمات السحابة المركزية، ولكن بسبب عدم مرونة عقود الأجهزة طويلة الأجل، تكون الكفاءة منخفضة.
يوفر DePIN بديلاً أكثر مرونة وفعالية من حيث التكلفة، من خلال تحفيز مساهمات الموارد بمكافآت رمزية. يقوم DePIN في مجال الذكاء الاصطناعي بتجميع موارد GPU من المالكين الأفراد إلى مراكز البيانات، مما يوفر إمدادًا موحدًا للمستخدمين الذين يحتاجون إلى الوصول إلى الأجهزة. هذا لا يوفر فقط للمطورين إمكانية الوصول المخصص وعند الطلب، بل يوفر أيضًا دخلًا إضافيًا لمالكي GPU.
يوجد العديد من شبكات AI DePIN في السوق، ستتناول هذه المقالة دور كل بروتوكول وأهدافه وإنجازاته لفهم الفروق بينها.
نظرة عامة على شبكة DePIN الذكاء الاصطناعي
Render هو رائد شبكة P2P التي توفر قدرة حساب GPU، بدأ في التركيز على إنشاء محتوى الرسوم المتحركة، ثم توسع ليشمل مهام حساب الذكاء الاصطناعي.
ضروريات:
تعتبر Akash بديلاً "سوبر سحابي" يدعم التخزين والحوسبة GPU وCPU. باستخدام أدوات صديقة للمطورين مثل منصة الحاويات والعقد الحاسوبية المدارة بواسطة Kubernetes، يمكن نشر البرمجيات بسلاسة عبر البيئات.
نقاط رئيسية:
io.net يوفر الوصول إلى تجمعات GPU السحابية الموزعة، المخصصة لحالات استخدام الذكاء الاصطناعي والتعلم الآلي. تجميع من مراكز البيانات وعمال التعدين المشفرة وغيرها من المجالات GPU.
ضروريات:
Gensyn توفر قدرات GPU تركز على حسابات التعلم الآلي والتعلم العميق. تدعي أنها تحقق آليات تحقق أكثر كفاءة من خلال مفاهيم مثل إثبات التعلم.
ضروريات:
Aethir مصمم خصيصًا لتشغيل وحدات معالجة الرسوميات الخاصة بالشركات، مع التركيز على مجالات الحوسبة كثيفة الاستخدام مثل الذكاء الاصطناعي، التعلم الآلي، وألعاب السحابة. تعمل الحاويات في الشبكة كنقاط نهاية افتراضية لتطبيقات السحابة، مما يحقق تجربة ذات تأخير منخفض.
ضروريات:
Phala Network تعمل كطبقة تنفيذ لحلول الذكاء الاصطناعي Web3. بلوكتشين الخاص بها هو حل حوسبة سحابية لا يتطلب الثقة، مصمم لمعالجة قضايا الخصوصية من خلال بيئة التنفيذ الموثوقة (TEE).
ضروريات:
مقارنة المشاريع
| | التقديم | عكاش | io.net | جينسين | أثير | فالا | |--------|------------|------------------|---------------------|--------|--------------|---------| | الأجهزة | وحدة معالجة الرسومات ووحدة المعالجة المركزية | وحدة معالجة الرسومات ووحدة المعالجة المركزية | وحدة معالجة الرسومات ووحدة المعالجة المركزية | وحدة معالجة الرسومات | وحدة معالجة الرسومات | وحدة المعالجة المركزية | | النقاط الرئيسية | عرض الرسوميات والذكاء الاصطناعي | الحوسبة السحابية، العرض والذكاء الاصطناعي | الذكاء الاصطناعي | الذكاء الاصطناعي | الذكاء الاصطناعي، الألعاب السحابية والاتصالات | تنفيذ الذكاء الاصطناعي على السلسلة | | نوع مهمة AI| استدلال | تدريب واستدلال | تدريب واستدلال | تدريب | تدريب | تنفيذ | | تسعير العمل | تسعير بناءً على الأداء | مزاد عكسي | تسعير السوق | تسعير السوق | نظام المناقصات | حساب الحقوق | | بلوكشين | سولانا | كوزموس | سولانا | جينسين | أربيتروم | بولكادوت| | خصوصية البيانات | التشفير والتجزئة | مصادقة mTLS | تشفير البيانات | خريطة الأمان | التشفير | TEE | | تكلفة العمل | 0.5-5%/عمل | 20% USDC، 4% AKT| 2% USDC، 0.25% احتياطي | تكلفة منخفضة | 20%/جلسة | تتناسب مع الرهن | الأمان | إثبات العرض | إثبات الملكية | إثبات الحساب | إثبات الملكية | إثبات قدرة العرض | وراثي من سلسلة الوسيط| | إثبات الإنجاز | - | - | إثبات قفل الوقت | إثبات التعلم | إثبات العمل المرئي | إثبات TEE | | ضمان الجودة | نزاع | - | - | تحقق وإبلاغ | فحص العقد | إثبات عن بعد | | مجموعة GPU | لا | نعم | نعم | نعم | نعم | لا |
! تقاطع الذكاء الاصطناعي و DePIN
الأهمية
توفر التجميع والحوسبة المتوازية
إطار حساب موزع ينفذ مجموعة GPU، مما يحسن من كفاءة التدريب وقابليته للتوسع. يتطلب تدريب نماذج الذكاء الاصطناعي المعقدة قدرة حسابية قوية، وعادة ما يعتمد على الحوسبة الموزعة. على سبيل المثال، يحتوي نموذج GPT-4 من OpenAI على أكثر من 1.8 تريليون معلمة، ويستغرق 3-4 أشهر، باستخدام حوالي 25,000 من وحدات معالجة الرسوميات Nvidia A100.
تجتمع معظم المشاريع الآن في تجميعات لتحقيق حساب متوازي. تعاون io.net مع مشاريع أخرى لنشر أكثر من 3,800 مجموعة في الربع الأول. على الرغم من أن Render لا يدعم التجميعات، إلا أنه يقوم بتفكيك الإطار الفردي لمعالجته في عدة عقد في نفس الوقت. تدعم Phala تجميعات عمال المعالجة المركزية.
إطار التجميع مهم لشبكة تدفقات العمل AI، لكن عدد ونوع وحدات معالجة الرسوميات (GPU) في التجميع التي تلبي احتياجات المطورين هو مسألة أخرى.
خصوصية البيانات
تتطلب تطوير نماذج الذكاء الاصطناعي مجموعات بيانات كبيرة، وقد تتعلق بمعلومات حساسة. قامت شركة سامسونج بحظر ChatGPT بسبب مخاوف الخصوصية، وأبرز تسرب بيانات مايكروسوفت الذي بلغ 38 تيرابايت أهمية أمان الذكاء الاصطناعي. إن طرق الخصوصية المختلفة للبيانات ضرورية لاستعادة حقوق مقدمي البيانات.
تستخدم معظم المشاريع نوعًا من تشفير البيانات لحماية الخصوصية. تستخدم Render التشفير والتجزئة، بينما تستخدم io.net وGensyn تشفير البيانات، وتستخدم Akash مصادقة mTLS.
أصدرت io.net بالتعاون مع شبكة Mind تشفيرًا متجانسًا تمامًا (FHE)، مما يسمح بمعالجة البيانات المشفرة دون الحاجة إلى فك تشفيرها. هذا يوفر حماية أفضل للخصوصية مقارنةً بتقنيات التشفير الحالية.
تقدم شبكة فالا بيئة تنفيذ موثوقة ( TEE )، لمنع الوصول الخارجي أو تعديل البيانات. كما أنها تجمع بين zk-proofs لتكامل RiscZero zkVM.
إثبات إكمال الحساب وفحص الجودة
بسبب نطاق الخدمة الواسع، قد لا تتوافق الجودة النهائية مع معايير المستخدمين. تُظهر شهادة الإنجاز أن GPU قد تم استخدامه بالفعل للخدمة المطلوبة، وتكون مراجعة الجودة مفيدة للمستخدم.
تم الانتهاء من إثباتات Gensyn و Aethir، وتثبت io.net أن أداء GPU مستغل بشكل كامل دون مشاكل. يتم إجراء فحص الجودة بواسطة Gensyn و Aethir. تستخدم Gensyn المدققين لإعادة تشغيل جزء من الإثباتات، ويتحقق المبلغ مرة أخرى. تستخدم Aethir نقاط التفتيش لتقييم جودة الخدمة، وتفرض عقوبات على الخدمات التي لا تتوافق مع المعايير. تقترح Render عملية حل النزاعات، ويمكن للجنة المراجعة تقليل النقاط المشكلة. تقوم Phala بتوليد إثباتات TEE، لضمان تنفيذ وكلاء الذكاء الاصطناعي للعمليات على السلسلة.
إحصاءات الأجهزة
| | التقديم | عكاش | io.net | جينسين | أثير | فالا | |-------------|--------|-------|--------|------------|------------|--------| | عدد وحدات معالجة الرسوميات | 5600 | 384 | 38177 | - | 40000+ | - | | عدد وحدات المعالجة المركزية | 114 | 14672 | 5433 | - | - | 30000+ | | عدد H100/A100 | - | 157 | 2330 | - | 2000+ | - | | تكلفة H100 / ساعة | - | $1.46 | $1.19 | - | - | - | | تكلفة A100/ساعة | - | $1.37 | $1.50 | $0.55 ( متوقع ) | $0.33 ( متوقع ) | - |
! تقاطع الذكاء الاصطناعي و DePIN
متطلبات GPU عالية الأداء
تتطلب تدريب نماذج الذكاء الاصطناعي وحدات معالجة الرسوميات المتقدمة مثل Nvidia A100 و H100. أداء الاستدلال لـ H100 هو 4 أضعاف A100 ، مما يجعلها الخيار المفضل ، خاصة بالنسبة للشركات الكبيرة.
يجب على سوق GPU اللامركزي أن يتنافس مع Web2، وليس فقط بأسعار منخفضة، ولكن أيضًا لتلبية الاحتياجات الفعلية. في عام 2023، قامت Nvidia بتسليم 500000 وحدة من H100 إلى شركات التكنولوجيا الكبرى، مما جعل تكاليف الأجهزة المماثلة مرتفعة للغاية. من المهم النظر في عدد الأجهزة التي يمكن أن تدخل هذه المشاريع بتكاليف منخفضة.
تقدم المشاريع المختلفة قدرات حسابية مختلفة. يحتوي Akash على أكثر من 150 H100 و A100 فقط، بينما يحتوي io.net و Aethir على أكثر من 2000. عادةً ما تحتاج نماذج LLM المدربة مسبقًا إلى مجموعة من 248 إلى أكثر من 2000 وحدة معالجة رسومات، والمشروعان الأخيران أكثر ملاءمة لحساب النماذج الكبيرة.
حاليًا، تكلفة خدمات GPU اللامركزية أقل بكثير من الخدمات المركزية. تدعي Gensyn و Aethir أن أجهزة A100 تكلف أقل من دولار واحد في الساعة، ولكن لا يزال يتعين التحقق من ذلك.
رغم أن الشبكة المتصلة بمجموعات GPU تحتوي على عدد كبير من وحدات GPU وتكلفة منخفضة، إلا أن الذاكرة محدودة مقارنةً بوحدات GPU المتصلة عبر NVLink. يدعم NVLink الاتصال المباشر بين وحدات GPU، مما يجعله مناسبًا لنماذج اللغة الكبيرة التي تحتوي على عدد كبير من المعلمات ومجموعات بيانات كبيرة.
ومع ذلك، لا يزال شبكة GPU اللامركزية توفر قوة حسابية قوية وقابلية للتوسع لتلبية متطلبات أحمال العمل الديناميكية أو للمستخدمين الذين يحتاجون إلى المرونة، مما يخلق فرصًا لبناء المزيد من حالات استخدام الذكاء الاصطناعي.
يوفر GPU/CPU من مستوى المستهلك
وحدة المعالجة المركزية مهمة أيضًا في تدريب نماذج الذكاء الاصطناعي، حيث تُستخدم في معالجة البيانات وإدارة الذاكرة. يمكن استخدام وحدات معالجة الرسوميات المخصصة للمستهلكين لتعديل النماذج المدربة مسبقًا أو التدريب على نطاق صغير.
بالنظر إلى أن أكثر من 85% من مستهلكي GPU غير مستغلين، فإن مشاريع مثل Render و Akash و io.net تخدم أيضًا هذه السوق. وهذا يسمح لها بالتركيز على الحوسبة ذات الكثافة العالية على نطاق واسع، أو على الرندر الصغير العام، أو مزيج من الاثنين.
الاستنتاج
مجال DePIN للذكاء الاصطناعي لا يزال جديدًا نسبيًا، ويواجه تحديات. على سبيل المثال، تم اتهام io.net بتزوير عدد وحدات معالجة الرسوميات، ومن ثم تم حل ذلك من خلال إثبات العمل.
ومع ذلك، زاد عدد المهام والأجهزة المنفذة على هذه الشبكات بشكل ملحوظ، مما يبرز تزايد الطلب على بدائل لمزودي خدمات السحابة Web2. في الوقت نفسه، يُظهر الارتفاع الكبير في مزودي الأجهزة أن العرض لم يُستغل بشكل كافٍ قبل ذلك. وهذا يثبت ملاءمة منتج شبكة AI DePIN للسوق، حيث يعالج بفعالية تحديات الطلب والعرض.
تتطلع إلى المستقبل، من المتوقع أن تصبح الذكاء الاصطناعي سوقًا مزدهرًا بقيمة تريليون دولار، وستلعب هذه الشبكات الموزعة من وحدات معالجة الرسومات دورًا رئيسيًا في توفير بدائل حسابية فعالة من حيث التكلفة للمطورين. من خلال سد الفجوة بين الطلب والعرض باستمرار، ستساهم هذه الشبكات بشكل كبير في المشهد المستقبلي للذكاء الاصطناعي وبنية الحساب.
! تقاطع الذكاء الاصطناعي و DePIN
! تقاطع الذكاء الاصطناعي و DePIN
! تقاطع الذكاء الاصطناعي و DePIN
! تقاطع الذكاء الاصطناعي و DePIN