في سلاسل الكتل، الأمان هو عدد المدققين + الاستقلالية.


في التحقق من الذكاء الاصطناعي، تكون عدد النماذج + الاستقلالية.

نموذج واحد هو نقطة فشل واحدة.
إذا كان الأمر خاطئًا، فإن كل شيء لاحقًا يكون خاطئًا.

نماذج متعددة ومستقلة تقتل المخاطر المرتبطة.
تدريب مختلف، عقد مختلفة، تحيزات مختلفة.
إحصائيًا، من الأصعب عليهم جميعًا أن يفشلوا بنفس الطريقة.

@Mira_Network يوجه كل مطالبة إلى عدة موديلات لغوية كبيرة.
هم يصوتون، يوقعون، ويعيدون فقط الاتفاق المعتمد.

هذا هو ميزانيتك الأمنية للذكاء الاصطناعي.
تنوع أكثر، قوة أكبر.

➩ كيف تكون إثبات الإدراك > إثبات الحساب

• إثبات الحوسبة = "لقد قضيت ساعات GPU."
لا يثبت أن الناتج صحيح.

• إثبات الإدراك = "تتفق نماذج مستقلة متعددة على أنه صحيح."
تفكير موثوق، موقع تشفيرياً، على السلسلة.

@Mira_Network تجعل التوافق آلية الحقيقة.

أنت لا تثبت أنك عملت.
أنت تثبت أنك فكرت بشكل صحيح!

➩ لماذا هو مهم

المالية، الرعاية الصحية، الأنظمة الآلية؛ الصحة الوجودية.

خروج واحد سيء في DeFi يستنزف السيولة.
خروج سيء واحد في الطب يؤذي المريض.

ميزانيات الأمان وإثباتات الإدراك ليست أمورًا ترفيهية.
إنها الطريقة الوحيدة لجعل الذكاء الاصطناعي آمناً للثقة على نطاق واسع.
IN8.92%
SIGN1.38%
YOURAI-0.42%
MORE0.1%
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت