دمج الذكاء الاصطناعي و Web3 يثير تحديات جديدة للأمان، و DeFAI يصبح في مركز الاهتمام
مؤخراً، ركزت أسبوع بلوكتشين في إسطنبول على اتجاهات دمج الذكاء الاصطناعي وWeb3، وأصبحت منصة مهمة لمناقشة أمان Web3 في الصناعة. ناقش العديد من الخبراء في منتدى المائدة المستديرة الوضع الحالي لتطبيقات تقنية الذكاء الاصطناعي في التمويل اللامركزي والتحديات الأمنية المرتبطة بها.
مع التطور السريع لنماذج اللغة الكبيرة ووكلاء الذكاء الاصطناعي، تتشكل تدريجياً نموذج مالي جديد يُعرف باسم "DeFAI" (الذكاء الاصطناعي المالي اللامركزي). ومع ذلك، فإن هذه الابتكارات جلبت أيضاً مخاطر أمنية غير مسبوقة.
أشار أحد التنفيذيين في شركة أمان إلى أن DeFAI، على الرغم من آفاقه الواسعة، إلا أنه يجبرنا على إعادة النظر في آليات الثقة في الأنظمة اللامركزية. على عكس عقود الذكاء الاصطناعي الثابتة التقليدية، فإن عملية اتخاذ القرار لوكلاء الذكاء الاصطناعي تتأثر بالعديد من العوامل، مما يجعلها غير متوقعة، وهذا لا يزيد فقط من المخاطر، بل يخلق أيضًا فرصًا للمهاجمين المحتملين.
الوكيل الذكي هو كيان قادر على اتخاذ قرارات وتنفيذها بشكل مستقل بناءً على منطق الذكاء الاصطناعي، وأبرز مثال على ذلك هو روبوتات التداول الذكية. في الوقت الحالي، لا يزال معظم الوكلاء الذكيين يعتمدون على الخوادم المركزية وواجهات برمجة التطبيقات، مما يجعلها عرضة لمجموعة متنوعة من الهجمات، مثل هجمات الحقن، والتلاعب بالنماذج، أو تغيير البيانات. بمجرد أن يتم الاستيلاء عليها، قد يتسبب ذلك في خسائر مالية، بالإضافة إلى التأثير على استقرار البروتوكول بأكمله.
ناقش الخبراء أيضاً سيناريو هجوم نموذجي: عندما يكون وكيل التداول الذكاء الاصطناعي لمستخدم DeFi يراقب معلومات وسائل التواصل الاجتماعي كإشارات للتداول، قد يقوم المهاجمون بنشر إنذارات كاذبة لخداع الوكيل لتنفيذ عمليات غير صحيحة، مثل تصفية الطوارئ. وهذا لا يؤدي فقط إلى خسارة أصول المستخدمين، بل قد يؤدي أيضًا إلى تقلبات في السوق تستغلها الأطراف المهاجمة.
بالنسبة لهذه المخاطر، اتفق الخبراء المشاركون على أن أمان وكلاء الذكاء الاصطناعي يجب أن يتم الحفاظ عليه بشكل مشترك من قبل المستخدمين والمطورين والوكالات الأمنية الخارجية. يحتاج المستخدمون إلى منح الأذونات بحذر ومراقبة العمليات عالية المخاطر لوكلاء الذكاء الاصطناعي عن كثب. يجب على المطورين تنفيذ تدابير الدفاع منذ مرحلة التصميم، مثل تعزيز كلمات المرور، والعزل في بيئة محمية، وتقييد السرعة، ومنطق التراجع، وغيرها من الآليات. ينبغي على شركات الأمن الخارجية تقديم مراجعة مستقلة لجميع جوانب وكلاء الذكاء الاصطناعي، والتعاون مع المطورين والمستخدمين لتحديد المخاطر وتقديم تدابير التخفيف.
بالنسبة للمطورين الذين يستكشفون اتجاه DeFAI، يوصي الخبراء بأن يُنظر إلى وكلاء الذكاء الاصطناعي على أنهم رمز قد يتعرض للهجوم، بدلاً من "الصندوق الأسود". لذلك، من الضروري إجراء تدقيق أمني احترافي واختبارات الاختراق.
كنشاط مؤثر في مجال blockchain في أوروبا، جذبت أسبوع blockchain في إسطنبول أكثر من 15,000 مطور ومشروع ومستثمر ومنظم من جميع أنحاء العالم. ومع بدء لجنة أسواق رأس المال التركية رسميًا في إصدار تراخيص لمشاريع blockchain، تم تعزيز مكانة هذا الحدث في الصناعة.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تسجيلات الإعجاب 17
أعجبني
17
9
إعادة النشر
مشاركة
تعليق
0/400
TokenTherapist
· 07-28 01:27
هذه الموجة من الذكاء الاصطناعي في الويب 3 تبدو غير محظوظة بعض الشيء
أمان الذكاء الاصطناعي وWeb3碰撞 DeFAI安全风险引发业界 متابعات
دمج الذكاء الاصطناعي و Web3 يثير تحديات جديدة للأمان، و DeFAI يصبح في مركز الاهتمام
مؤخراً، ركزت أسبوع بلوكتشين في إسطنبول على اتجاهات دمج الذكاء الاصطناعي وWeb3، وأصبحت منصة مهمة لمناقشة أمان Web3 في الصناعة. ناقش العديد من الخبراء في منتدى المائدة المستديرة الوضع الحالي لتطبيقات تقنية الذكاء الاصطناعي في التمويل اللامركزي والتحديات الأمنية المرتبطة بها.
مع التطور السريع لنماذج اللغة الكبيرة ووكلاء الذكاء الاصطناعي، تتشكل تدريجياً نموذج مالي جديد يُعرف باسم "DeFAI" (الذكاء الاصطناعي المالي اللامركزي). ومع ذلك، فإن هذه الابتكارات جلبت أيضاً مخاطر أمنية غير مسبوقة.
أشار أحد التنفيذيين في شركة أمان إلى أن DeFAI، على الرغم من آفاقه الواسعة، إلا أنه يجبرنا على إعادة النظر في آليات الثقة في الأنظمة اللامركزية. على عكس عقود الذكاء الاصطناعي الثابتة التقليدية، فإن عملية اتخاذ القرار لوكلاء الذكاء الاصطناعي تتأثر بالعديد من العوامل، مما يجعلها غير متوقعة، وهذا لا يزيد فقط من المخاطر، بل يخلق أيضًا فرصًا للمهاجمين المحتملين.
الوكيل الذكي هو كيان قادر على اتخاذ قرارات وتنفيذها بشكل مستقل بناءً على منطق الذكاء الاصطناعي، وأبرز مثال على ذلك هو روبوتات التداول الذكية. في الوقت الحالي، لا يزال معظم الوكلاء الذكيين يعتمدون على الخوادم المركزية وواجهات برمجة التطبيقات، مما يجعلها عرضة لمجموعة متنوعة من الهجمات، مثل هجمات الحقن، والتلاعب بالنماذج، أو تغيير البيانات. بمجرد أن يتم الاستيلاء عليها، قد يتسبب ذلك في خسائر مالية، بالإضافة إلى التأثير على استقرار البروتوكول بأكمله.
ناقش الخبراء أيضاً سيناريو هجوم نموذجي: عندما يكون وكيل التداول الذكاء الاصطناعي لمستخدم DeFi يراقب معلومات وسائل التواصل الاجتماعي كإشارات للتداول، قد يقوم المهاجمون بنشر إنذارات كاذبة لخداع الوكيل لتنفيذ عمليات غير صحيحة، مثل تصفية الطوارئ. وهذا لا يؤدي فقط إلى خسارة أصول المستخدمين، بل قد يؤدي أيضًا إلى تقلبات في السوق تستغلها الأطراف المهاجمة.
بالنسبة لهذه المخاطر، اتفق الخبراء المشاركون على أن أمان وكلاء الذكاء الاصطناعي يجب أن يتم الحفاظ عليه بشكل مشترك من قبل المستخدمين والمطورين والوكالات الأمنية الخارجية. يحتاج المستخدمون إلى منح الأذونات بحذر ومراقبة العمليات عالية المخاطر لوكلاء الذكاء الاصطناعي عن كثب. يجب على المطورين تنفيذ تدابير الدفاع منذ مرحلة التصميم، مثل تعزيز كلمات المرور، والعزل في بيئة محمية، وتقييد السرعة، ومنطق التراجع، وغيرها من الآليات. ينبغي على شركات الأمن الخارجية تقديم مراجعة مستقلة لجميع جوانب وكلاء الذكاء الاصطناعي، والتعاون مع المطورين والمستخدمين لتحديد المخاطر وتقديم تدابير التخفيف.
بالنسبة للمطورين الذين يستكشفون اتجاه DeFAI، يوصي الخبراء بأن يُنظر إلى وكلاء الذكاء الاصطناعي على أنهم رمز قد يتعرض للهجوم، بدلاً من "الصندوق الأسود". لذلك، من الضروري إجراء تدقيق أمني احترافي واختبارات الاختراق.
كنشاط مؤثر في مجال blockchain في أوروبا، جذبت أسبوع blockchain في إسطنبول أكثر من 15,000 مطور ومشروع ومستثمر ومنظم من جميع أنحاء العالم. ومع بدء لجنة أسواق رأس المال التركية رسميًا في إصدار تراخيص لمشاريع blockchain، تم تعزيز مكانة هذا الحدث في الصناعة.