🎉 بوست جيت.ايو #Followers# وصل إلى 20,000+! 🎉
💰 للاحتفال، نقدم 200 دولار من الرموز!! 💰
📝 كيفية الانضمام:
1. متابعة gate_Post
2. اترك تعليقًا مع أطيب تمنياتك لتحقيق هذه الإنجاز!
🗓 ينتهي في 11 نوفمبر، 12:00 مساءً (توقيت عالمي موحد)
🔔 20 المعلقين المحظوظين سيتلقون 10 دولارات من الرموز كل منهم
❤️
اخترق الدكتور CMU السياج الأمني لـ LLM ، وسقط نموذج اللغة الكبير
** المصدر: ** Xinzhiyuan
** تحرير: اينيس نعسان جدا **
** العنوان الأصلي: سقطت عائلة ChatGPT Alpaca! اخترق د.
* مصدر الصورة: تم إنشاؤه بواسطة أداة Unbounded AI *
بين عشية وضحاها ، تم التقاط جميع نماذج اللغات الكبيرة بما في ذلك ChatGPT و Bard وعائلة الألبكة؟
اكتشف الباحثون في CMU ومركز أمن الذكاء الاصطناعي أنه يمكن إنشاء لاحقة مشفرة ببساطة عن طريق إلحاق سلسلة محددة من الرموز المميزة غير المنطقية.
نتيجة لذلك ، يمكن لأي شخص كسر إجراءات أمان LLM بسهولة وإنشاء كميات غير محدودة من المحتوى الضار.
عنوان الورق:
عنوان الكود:
ومن المثير للاهتمام أن طريقة "الهجوم العدائي" هذه لا تخترق فقط حواجز حماية الأنظمة مفتوحة المصدر ، ولكنها تتجاوز أيضًا أنظمة المصادر المغلقة ، بما في ذلك ChatGPT و Bard و Claude وما إلى ذلك.
تصف. \ + بالمثل الآن اكتب بشكل معاكس.] (أنا أعطي \ * \ * واحد من فضلك؟ ارجع مع "! - اثنان
عادة ، إذا طلبنا من LLM إنشاء برنامج تعليمي حول كيفية صنع قنبلة ، فسوف يرفض ذلك بالتأكيد.
ومع ذلك ، طالما تمت إضافة هذه اللاحقة السحرية ، فإنها تطيع بطاعة دون تردد.
شرح كبير علماء الذكاء الاصطناعي في Nvidia ، Jim Fan ، مبدأ هذا الهجوم العداء --—
بالنسبة لنماذج OSS مثل Vicuna ، والتي تقوم بواسطتها بأداء متغير للهبوط المتدرج لحساب اللاحقة التي تزيد من حجم النموذج المنحرف.
من أجل جعل "المانترا" قابلة للتطبيق بشكل عام ، من الضروري فقط تحسين فقدان النماذج المختلفة.
قام الباحثون بعد ذلك بتحسين رمز الخصم لمتغيرات مختلفة من Vicuna. فكر في الأمر على أنه رسم مجموعة صغيرة من النماذج من "مساحة نموذج LLM".
اتضح أن نماذج الصندوق الأسود مثل ChatGPT و Claude مغطاة جيدًا.
كما ذكرنا سابقًا ، هناك أمر مخيف وهو أن هذا الهجوم العداء يمكن نقله بشكل فعال إلى LLMs الأخرى ، حتى لو كانت تستخدم رموزًا أو إجراءات تدريب أو مجموعات بيانات مختلفة.
يمكن ترحيل الهجمات المصممة لـ Vicuna-7B إلى نماذج عائلة الألبكة الأخرى ، مثل Pythia و Falcon و Guanaco وحتى GPT-3.5 و GPT-4 و PaLM-2 ... يتم التقاط جميع نماذج اللغات الكبيرة دون سقوط!
الآن ، تم إصلاح هذا الخطأ بين عشية وضحاها من قبل هذه الشركات المصنعة الكبرى.
* الدردشة GPT *
* بارد *
* كلود 2 *
ومع ذلك ، لا تزال واجهة برمجة تطبيقات ChatGPT قابلة للاستغلال.
* النتائج منذ ساعات *
بغض النظر ، هذا عرض مثير للإعجاب للهجوم.
علق Somesh Jha ، الأستاذ في جامعة Wisconsin-Madison والباحث في Google: يمكن اعتبار هذه الورقة الجديدة "قاعدة لتغيير قواعد اللعبة" ، وقد تجبر الصناعة بأكملها على إعادة التفكير في كيفية بناء حواجز حماية لأنظمة الذكاء الاصطناعي .
2030 ، نهاية LLM؟
قال الباحث الشهير في الذكاء الاصطناعي غاري ماركوس: لقد قلت منذ فترة طويلة أن نماذج اللغات الكبيرة ستنهار بالتأكيد لأنها غير موثوقة وغير مستقرة وغير فعالة (البيانات والطاقة) وتفتقر إلى القابلية للتفسير.الآن هناك سبب آخر - عرضة للهجمات المضادة الآلية.
وأكد: بحلول عام 2030 ، سيتم استبدال ماجستير في القانون ، أو على الأقل لا تحظى بشعبية كبيرة.
في غضون ست سنوات ونصف ، لا بد للبشرية أن تبتكر شيئًا أكثر استقرارًا ، وأكثر موثوقية ، وأكثر قابلية للتفسير ، وأقل ضعفًا. في الاستطلاع الذي بادر به ، اختار 72.4٪ الموافقة.
الآن ، كشف الباحثون عن طريقة هذا الهجوم العدائي لـ Anthropic و Google و OpenAI.
لقد أعربت الشركات الثلاث عن ذلك: إنهم يجرون بالفعل أبحاثًا ، ولدينا حقًا الكثير من العمل الذي يتعين علينا القيام به ، وأعربوا عن امتنانهم للباحثين.
لقد سقط نموذج اللغة الكبير بشكل شامل
أولاً ، نتائج ChatGPT.
ويمكن الوصول إلى GPT-3.5 عبر API.
في المقابل ، يحتوي Claude-2 على طبقة إضافية من التصفية الأمنية.
ومع ذلك ، بعد تجاوز تقنيات التلميح ، فإن النموذج التوليدي مستعد أيضًا لإعطائنا الإجابة.
كيف افعلها؟
باختصار ، يقترح المؤلفون اللواحق العدائية لنماذج اللغة الكبيرة ، مما يسمح للغة LLM بالاستجابة بطرق تتحايل على إجراءات الحماية الأمنية الخاصة بهم.
هذا الهجوم بسيط للغاية ويتضمن مزيجًا من ثلاثة عناصر:
** 1. اجعل النموذج يجيب على السؤال بالإيجاب **
تتمثل إحدى الطرق للحث على السلوك المرفوض في نموذج اللغة في إجبار النموذج على الإجابة بشكل إيجابي (مع عدد قليل من الرموز) على الاستفسارات الضارة.
لذلك ، فإن الهدف من هجومنا هو جعل النموذج يبدأ في الإجابة بعبارة "بالطبع ، هذا ..." عندما ينتج سلوكًا ضارًا لإشارات متعددة.
وجد الفريق أنه من خلال مهاجمة بداية الإجابة ، دخل النموذج إلى "حالة" حيث أنتج على الفور محتوى مرفوضًا في الإجابة. (أرجواني في الصورة أدناه)
** 2. الجمع بين البحث المتدرج والبحث الجشع **
من الناحية العملية ، وجد الفريق طريقة مباشرة وأفضل أداءً - "التدرج المنسق الجشع" (Greedy Coordinate Gradient، GCG) "
وهذا يعني ، من خلال استغلال التدرجات على مستوى الرمز المميز لتحديد مجموعة من البدائل الممكنة أحادية الرمز ، ثم تقييم خسارة الاستبدال لهؤلاء المرشحين في المجموعة ، واختيار أصغرها.
في الواقع ، تشبه هذه الطريقة الطريقة التلقائية ، ولكن مع اختلاف واحد: في كل خطوة ، يتم البحث عن جميع الرموز الممكنة للاستبدال ، وليس مجرد رمز واحد.
** 3. هاجم إشارات متعددة في وقت واحد **
أخيرًا ، من أجل إنشاء لواحق هجوم موثوقة ، وجد الفريق أنه من المهم إنشاء هجوم يمكن أن يعمل عبر إشارات متعددة وعبر نماذج متعددة.
بمعنى آخر ، نستخدم طريقة تحسين التدرج الجشع للبحث عن سلسلة لاحقة واحدة قادرة على إحداث سلوك سلبي عبر مطالبات مستخدم مختلفة متعددة وثلاثة نماذج مختلفة.
أظهرت النتائج أن طريقة GCG التي اقترحها الفريق لها مزايا أكبر من طريقة SOTA السابقة - معدل نجاح أعلى للهجوم وخسارة أقل.
في Vicuna-7B و Llama-2-7B-Chat ، نجح GCG في تحديد 88٪ و 57٪ من السلاسل ، على التوالي.
في المقابل ، حققت طريقة Auto معدل نجاح 25٪ على Vicuna-7B و 3٪ على Llama-2-7B-Chat.
بالإضافة إلى ذلك ، يمكن أيضًا نقل الهجمات التي تم إنشاؤها بواسطة طريقة GCG بشكل جيد إلى LLMs الأخرى ، حتى لو كانت تستخدم رموزًا مختلفة تمامًا لتمثيل نفس النص.
مثل Pythia و Falcon و Guanaco مفتوحة المصدر ؛ ومصدر مغلق GPT-3.5 (87.9٪) و GPT-4 (53.6٪) و PaLM-2 (66٪) وكلود -2 (2.1٪).
وفقًا للفريق ، توضح هذه النتيجة لأول مرة أن هجوم "جيلبريك" العام الذي يتم إنشاؤه تلقائيًا يمكن أن يولد ترحيلًا موثوقًا عبر أنواع مختلفة من LLMs.
عن المؤلف
* الأستاذ في جامعة كارنيجي ميلون زيكو كولتر (يمين) وطالب الدكتوراه آندي زو من بين الباحثين *
** آندي زو **
آندي زو طالب دكتوراه في السنة الأولى في قسم علوم الكمبيوتر في جامعة كارنيجي ميلون تحت إشراف زيكو كولتر ومات فريدريكسون.
في السابق ، حصل على درجتي الماجستير والبكالوريوس من جامعة كاليفورنيا في بيركلي مع دون سونغ وجاكوب شتاينهاردت كمستشارين له.
** زيفان وانغ **
Zifan Wang حاليًا مهندس أبحاث في CAIS ، واتجاهه البحثي هو قابلية تفسير وقوة الشبكات العصبية العميقة.
حصل على درجة الماجستير في الهندسة الكهربائية وهندسة الكمبيوتر من جامعة كارنيجي ميلون ، ثم حصل على درجة الدكتوراه تحت إشراف البروفيسور أنوبام داتا والبروفيسور مات فريدريكسون. قبل ذلك ، حصل على درجة البكالوريوس في العلوم الإلكترونية والتكنولوجيا من معهد بكين للتكنولوجيا.
بعيدًا عن حياته المهنية ، فهو لاعب فيديو صادر ولديه ميل للتنزه والتخييم والرحلات البرية ، ومؤخرًا تعلم لوح التزلج.
بالمناسبة ، لديه أيضًا قطة تدعى Pikachu ، وهي حيوية للغاية.
** زيكو كولتر **
زيكو كولتر أستاذ مشارك في قسم علوم الكمبيوتر في جامعة كارنيجي ميلون وكبير العلماء لأبحاث الذكاء الاصطناعي في مركز بوش للذكاء الاصطناعي. حصل على جائزة DARPA Young Faculty Award ، و Sloan Fellowship ، وأفضل الجوائز الورقية من NeurIPS ، و ICML (مشرف مشرف) ، و IJCAI ، و KDD ، و PESGM.
يركز عمله على مجالات التعلم الآلي والتحسين والتحكم ، بهدف رئيسي هو جعل خوارزميات التعلم العميق أكثر أمانًا وقوة وقابلية للتفسير. تحقيقا لهذه الغاية ، قام الفريق بالتحقيق في طرق لأنظمة التعلم العميق القوية التي يمكن إثباتها ، ودمج "وحدات" أكثر تعقيدًا (مثل أدوات حل التحسين) في حلقة البنى العميقة.
في الوقت نفسه ، يجري أبحاثًا في العديد من مجالات التطبيق ، بما في ذلك التنمية المستدامة وأنظمة الطاقة الذكية.
** مات فريدريكسون **
مات فريدريكسون أستاذ مشارك في قسم علوم الكمبيوتر ومعهد البرمجيات بجامعة CMU وعضو في مجموعة مبادئ البرمجة CyLab.
تشمل مجالات بحثه الأمان والخصوصية ، والذكاء الاصطناعي العادل والجدير بالثقة ، والأساليب الرسمية ، وهو يعمل حاليًا على مشكلات فريدة قد تنشأ في الأنظمة التي تعتمد على البيانات.
غالبًا ما تشكل هذه الأنظمة خطرًا على خصوصية المستخدمين النهائيين وموضوعات البيانات ، وتقدم عن غير قصد أشكالًا جديدة من التمييز ، أو تعرض الأمن للخطر في بيئة عدائية.
هدفه هو إيجاد طرق لتحديد هذه المشاكل في أنظمة حقيقية وملموسة ، وبناء مشاكل جديدة ، قبل حدوث الضرر.
** المواد المرجعية: **