ترغب بنشر مسار تعليمي؟ اضغط هنا

الهجمات الخادعة ضد شبكات التعلم العميق

Adversarial Attacks on Deep Learning Systems

1777   0   140   0 ( 0 )
 تاريخ النشر 2018
والبحث باللغة العربية
 تمت اﻹضافة من قبل محمد زاهر عيروط




اسأل ChatGPT حول البحث

يعتبر التعلم العميق القلب النابض للذكاء الصنعي في السنوات الأخيرة، وفي ظل تراوح تطبيقاته بين السيارات ذاتية القيادة وصولًا إلى التحليلات الطبية وغير ذلك، وقدرته على حل المشاكل المعقدة متفوقًا على الإنسان في الكثير من الأحيان، بدا أننا وصلنا للحل النهائي لمشاكل الذكاء الصنعي، لكن ظهور الهجمات الخادعة أصبح العائق الأساسي لتوظيف التطبيقات التي تعتمد على التعلم العميق كبديل للإنسان، وأصبح التطبيقات الأخيرة تحت المجهر لدراسة قدرتها على منع هذه الهجمات، نستعرض في هذا البحث تعريف الهجوم الخادع وطرقه بشكل عام، ثم نتطرق إلى تطبيقين محورين يمكن مهاجمتهما من خلاله ونعرض كيف نتصدى لهذه الهجمات، مرورًا بمقارنة النماذج الإحصائية مع الإنسان وكون الهجمات الخادعة جزءًا أساسيًا من الأنظمة التي تعتمد على المعطيات للقيام بمهامها.

المراجع المستخدمة
Kevin Eykholt, Ivan Evtimov, Earlence Fernandes, Bo Li, Amir Rahmati, Chaowei Xiao, Atul Prakash, Tadayoshi Kohno: “Robust Physical-World Attacks on Deep Learning Models”, 2017; arXiv:1707.08945.
Wieland Brendel, Jonas Rauber: “Decision-Based Adversarial Attacks: Reliable Attacks Against Black-Box Machine Learning Models”, 2017; arXiv:1712.04248.
Samuel G. Finlayson, Isaac S. Kohane: “Adversarial Attacks Against Medical Deep Learning Systems”, 2018; arXiv:1804.05296.
Naveed Akhtar: “Threat of Adversarial Attacks on Deep Learning in Computer Vision: A Survey”, 2018; arXiv:1801.00553.
Ian J. Goodfellow, Jonathon Shlens: “Explaining and Harnessing Adversarial Examples”, 2014; arXiv:1412.6572.
Ian J. Goodfellow, Jean Pouget-Abadie, Mehdi Mirza, Bing Xu, David Warde-Farley, Sherjil Ozair, Aaron Courville: “Generative Adversarial Networks”, 2014; arXiv:1406.2661.
Pouya Samangouei, Maya Kabkab: “Defense-GAN: Protecting Classifiers Against Adversarial Attacks Using Generative Models”, 2018; arXiv:1805.06605.
قيم البحث

اقرأ أيضاً

الشبكات العصبية العميقة عرضة للهجمات الخصومة، حيث اضطراب صغير في المدخل يغير التنبؤ النموذجي.في كثير من الحالات، يمكن أن تخدع المدخلات الخبيثة عن قصد لنموذج واحد نموذج آخر.في هذه الورقة، نقدم الدراسة الأولى للتحقيق بشكل منهجي في تحويل أمثلة الخصومة ب شكل منهجي لنماذج تصنيف النص واستكشاف كيفية تأثير مختلف العوامل، بما في ذلك بنية الشبكة، نظام التكتلات، وإدماج الكلمات، والقدرة النموذجية، على تحويل أمثلة الخصومة.بناء على هذه الدراسات، نقترح خوارزمية وراثية للعثور على مجموعة من النماذج التي يمكن استخدامها لتحفيز أمثلة الخصومة لخداع جميع النماذج الحالية تقريبا.تعكس هذه الأمثلة المخدرة عيوب عملية التعلم وتحيز البيانات في مجموعة التدريب.أخيرا، نحن نستمد قواعد استبدال الكلمات التي يمكن استخدامها لتشخيصات النموذج من هذه الأمثلة الخصومة.
نظرا لقوتها العظيمة في النمذجة البيانات غير الإقليدية مثل الرسوم البيانية أو الفتحات، فقد فتحت التعلم العميق على تقنيات الرسم البياني (I.E.، Graph Newerations Nearials (GNNS)) باب جديد لحل مشاكل NLP ذات الصلة بالرسوم البيانية الصعبة. لقد شهدت زيادة ا لمصالح في تطبيق التعلم العميق على تقنيات الرسم البياني إلى NLP، وقد حققت نجاحا كبيرا في العديد من مهام NLP، بدءا من مهام التصنيف مثل تصنيف الجملة، ووضع العلامات الدلالية الدلالية واستخراج العلاقات، إلى مهام التوليد مثل الترجمة الآلية، والسؤال توليد وتلخيص. على الرغم من هذه النجاحات، لا تزال التعلم العميق على الرسوم البيانية ل NLP لا يزال العديد من التحديات، بما في ذلك تحويل بيانات تسلسل النص الأصلي تلقائيا إلى بيانات منظم بياني للغاية، والبيانات المعقدة النمذجة بشكل فعال تتضمن تعيين بين المدخلات المستندة إلى الرسم البياني وبيانات الإخراج غير المنظمة الأخرى تسلسل، الأشجار، وبيانات الرسم البياني مع أنواع متعددة في كل من العقد والحواف. سيتغطي هذا البرنامج التعليمي مواضيع ذات صلة ومثيرة للاهتمام على تطبيق التعلم العميق على تقنيات الرسم البياني إلى NLP، بما في ذلك بناء الرسم البياني التلقائي ل NLP، وتمثيل الرسوم البياني تعلم النماذج القائمة على NLP، والمخططات المتقدمة GNN (على سبيل المثال، Graph2Seq و Graph2Tree و Graph2Graph) ل NLP تطبيقات GNNS في مهام NLP المختلفة (مثل الترجمة الآلية، وتوليد اللغة الطبيعية، واستخراج المعلومات والتحليل الدلالي). بالإضافة إلى ذلك، سيتم تضمين جلسات التدريب العملي للتطبيق العملي لمساعدة الجمهور على زيادة الخبرة العملية في تطبيق GNNS لحل مشاكل NLP الصعبة باستخدام مكتبة المصدر المفتوحة التي تم تطويرها مؤخرا - Graph4NLP، أول مكتبة للباحثين والممارسين لسهولة الاستخدام من GNNS مهام NLP المختلفة.
بنيت خوارزميات التعمية الحديثة بالاعتماد على الفرضية الآتية: «تعتمد الطرائق التقليدية في تحليـل المعميات (التحليل الخطي، التحليل التفاضلي،.....) على خصائص احتمالية تجعل أمـن المعمـي يـزداد بشكل أسي مع عدد دورات المعمي». لذلك فهذه المعميات ليس لها ا لمناعة المطلوبـة ضـد الهجمـات الجيرية التي أصبحت أقوى بعد تطوير خوارزمية XSL .في هذا البحث سوف نقدم بعض الطرائق لرفع مناعة المعمي AES ضد الهجمات الجبرية ثم سندرس تأثير هذا التعديل في مناعة المعمي.
مكنت نماذج اللغة العصبية العميقة مثل بيرت التطورات الأخيرة في العديد من مهام معالجة اللغة الطبيعية. ومع ذلك، نظرا للجهد والتكلفة الحاسوبية المشاركة في التدريب المسبق لها، يتم إدخال هذه النماذج عادة فقط لعدد صغير من لغات الموارد عالية الوزن مثل اللغة الإنجليزية. في حين تتوفر نماذج متعددة اللغات التي تغطي أعدادا كبيرة من اللغات، فإن العمل الحديث يشير إلى أن التدريب أحادي الأحادي يمكن أن ينتج عن نماذج أفضل، وفهمنا للمفاضرة بين التدريب الأحادي وغير اللغوي غير مكتمل. في هذه الورقة، نقدم خط أنابيب بسيطة وأتمتة بالكامل لإنشاء نماذج بيرت الخاصة باللغة من البيانات من بيانات ويكيبيديا وإدخال 42 من هذه النماذج الجديدة، والأكثر من اللازم لغات حتى الآن تفتقر إلى نماذج اللغة العصبية العميقة المخصصة. نقوم بتقييم مزايا هذه النماذج باستخدام اختبارات Cloze و Autify Parser على بيانات التبعيات العالمية، والأداء المتناقض مع النتائج باستخدام طراز Bert (Mbert) متعدد اللغات. نجد أن نماذج WikiBert المقدمة حديثا تفوقت Mbert في اختبارات Cloze لجميع اللغات تقريبا، وأن uDify باستخدام نماذج Wikibert تفوق المحلل باستخدام Mbert في المتوسط، مع توضح الطرز الخاصة باللغة تحسين أداء محسنة بشكل كبير لبعض اللغات، ولكن تحسين محدود أو تحسين انخفاض في الأداء للآخرين. تتوفر جميع الطرق والنماذج المقدمة في هذا العمل تحت التراخيص المفتوحة من https://github.com/turkunlp/wikibert.
أظهر العمل الحديث مدى ضعف مصنف النصوص الحديثة للهجمات الخصومة العالمية، والتي هي تسلسل مدخلات غير مرغقة من الكلمات المضافة إلى النص المصنوع من قبل المصنفين. على الرغم من أن تكون ناجحة، فإن تسلسل الكلمات المنتجة في هذه الهجمات غالبا ما تكون غير رسمية ويمكن تمييزها بسهولة عن النص الطبيعي. نقوم بتطوير هجمات عدائية تظهر أقرب إلى عبارات اللغة الإنجليزية الطبيعية وحتى الآن أنظمة التصنيف عند إضافتها إلى المدخلات الحميدة. نحن نستفيد من AutoNCoder المنعصنة (ARAE) لتوليد المشغلات واقتراح بحث يستند إلى التدرج يهدف إلى زيادة فقدان تنبؤ التنبؤ بالتنبؤ في المصب. تقلل هجماتنا بشكل فعال دقة النموذج على مهام التصنيف مع كونها أقل تحديدا من النماذج السابقة وفقا لمقاييس الكشف التلقائي والدراسات البشرية. هدفنا هو إثبات أن الهجمات المشنة يمكن أن تكتشف أكثر صعوبة مما كان يعتقد سابقا وتمكين تطوير الدفاعات المناسبة.
التعليقات
جاري جلب التعليقات جاري جلب التعليقات
سجل دخول لتتمكن من متابعة معايير البحث التي قمت باختيارها
mircosoft-partner

هل ترغب بارسال اشعارات عن اخر التحديثات في شمرا-اكاديميا