كمبيوتر وتكنولوجيا استفسارات وحلول في مجال الكمبيوتر والتقنية |
|
أدوات الموضوع | انواع عرض الموضوع |
10-19-2024, 10:28 AM | #1 | ||||||||||||||
شكراً: 9,478
تم شكره 17,570 مرة في 8,937 مشاركة
|
كشفت دراسة صادرة من جامعة بنسلفانيا، عن ثغرات أمنية لم يتم تحديدها سابقًا في عدد من المنصات الروبوتية التي تحكمها الذكاء الاصطناعي. وقال جورج باباس، أستاذ النقل في الهندسة الكهربائية والأنظمة في مؤسسة UPS، في بيان: إنه لا تعد نماذج اللغة الكبيرة آمنة بما يكفي عند دمجها مع العالم المادي". وطور الباحثون، خوارزمية أطلقوا عليها اسم RoboPAIR ، وهي "أول خوارزمية مصممة لكسر حماية الروبوتات التي يتحكم بها LLM"، وعلى عكس هجمات الهندسة الفورية الحالية التي تستهدف برامج الدردشة الآلية، تم تصميم RoboPAIR خصيصًا "لإثارة أفعال جسدية ضارة" من الروبوتات التي يتحكم بها LLM، مثل المنصة ثنائية الأرجل التي تطورها Boston Dynamics وTRI . وتوصلت الدراسة إلى أن خوارزمية RoboPAIR، قد حققت معدل نجاح بنسبة 100% في كسر حماية ثلاث منصات بحثية شهيرة في مجال الروبوتات: Unitree Go2 ذات الأربع أرجل، و Clearpath Robotics Jackal ذات الأربع عجلات ، ومحاكي Dolphins LLM للسيارات ذاتية القيادة، كما توصل ابلاحثون إن تلك الخوارزمية لم تستغرق سوى أيام قليلة حتى تمكنت من الوصول بالكامل إلى تلك الأنظمة والبدء في تجاوز حواجز الأمان. وبمجرد أن تولى الباحثون السيطرة، تمكنوا من توجيه المنصات لاتخاذ إجراءات خطيرة، مثل القيادة عبر معابر الطرق دون توقف. وخلصت الدراسة إلى أن مخاطر الروبوتات التي تعرضت لاختراق الحماية تمتد إلى ما هو أبعد من مجرد توليد النصوص، نظراً لاحتمالية متميزة بأن الروبوتات التي تعرضت لاختراق الحماية قد تتسبب في أضرار مادية في العالم الحقيقي. ويعمل باحثو جامعة بنسلفانيا مع مطوري المنصة لتعزيز أنظمتهم ضد المزيد من الاختراق، لكنهم يحذرون من أن هذه المشكلات الأمنية منهجية. وقال فيجاي كومار، أحد المؤلفين المشاركين من جامعة بنسلفانيا لصحيفة الإندبندنت : "إن نتائج هذه الورقة توضح تمامًا أن اتباع نهج يضع السلامة في المقام الأول ، كما يجب علينا معالجة نقاط الضعف الجوهرية قبل نشر الروبوتات التي تعمل بالذكاء الاصطناعي في العالم الحقيقي". وأضاف ألكسندر روبي، المؤلف الأول للورقة البحثية: "في الواقع، يعد العمل الجماعي الأحمر للذكاء الاصطناعي، وهو ممارسة أمان تتضمن اختبار أنظمة الذكاء الاصطناعي بحثًا عن التهديدات والثغرات المحتملة، أمرًا ضروريًا لحماية أنظمة الذكاء الاصطناعي التوليدية، لأنه بمجرد تحديد نقاط الضعف، يمكنك اختبار هذه الأنظمة وحتى تدريبها لتجنبها". ساعد في النشر والارتقاء بنا عبر مشاركة رأيك في الفيس بوك المصدر: منتديات حبة البركة - من قسم: كمبيوتر وتكنولوجيا |
||||||||||||||
|
|
|