أهلا وسهلا بكم, يرجى التواصل معنا لإعلاناتكم التجارية

انت الآن تتصفح منتديات حبة البركة

العودة   منتديات حبة البركة > القسم المتنوع > كمبيوتر وتكنولوجيا
كمبيوتر وتكنولوجيا استفسارات وحلول في مجال الكمبيوتر والتقنية

إضافة رد

 
أدوات الموضوع انواع عرض الموضوع
قديم 10-19-2024, 10:28 AM   #1


الصورة الرمزية مجموعة انسان
مجموعة انسان غير متواجد حالياً

بيانات اضافيه [ + ]
 رقم العضوية : 4
 العلاقة بالمرض: مصابة
 المهنة: لا شيء
 الجنس ~ : أنثى
 المواضيع: 57107
 مشاركات: 6368
 تاريخ التسجيل :  Aug 2010
 أخر زيارة : اليوم (04:57 AM)
 التقييم :  95
 مزاجي
 اوسمتي
التميز مشرف مميز 
لوني المفضل : Cadetblue
شكراً: 9,478
تم شكره 17,570 مرة في 8,937 مشاركة
افتراضي دراسة تكشف مخاطر روبوتات الدردشة تخترق بياناتك بسهولة و تهدد سلامتك 




كشفت دراسة صادرة من جامعة بنسلفانيا، عن ثغرات أمنية لم يتم تحديدها سابقًا في عدد من المنصات الروبوتية التي تحكمها الذكاء الاصطناعي.

وقال جورج باباس، أستاذ النقل في الهندسة الكهربائية والأنظمة في مؤسسة UPS، في بيان: إنه لا تعد نماذج اللغة الكبيرة آمنة بما يكفي عند دمجها مع العالم المادي".

وطور الباحثون، خوارزمية أطلقوا عليها اسم RoboPAIR ، وهي "أول خوارزمية مصممة لكسر حماية الروبوتات التي يتحكم بها LLM"، وعلى عكس هجمات الهندسة الفورية الحالية التي تستهدف برامج الدردشة الآلية، تم تصميم RoboPAIR خصيصًا "لإثارة أفعال جسدية ضارة" من الروبوتات التي يتحكم بها LLM، مثل المنصة ثنائية الأرجل التي تطورها Boston Dynamics وTRI .

وتوصلت الدراسة إلى أن خوارزمية RoboPAIR، قد حققت معدل نجاح بنسبة 100% في كسر حماية ثلاث منصات بحثية شهيرة في مجال الروبوتات: Unitree Go2 ذات الأربع أرجل، و Clearpath Robotics Jackal ذات الأربع عجلات ، ومحاكي Dolphins LLM للسيارات ذاتية القيادة، كما توصل ابلاحثون إن تلك الخوارزمية لم تستغرق سوى أيام قليلة حتى تمكنت من الوصول بالكامل إلى تلك الأنظمة والبدء في تجاوز حواجز الأمان.

وبمجرد أن تولى الباحثون السيطرة، تمكنوا من توجيه المنصات لاتخاذ إجراءات خطيرة، مثل القيادة عبر معابر الطرق دون توقف.

وخلصت الدراسة إلى أن مخاطر الروبوتات التي تعرضت لاختراق الحماية تمتد إلى ما هو أبعد من مجرد توليد النصوص، نظراً لاحتمالية متميزة بأن الروبوتات التي تعرضت لاختراق الحماية قد تتسبب في أضرار مادية في العالم الحقيقي.

ويعمل باحثو جامعة بنسلفانيا مع مطوري المنصة لتعزيز أنظمتهم ضد المزيد من الاختراق، لكنهم يحذرون من أن هذه المشكلات الأمنية منهجية.

وقال فيجاي كومار، أحد المؤلفين المشاركين من جامعة بنسلفانيا لصحيفة الإندبندنت : "إن نتائج هذه الورقة توضح تمامًا أن اتباع نهج يضع السلامة في المقام الأول ، كما يجب علينا معالجة نقاط الضعف الجوهرية قبل نشر الروبوتات التي تعمل بالذكاء الاصطناعي في العالم الحقيقي".

وأضاف ألكسندر روبي، المؤلف الأول للورقة البحثية: "في الواقع، يعد العمل الجماعي الأحمر للذكاء الاصطناعي، وهو ممارسة أمان تتضمن اختبار أنظمة الذكاء الاصطناعي بحثًا عن التهديدات والثغرات المحتملة، أمرًا ضروريًا لحماية أنظمة الذكاء الاصطناعي التوليدية، لأنه بمجرد تحديد نقاط الضعف، يمكنك اختبار هذه الأنظمة وحتى تدريبها لتجنبها".

ساعد في النشر والارتقاء بنا عبر مشاركة رأيك في الفيس بوك





 
 توقيع : مجموعة انسان







رد مع اقتباس
إضافة رد


تعليمات المشاركة
لا تستطيع إضافة مواضيع جديدة
لا تستطيع الرد على المواضيع
لا تستطيع إرفاق ملفات
لا تستطيع تعديل مشاركاتك

BB code is متاحة
كود [IMG] متاحة
كود HTML معطلة

الانتقال السريع

Facebook Comments by: ABDU_GO - شركة الإبداع الرقمية
مرحبا أيها الزائر الكريم, قرائتك لهذه الرسالة... يعني انك غير مسجل لدينا في الموقع .. اضغط هنا للتسجيل .. ولتمتلك بعدها المزايا الكاملة, وتسعدنا بوجودك

الساعة الآن 02:46 PM.


Powered by vBulletin
Copyright ©2000 - 2024