كمبيوتر وتكنولوجيا استفسارات وحلول في مجال الكمبيوتر والتقنية |
|
أدوات الموضوع | انواع عرض الموضوع |
08-07-2021, 03:20 PM | #1 | ||||||||||||||
شكراً: 9,478
تم شكره 17,570 مرة في 8,937 مشاركة
|
تخطط عفوا ,,, لايمكنك مشاهده الروابط لانك غير مسجل لدينا [ للتسجيل اضغط هنا ] لمسح الصور المخزنة ضمن أجهزة آيفون وآيكلاود بحثًا عن صور إساءة معاملة الأطفال، وذلك وفقًا لصحيفة "فاينانشال تايمز". ويمكن للنظام الجديد أن يساعد جهات تطبيق القانون في التحقيقات الجنائية. ولكن قد يفتح الباب أمام زيادة الطلبات القانونية والحكومية لبيانات المستخدم. صور مشبوهةوقالت الصحيفة إن النظام، المسمى NeuralMatch، ينبه فريقًا من المراجعين البشريين بشكل استباقي إذا اعتقد أنه تم الكشف عن صور غير قانونية، الذين يتصلون بعد ذلك بسلطات تطبيق القانون إذا كان من الممكن التحقق من المواد. كما يتم طرح NeuralMatch، الذي تم تدريبه باستخدام 200000 صورة من المركز الوطني للأطفال المفقودين والمستغلين، في الولايات المتحدة أولاً. ويتم تجزئة الصور ومقارنتها بقاعدة بيانات للصور المعروفة عن الاعتداء الجنسي على الأطفال. وقالت الصحيفة إنه يتم منح كل صورة يتم تحميلها عبر آيكلاود في الولايات المتحدة قسيمة أمان توضح ما إذا كانت مشبوهة أم لا. وبمجرد وضع علامة على عدد معين من الصور على أنها مشبوهة، تعمل آبل على تمكين فك تشفير جميع الصور المشبوهة. وإذا كانت تبدو غير قانونية، فإنه يتم نقلها إلى السلطات المختصة. يشار إلى أن الشركة أعلنت المزيد حول ما أفادت به صحيفة الفاينانشال تايمز. وكشفت عن أدوات جديدة قادمة إلى iMessage تحذر الأطفال من الصور الجنسية الصريحة. وتتوفر الميزات الجديدة في وقت لاحق من هذا العام كتحديثات عبر iOS 15 و iPadOS 15 و watchOS 8 و macOS Monterey. ساعد في النشر والارتقاء بنا عبر مشاركة رأيك في الفيس بوك المصدر: منتديات حبة البركة - من قسم: كمبيوتر وتكنولوجيا |
||||||||||||||
|
|
|