تخطط شركة آبل لمسح الصور المخزنة ضمن أجهزة آيفون وآيكلاود بحثًا عن صور إساءة معاملة الأطفال، وذلك وفقًا لصحيفة “فاينانشال تايمز”. ويمكن للنظام الجديد أن يساعد جهات تطبيق القانون في التحقيقات الجنائية. ولكن قد يفتح الباب أمام زيادة الطلبات القانونية والحكومية لبيانات المستخدم.
وقالت الصحيفة إن النظام، المسمى NeuralMatch، ينبه فريقًا من المراجعين البشريين بشكل استباقي إذا اعتقد أنه تم الكشف عن صور غير قانونية، الذين يتصلون بعد ذلك بسلطات تطبيق القانون إذا كان من الممكن التحقق من المواد.
كما يتم طرح NeuralMatch، الذي تم تدريبه باستخدام 200000 صورة من المركز الوطني للأطفال المفقودين والمستغلين، في الولايات المتحدة أولاً.
ويتم تجزئة الصور ومقارنتها بقاعدة بيانات للصور المعروفة عن الاعتداء الجنسي على الأطفال.
وقالت الصحيفة إنه يتم منح كل صورة يتم تحميلها عبر آيكلاود في الولايات المتحدة قسيمة أمان توضح ما إذا كانت مشبوهة أم لا.
آبل (آيستوك)
صور مشبوهة
وبمجرد وضع علامة على عدد معين من الصور على أنها مشبوهة، تعمل آبل على تمكين فك تشفير جميع الصور المشبوهة. وإذا كانت تبدو غير قانونية، فإنه يتم نقلها إلى السلطات المختصة.
يشار إلى أن الشركة أعلنت المزيد حول ما أفادت به صحيفة الفاينانشال تايمز. وكشفت عن أدوات جديدة قادمة إلى iMessage تحذر الأطفال من الصور الجنسية الصريحة. وتتوفر الميزات الجديدة في وقت لاحق من هذا العام كتحديثات عبر iOS 15 و iPadOS 15 و watchOS 8 و macOS Monterey.