;

شركة Apple تعلن عن إجراءات حماية جديدة لسلامة الأطفال: تعرف عليها

  • تاريخ النشر: الجمعة، 06 أغسطس 2021 آخر تحديث: الخميس، 09 فبراير 2023
شركة Apple  تعلن عن إجراءات حماية جديدة لسلامة الأطفال: تعرف عليها

أعلنت شركة Apple اليوم عن بذل جهود ثلاثية جديدة لتوفير حماية جديدة للأطفال لأجهزة iPhone و iPad و Mac يتضمن ذلك ميزات أمان الاتصالات الجديدة في الرسائل والكشف المحسن عن محتوى مواد الاعتداء الجنسي على الأطفال (CSAM) في iCloud ومعلومات معرفية محدثة لـ Siri والبحث.

Apple

شيء واحد تؤكده Apple هو أن برنامجها الجديد طموح لكن حماية الأطفال هي مسؤولية مهمة مع وضع ذلك في الاعتبار إن جهودها ستتطور وتتوسع بمرور الوقت، وفقاً لبيان الشركة.

والإعلان الأول اليوم هو ميزة أمان اتصال جديدة في تطبيق الرسائل، توضح Apple أنه عندما يتلقى طفل موجود في iCloud Family أو يحاول إرسال صور جنسية صريحة سيرى الطفل رسالة تحذير.

توضح Apple أنه عندما يتلقى الطفل صورة جنسية فاضحة سيتم تعتيم الصورة وسيعرض تطبيق الرسائل تحذيرًا يقول إن الصورة قد تكون حساسة إذا نقر الطفل على "عرض الصورة" فسترى رسالة منبثقة تخبره عن سبب اعتبار الصورة حساسة.

توضح النافذة المنبثقة أنه إذا قرر الطفل عرض الصورة فسيتلقى والديه على iCloud Family إشعارًا للتأكد من أنه بخير، ستتضمن النافذة المنبثقة أيضًا ارتباطًا سريعًا لتلقي مساعدة إضافية.

بالإضافة إلى ذلك إذا حاول الطفل إرسال صورة جنسية صريحة فسوف يرى تحذيرًا مشابهًا، ووفقاً لـ Apple إنه سيتم تحذير الطفل قبل إرسال الصورة ويمكن للوالدين تلقي رسالة إذا اختار الطفل إرسالها للأطفال دون سن 13 عامًا.

توضح Apple كذلك أن الرسائل تستخدم التعلم الآلي على الجهاز لتحليل مرفقات الصور وتحديد ما إذا كانت الصورة جنسية صريحة، يظل iMessage مشفرًا من طرف إلى طرف ولا تتمكن Apple من الوصول إلى أي من الرسائل وسيتم تفعيل الميزة أيضًا.

تقول Apple إن هذه الميزة ستأتي في وقت لاحق من هذا العام للحسابات التي تم إعدادها كعائلات في iCloud، في تحديثات iOS 15 و iPadOS 15 و macOS Monterey ستكون الميزة متاحة في الولايات المتحدة في البداية.

كيف ستكتشف Apple الصور الجنسية على موبايلك؟

وستسمح هذه الميزة التي تسربت جزئيًا في وقت سابق اليوم لشركة Apple باكتشاف صور CSAM المعروفة عند تخزينها في صور iCloud. يمكن لشركة Apple بعد ذلك الإبلاغ عن حالات CSAM إلى المركز الوطني للأطفال المفقودين والمستغَلين وهو كيان يعمل بمثابة وكالة إبلاغ شاملة عن CSAM ويعمل بشكل وثيق مع سلطات إنفاذ القانون.

تؤكد Apple مرارًا وتكرارًا أن طريقتها في اكتشاف CSAM مصممة مع مراعاة خصوصية المستخدم. في اللغة الإنجليزية البسيطة تقوم Apple بشكل أساسي بتحليل الصور الموجودة على جهازك لمعرفة ما إذا كانت هناك أي مطابقات مع قاعدة بيانات لصور CSAM المعروفة المقدمة من المركز الوطني للأطفال المفقودين والمستغلين.

وتتم جميع عمليات المطابقة على الجهاز حيث تقوم Apple بتحويل قاعدة البيانات من المركز الوطني للأطفال المفقودين والمستغلين إلى مجموعة غير قابلة للقراءة من التجزئات المخزنة بأمان على أجهزة المستخدمين.

توضح شركة Apple: "قبل تخزين الصورة في صور iCloud ، يتم إجراء عملية مطابقة على الجهاز لتلك الصورة مقابل المجموعة غير القابلة للقراءة من تجزئات CSAM المعروفة، يتم تشغيل عملية المطابقة هذه بواسطة تقنية تشفير تسمى تقاطع المجموعة الخاصة والتي تحدد ما إذا كان هناك تطابق دون الكشف عن النتيجة".

يسمح تقاطع المجموعة الخاصة (PSI) لشركة Apple بمعرفة ما إذا كانت تجزئة الصورة تتطابق مع تجزئات صورة CSAM المعروفة دون معرفة أي شيء عن تجزئات الصور غير المتطابقة. كما تمنع PSI المستخدم من معرفة ما إذا كان هناك تطابق أم لا.

إذا كان هناك تطابق على الجهاز يقوم الجهاز بعد ذلك بإنشاء قسيمة أمان مشفرة تقوم بترميز نتيجة المطابقة. ثم يتم استخدام تقنية تسمى مشاركة سر العتبة. هذا يضمن أن محتويات قسائم الأمان لا يمكن أن تفسرها Apple ما لم يتجاوز حساب iCloud Photos عتبة محتوى CSAM المعروف.

وستراجع Apple التقرير يدويًا لتأكيد المطابقة ثم تقوم بتعطيل حساب المستخدم وإرسال تقرير إلى المركز الوطني للأطفال المفقودين والمستغلين.

تعتبر تقنية مهمة لأنها تعني أنه لم يتم وضع علامة على الحسابات بشكل غير صحيح. تضيف المراجعة اليدوية أيضًا خطوة أخرى للتأكيد لمنع الأخطاء وسيتمكن المستخدمون من تقديم استئناف لإعادة حسابهم إلى وضعه السابق. تقول شركة Apple إن معدل الخطأ منخفض في النظام أقل من 1 في 1 تريليون حساب سنويًا.

Siri

تعمل Apple أيضًا على توسيع الإرشادات في Siri و Search من خلال توفير موارد إضافية لمساعدة الأطفال والآباء على البقاء آمنين عبر الإنترنت والحصول على المساعدة في المواقف غير الآمنة. على سبيل المثال ، سيتم توجيه المستخدمين الذين يسألون Siri عن كيفية الإبلاغ عن CSAM أو استغلال الأطفال إلى الموارد الخاصة بمكان وكيفية تقديم تقرير.

يتم أيضًا تحديث Siri و Search للتدخل عند قيام المستخدمين بإجراء عمليات بحث عن استعلامات متعلقة بـ CSAM. ستوضح هذه التدخلات للمستخدمين أن الاهتمام بهذا الموضوع ضار وإشكالي ، وستوفر موارد من الشركاء للحصول على المساعدة في هذه المشكلة.

تأتي تحديثات Siri و Search في وقت لاحق من هذا العام في تحديث لنظام iOS 15 و iPadOS 15 و watchOS 8 و macOS Monterey.

وقال جون كلارك، الرئيس والمدير التنفيذي للمركز الوطني للأطفال المفقودين والمستغلين: "إن الحماية الموسعة التي توفرها Apple للأطفال تغير قواعد اللعبة. مع وجود الكثير من الأشخاص الذين يستخدمون منتجات Apple فإن تدابير السلامة الجديدة هذه لديها إمكانات منقذة للحياة للأطفال الذين يتم إغرائهم عبر الإنترنت".

وتابع: "يتم تداول صورهم المروعة في مواد الاعتداء الجنسي على الأطفال. في المركز الوطني للأطفال المفقودين والمستغلين ، نعلم أنه لا يمكن مكافحة هذه الجريمة إلا إذا كنا ثابتين في تفانينا في حماية الأطفال. لا يمكننا القيام بذلك إلا لأن شركاء التكنولوجيا مثل Apple يتقدمون ويجعلون تفانيهم معروفًا. الحقيقة هي أن الخصوصية وحماية الطفل يمكن أن يتعايشا. إننا نشيد بشركة Apple ونتطلع إلى العمل معًا لجعل هذا العالم مكانًا أكثر أمانًا للأطفال ".

اشترك في قناة رائج على واتس آب لمتعة الترفيه