القائمة الرئيسية

الصفحات

شرح خاصية حماية الاطفال في iOS 15.2 - ميزة Child Communication Safety


 قدمت Apple في تحديث iOS 15.2 خيارًا جديدًا لأمان اتصالات الرسائل والذي تم تصميمه لإبقاء الأطفال أكثر أمانًا عبر الإنترنت من خلال حمايتهم من الصور التي قد تكون ضارة. لقد رأينا الكثير من الالتباس حول الميزة ، واعتقدنا أنه قد يكون من المفيد تقديم مخطط تفصيلي لكيفية عمل أمان الاتصالات وتوضيح المفاهيم الخاطئة.



نظرة عامة حول سلامة التواصل Communication Safety

تهدف "سلامة الاتصالات" إلى منع تعرض القاصرين للصور غير المرغوب فيها التي تحتوي على محتوى غير لائق.


كما أوضحت Apple ، تم تصميم Communication Safety لاكتشاف العري في الصور المرسلة أو المستلمة من قبل الأطفال. يقوم جهاز iPhone أو iPad بمسح الصور على الجهاز في تطبيق الرسائل ، وإذا تم الكشف عن عُري ، يتم تضبيب الصورة. 



إذا نقر الطفل على الصورة غير الواضحة ، يتم إخباره بأن الصورة حساسة ، حيث تظهر "أجزاء الجسم التي عادة ما تكون مغطاة بالملابس الداخلية أو ملابس السباحة". توضح الميزة أن الصور التي تحتوي على عُري يمكن "استخدامها لإيذاءك" وأن الشخص الموجود في الصورة قد لا يرغب في رؤيتها إذا تمت مشاركتها بدون إذن.


تقدم Apple أيضًا للأطفال طرقًا للحصول على المساعدة من خلال مراسلة الكبار الموثوق بهم في حياتهم. هناك شاشتان تعملان باللمس تشرحان سبب عدم رغبة الطفل في عرض صورة عارية ، ولكن يمكن للطفل اختيار عرض الصورة على أي حال ، لذلك لا تقيد Apple الوصول إلى المحتوى ، ولكنها تقدم إرشادات.


سلامة التواصل هي المشاركة الكاملة

عند إصدار iOS 15.2 ، ستكون ميزة "أمان الاتصالات" ميزة الاشتراك. لن يتم تفعيلها افتراضيًا ، وسيحتاج من يستخدمه ( الاباء ) إلى تشغيله.


سلامة التواصل للأطفال

أمان الاتصالات هي ميزة رقابة أبوية يتم تمكينها من خلال ميزة المشاركة العائلية. باستخدام Family Sharing ، يمكن للبالغين في العائلة إدارة أجهزة الأطفال الذين تقل أعمارهم عن 18 عامًا.


يمكن للوالدين الاشتراك في "أمان الاتصالات" باستخدام "المشاركة العائلية" بعد التحديث إلى iOS 15.2. لا يتوفر أمان الاتصالات إلا على الأجهزة التي تم إعدادها للأطفال الذين تقل أعمارهم عن 18 عامًا والذين هم جزء من مجموعة مشاركة عائلية.


لا يمكن للأطفال الذين تقل أعمارهم عن 13 عامًا إنشاء معرف Apple ، لذلك يجب أن يتم إنشاء حساب للأطفال الصغار بواسطة أحد الوالدين باستخدام Family Sharing. يمكن للأطفال الذين تزيد أعمارهم عن 13 عامًا إنشاء "معرف Apple" الخاص بهم ، ولكن لا يزال من الممكن دعوتهم إلى مجموعة مشاركة عائلية مع الإشراف الأبوي المتاح.


تحدد Apple عمر الشخص الذي يمتلك معرف Apple حسب تاريخ الميلاد المستخدم في عملية إنشاء الحساب.


لا يمكن تمكين أمان التواصل على أجهزة البالغين

كميزة مشاركة عائلية مصممة حصريًا لحسابات Apple ID‌ التي يملكها شخص يقل عمره عن 18 عامًا ، لا يوجد خيار لتفعيل أمان الاتصالات على جهاز مملوك لشخص بالغ.


لا يحتاج البالغون إلى القلق بشأن "سلامة اتصالات الرسائل" إلا إذا كانوا آباء يديرونها لأطفالهم. في مجموعة مشاركة عائلية تتكون من بالغين ، لن يكون هناك خيار أمان الاتصال ، ولا يتم إجراء مسح للصور في الرسائل على جهاز شخص بالغ.


تظل الرسائل مشفرة

لا يؤثر أمان الاتصالات على التشفير التام المتاح في تطبيق الرسائل على جهاز iOS. تظل الرسائل مشفرة بالكامل ، ولا يتم إرسال أي محتوى من الرسائل إلى شخص آخر أو إلى Apple.


لا تستطيع Apple الوصول إلى تطبيق Messages على أجهزة الأطفال ، ولا يتم إخطار Apple في حالة تمكين أو استخدام سلامة الاتصالات ومتى يتم ذلك.


كل شيء يتم على الجهاز ولا يغادر أي شيء الايفون

من أجل سلامة الاتصالات ، يتم فحص الصور المرسلة والمستلمة في تطبيق الرسائل بحثًا عن عُري باستخدام التعلم الآلي وتقنية الذكاء الاصطناعي من Apple. يتم المسح بالكامل على الجهاز ، ولا يتم إرسال أي محتوى من الرسائل إلى خوادم Apple أو إلى أي مكان آخر.


تشبه التقنية المستخدمة هنا التقنية التي يستخدمها تطبيق الصور لتحديد الحيوانات الأليفة والأشخاص والأطعمة والنباتات والعناصر الأخرى في الصور. كل هذا التعريف يتم أيضًا على الجهاز بنفس الطريقة.


عندما وصفت Apple لأول مرة سلامة الاتصالات في أغسطس ، كانت هناك ميزة مصممة لإخطار الآباء إذا اختار الأطفال عرض صورة عارية بعد تحذيرهم منها. هذا قد أزيل.


إذا تم تحذير الطفل بشأن صورة عارية وشاهدها على أي حال ، فلن يتم إخطار الوالدين وسيكون الاستقلال الكامل في يد الطفل. أزالت Apple الميزة بعد انتقادات من مجموعات الدعوة التي كانت تخشى أن تكون مشكلة في حالات إساءة معاملة الوالدين.


سلامة الاتصالات ليست مقياس Apple لمكافحة CSAM

أعلنت Apple في البداية عن سلامة الاتصالات في أغسطس 2021 ، وتم تقديمها كجزء من مجموعة ميزات سلامة الأطفال التي تضمنت أيضًا مبادرة لمكافحة CSAM.


لم يتم تنفيذ خطة Apple لمكافحة CSAM ، والتي وصفتها Apple بأنها قادرة على تحديد مواد الاعتداء الجنسي على الأطفال في iCloud ، وهي منفصلة تمامًا عن سلامة الاتصالات. لقد كان من الخطأ بالنسبة لشركة Apple تقديم هاتين الميزتين معًا لأن إحداهما لا علاقة لها بالآخر باستثناء كونها تحت مظلة سلامة الطفل.


كان هناك الكثير من ردود الفعل السلبية على مقياس Apple لمكافحة CSAM لأنه سيشاهد الصور التي تم تحميلها إلى iCloud‌ ممسوحة ضوئيًا مقابل قاعدة بيانات معروفة لمواد الاعتداء الجنسي على الأطفال ، ولم يكن مستخدمو Apple سعداء باحتمالية مسح الصور ضوئيًا. هناك مخاوف من أن التكنولوجيا التي تستخدمها Apple لمسح الصور ضوئيًا ومطابقتها مع CSAM المعروفة يمكن توسيعها في المستقبل لتغطية أنواع أخرى من المواد.


استجابة لانتقادات واسعة النطاق ، أجلت شركة Apple خططها لمكافحة CSAM وتقوم بإجراء تغييرات على كيفية تنفيذها قبل إطلاقها. لم تتم إضافة أي وظيفة لمكافحة CSAM إلى iOS في الوقت الحالي.

تعليقات