หลังจากที่มีการหลุดในเรื่องของฟีเจอร์สำหรับสแกนรูปภาพโป๊เด็กใน iPhone จากนักวิจัยความปลอดภัย ทาง Apple ก็ได้ออกมายอมรับและอธิบายการทำงาน พร้อมทั้งแผนในการพัฒนาฟีเจอร์นี้บนเครื่องมืออื่นๆของ Apple อีกด้วย
ทาง Apple บอกว่า “เทคโนโลยีที่ Apple พัฒนาออกมานั้นมีเป้าหมายสูงสุดที่จะช่วยให้คุณภาพชีวิตที่ดีขึ้น นอกจากนี้ Apple ก็ต้องการช่วยเด็กๆจากสื่อการล่วงละเมิดทางเพศเด็กหรือ CSAM ด้วย” นี่เป็นเหตุผลที่ Apple ตัดสินใจพัฒนาฟีเจอร์ในการสแกนรูปโป๊เด็กออกมา
โดยการสแกนรูปภาพ Apple จะใช้ AI ในการสแกนรูปบน Cloud ของเราและบันทึกข้อมูลไว้หากว่ามีสื่อที่เข้าข่าย CSAM ในระบบปฏิบัติการ iOS และ iPadOS นอกจากนี้ Apple ยังมีแผนในการนำฟีเจอร์นี้ไปประยุกต์ใช้กับ Siri และการค้นหาของเราบนเบราว์เซอร์อีกด้วย
และยังมีฟีเจอร์สำหรับการแจ้งเตือนผู้ปกครองเมื่อเด็กได้รับรูปภาพหรือสื่อลามกใน Messages เมื่อระบบตรวจจับรูปภาพโป๊ใน Messages ของเด็ก ระบบจะทำการเบลอภาพและส่งข้อความแจ้งเตือนไปยังผู้ปกครองทันที แต่ต้องตั้งค่าบัญชีครอบครัวให้เรียบร้อยด้วยนะ
ฟีเจอร์ทั้งหมดนี้จะมาพร้อมกับ iOS 15 , iPadOS 15 , watchOS 8 และ macOS Monteray ที่จะมีการเปิดให้อัปเดตช่วงปลายปีนี้