Apple ชะลอเทคโนโลยีต่อต้านการล่วงละเมิดเด็ก

Apple ชะลอเทคโนโลยีต่อต้านการล่วงละเมิดเด็ก
Apple ชะลอเทคโนโลยีต่อต้านการล่วงละเมิดเด็ก
Anonim

หลังจากที่นักวิจารณ์และผู้ใช้วิพากษ์วิจารณ์กันเป็นจำนวนมาก Apple ก็ชะลอมาตรการต่อต้านเด็กออกไป

ในเดือนสิงหาคม ยักษ์ใหญ่ด้านเทคโนโลยีได้ประกาศนโยบายใหม่ที่ใช้เทคโนโลยีเพื่อค้นหาภาพการล่วงละเมิดเด็กที่อาจเกิดขึ้นใน iCloud และ Messages แต่ความกังวลก็เกิดขึ้น ผู้เชี่ยวชาญเตือนว่าแม้ว่า Apple จะสัญญาความเป็นส่วนตัวของผู้ใช้ไว้ แต่เทคโนโลยีนี้จะทำให้ผู้ใช้ Apple ทุกคนตกอยู่ในความเสี่ยงในที่สุด

Image
Image

เมื่อวันศุกร์ที่ผ่านมา Apple กล่าวว่าจะชะลอการเปิดตัวเทคโนโลยีไปพร้อมกัน เพื่อปรับปรุงและรับรองความเป็นส่วนตัวของผู้ใช้อย่างเต็มที่

"จากผลตอบรับจากลูกค้า กลุ่มผู้สนับสนุน นักวิจัย และคนอื่นๆ เราได้ตัดสินใจที่จะใช้เวลาเพิ่มเติมในช่วงหลายเดือนที่จะถึงนี้เพื่อรวบรวมข้อมูลและปรับปรุงก่อนที่จะปล่อยคุณสมบัติด้านความปลอดภัยสำหรับเด็กที่สำคัญอย่างยิ่งเหล่านี้" Apple กล่าวใน ปรับปรุงแถลงการณ์บนเว็บไซต์

เทคโนโลยีตรวจจับสื่อการล่วงละเมิดทางเพศเด็กคาดว่าจะวางจำหน่ายในปลายปีนี้ในการเปิดตัว iOS 15 แต่ตอนนี้ยังไม่ชัดเจนว่าฟีเจอร์นี้จะเปิดตัวเมื่อใดหรือเมื่อใด

เทคโนโลยีใหม่นี้ใช้งานได้สองวิธี: ขั้นแรกโดยการสแกนรูปภาพก่อนที่จะสำรองข้อมูลไปยัง iCloud หากรูปภาพนั้นตรงกับเกณฑ์ของ CSAM Apple จะได้รับข้อมูลนั้น อีกส่วนหนึ่งของเทคโนโลยีใช้แมชชีนเลิร์นนิงเพื่อระบุและเบลอภาพทางเพศที่โจ่งแจ้งซึ่งเด็กได้รับผ่านข้อความ

อย่างไรก็ตาม หลังจากประกาศนโยบายใหม่ ผู้สนับสนุนด้านความเป็นส่วนตัวและกลุ่มต่างๆ กล่าวว่า Apple กำลังเปิดประตูลับที่ผู้กระทำความผิดอาจนำไปใช้ในทางที่ผิดได้

เพื่อแก้ไขข้อกังวลเหล่านี้ Apple ได้เผยแพร่หน้าคำถามที่พบบ่อยหลังจากประกาศเทคโนโลยี CSAM ได้ไม่นาน Apple อธิบายว่าเทคโนโลยีจะไม่สแกนรูปภาพทั้งหมดที่จัดเก็บไว้ในอุปกรณ์ ทำลายการเข้ารหัสจากต้นทางถึงปลายทางใน Messages และไม่แจ้งความเท็จต่อผู้บริสุทธิ์ไปยังหน่วยงานบังคับใช้กฎหมาย

แนะนำ: