Apple กล่าวว่าระบบสแกนภาพอนาจารเด็กของ iCloud จะไม่ส่งการแจ้งเตือนจนกว่าจะตรวจพบอย่างน้อย 30 ภาพ

Apple กล่าวว่าระบบสแกนภาพอนาจารเด็กของ iCloud จะไม่ส่งการแจ้งเตือนจนกว่าจะตรวจพบอย่างน้อย 30 ภาพ

Appleประกาศรายละเอียดใหม่เกี่ยวกับแผนการสแกนภาพถ่าย iCloud ของผู้ใช้สำหรับภาพอนาจารเด็กเนื่องจากยักษ์ใหญ่ด้านเทคโนโลยียังคงควบคุมความเสียหายหลังจากฟันเฟืองเกี่ยวกับความเป็นส่วนตัวของความคิดริเริ่มนี้เมื่อสัปดาห์ที่แล้ว Apple กล่าวว่าจะใช้ฟีเจอร์เพื่อตรวจจับรูปภาพที่จัดเก็บไว้ใน รูปภาพ iCloudซึ่งแสดงภาพกิจกรรมทางเพศที่เกี่ยวข้องกับเด็กอย่างโจ่งแจ้ง ซึ่งเป็นส่วนหนึ่งของการ

อัปเดต iOS 15 และ iPadOS 15 ที่จะถึงในฤดูใบไม้ร่วงนี้

เมื่อวันศุกร์ที่ผ่านมา บริษัทกำลังพยายามสร้างความมั่นใจให้กับลูกค้าว่ากำลังลดโอกาสที่ระบบอาจตั้งค่าสถานะบัญชีอย่างไม่ถูกต้องว่าเป็นที่เก็บภาพอนาจารเด็ก โดยกล่าวว่าจะไม่ดำเนินการใดๆ จนกว่าระบบจะระบุเนื้อหาการล่วงละเมิดทางเพศเด็ก (CSAM) อย่างน้อย 30 รายการ ภาพ นอกจากนี้ยังกล่าวอีกว่าระบบจะสามารถตรวจสอบได้ต่อสาธารณะโดยบุคคลที่สาม

Apple จัดงานบรรยายสรุปกับนักข่าวและเผยแพร่เอกสารใหม่“การตรวจสอบแบบจำลองภัยคุกคามด้านความปลอดภัยของคุณสมบัติความปลอดภัยของเด็กของ Apple”พร้อมข้อมูลเพิ่มเติมเกี่ยวกับแผนดังกล่าวEmmy Awards 2022: รายชื่อผู้ชนะทั้งหมด

เหตุใด Apple จึงไม่รายงานบัญชี iCloud หากตรวจพบภาพลามกอนาจารของเด็กเพียงภาพเดียว

เกณฑ์ 30 ภาพเริ่มต้น “มีขอบด้านความปลอดภัยที่รุนแรงซึ่งสะท้อนถึงข้อสันนิษฐานที่เลวร้ายที่สุดเกี่ยวกับประสิทธิภาพในโลกแห่งความเป็นจริง”

 เพื่อลดความเป็นไปได้ที่จะเกิดผลบวกที่ผิดพลาด Apple กล่าวในเอกสารใหม่

เมื่อเวลาผ่านไป Apple อาจลดเกณฑ์ดังกล่าวลงเมื่อตรวจสอบประสิทธิภาพของระบบ CSAM แต่บริษัทกล่าวว่า “เกณฑ์การจับคู่จะไม่ต่ำกว่าที่จำเป็นในการสร้างอัตราการบวกเท็จหนึ่งในหนึ่งล้านล้านสำหรับบัญชีใดก็ตาม”

Apple ยืนยันว่าระบบ CSAM ได้รับการออกแบบโดยคำนึงถึงความเป็นส่วนตัว บริษัทจะใช้ระบบจับคู่แบบแฮชในเครื่องเพื่อตรวจจับภาพการล่วงละเมิดทางเพศเด็กในฐานข้อมูลของภาพลามกอนาจารเด็กที่เป็นที่รู้จักจากหน่วยงานด้านความปลอดภัยเด็กสองแห่งขึ้นไปในประเทศต่างๆ ที่เกณฑ์การจับคู่ 30 ภาพ Apple จะตรวจสอบว่าภาพเหล่านั้นเป็นภาพอนาจารของเด็ก และจะรายงานผู้ใช้ไปยังNational Center for Missing and Exploited Children (NCMEC) และหน่วยงานบังคับใช้กฎหมายของสหรัฐฯ

เมื่อวันศุกร์ที่ผ่านมา Apple พยายามชี้แจงว่าระบบไม่สามารถแก้ไขโดยผู้ประสงค์ร้ายได้ “การปรับเปลี่ยนฐานข้อมูลแฮช CSAM อย่างลับๆ” — “โดยไม่ได้ตั้งใจ หรือผ่านการบีบบังคับ” — จะ “ไม่เพียงพอที่จะทำให้ผู้บริสุทธิ์ถูกรายงานด้วยระบบนี้” บริษัทกล่าว Apple กล่าวว่าจะปฏิเสธคำขอทั้งหมดเพื่อเพิ่มรูปภาพที่ไม่ใช่ CSAM ลงในฐานข้อมูลแฮช ซึ่งประกอบด้วยรายการที่แสดงถึง “จุดตัดของแฮชจากองค์กรความปลอดภัยเด็กอย่างน้อยสองแห่งที่ดำเนินงานในเขตอำนาจศาลที่แยกจากกัน”

บริษัทเทคโนโลยีอื่นๆ รวมถึง Google, Facebook และ Microsoft ได้สแกนภาพที่อัปโหลดไปยังบริการคลาวด์เพื่อตรวจสอบ CSAM เป็นเวลาหลายปี

หลังจากการประกาศครั้งแรกของ Apple ผู้ให้การสนับสนุนด้านความเป็นส่วนตัวได้ยกธงสีแดงเกี่ยวกับแผนการของ Apple ในการสแกนภาพถ่ายของผู้ใช้iPhone มูลนิธิเสรีภาพอิเล็กทรอนิกส์เตือนว่าจะเปิด “ประตูหลัง” ให้กับการละเมิดของรัฐบาลและการบุกรุกความเป็นส่วนตัว

“การบอกว่าเราผิดหวังกับแผนการของ Apple นั้นเป็นการพูดน้อยไป Apple เคยเป็นแชมป์ของการเข้ารหัสแบบ end-to-end ด้วยเหตุผลเดียวกันกับที่ EFF ได้กล่าวถึงครั้งแล้วครั้งเล่า” ผู้อำนวยการฝ่ายกิจการของรัฐบาลกลางของอินเดีย McKinney ของอินเดียและ Erica Portnoy นักเทคโนโลยีอาวุโสของ EFF เขียนในบล็อกโพสต์ “การประนีประนอมของ Apple ในการเข้ารหัสแบบ end-to-end อาจทำให้หน่วยงานของรัฐในสหรัฐอเมริกาและต่างประเทศพอใจ แต่เป็นเรื่องที่น่าตกใจสำหรับผู้ใช้ที่พึ่งพาความเป็นผู้นำของบริษัทในด้านความเป็นส่วนตัวและความปลอดภัย”

Credit : northbysouththeatrela.org northquaymarine.net nwawriters.org oneheartinaction.org openbartheatricals.org