บริษัทเทคโนโลยี แอปเปิล (Apple) เปิดเผยเทคโนโลยีที่จะนำมาใช้ในการสแกนโทรศัพท์มือถือไอโฟนในสหรัฐฯ เพื่อตรวจหาภาพอนาจารของเด็กและเยาวชนที่อาจถูกเก็บบันทึกไว้ในไอโฟนเหล่านั้น
เครื่องมือดังกล่าวซึ่งมีชื่อว่า “neuralMatch” ถูกออกแบบมาเพื่อให้สามารถตรวจจับภาพของเด็กที่ถูกล่วงละเมิดทางเพศในภาพที่ถูกเก็บไว้ในอัลบั้มภาพหรือภาพที่ถ่ายโดยโทรศัพท์มือถือไอโฟน ก่อนที่ภาพเหล่านั้นจะถูกอัพโหลดเข้าสู่ระบบไอคลาวน์ (iCloud)
หากเทคโนโลยีดังกล่าวพบว่าเป็นภาพลามกอนาจารของเด็ก ภาพนั้นจะถูกส่งให้มนุษย์เป็นผู้ตรวจสอบซ้ำอีกทีเพื่อยืนยัน ก่อนที่จะส่งให้กับหน่วยงานของรัฐบาลสหรัฐฯ ที่ดูแลเรื่องเด็กที่สูญหายและการทำอนาจารเด็ก ให้เป็นผู้ดำเนินการต่อไป พร้อมกับปิดบัญชีผู้ใช้แอปเปิลของเจ้าของภาพนั้นด้วย
บรรดาองค์กรปกป้องเด็กและเยาวชนต่างแสดงความชื่นชมต่อมาตรการล่าสุดของแอปเปิล แต่นักวิชาการหลายคนยังคงแสดงความกังวลว่าระบบนี้อาจถูกนำไปใช้ในทางที่ผิด เช่น อาจถูกรัฐบาลนำไปใช้ในการติดตามสอดส่องประชาชน หรืออาจเกิดการแจ้งเตือนผิด ๆ เช่น รูปเด็กเล็กเล่นในอ่างอาบน้ำที่ผู้ปกครองเป็นคนถ่ายเอง เป็นต้น
ที่ผ่านมา แอปเปิลถูกกดดันจากรัฐบาลสหรัฐฯ ให้อนุญาตให้เจ้าหน้าที่สามารถตรวจสอบข้อมูลต่าง ๆ ในโทรศัพท์ไอโฟนทุกเครื่องได้ภายใต้เหตุผลเรื่องความปลอดภัยและความมั่นคงของชาติ
นักวิเคราะห์ชี้ว่า การนำเทคโนโลยีใหม่ออกมาใช้เพื่อช่วยป้องกันการล่วงละเมิดและอนาจารเด็ก ๆ นี้จะต้องกระทำไปพร้อมกับการรักษาสมดุลเรื่องการปกป้องความเป็นส่วนตัวของผู้ใช้ไอโฟนด้วย
ทางแอปเปิลเปิดเผยว่า neuralMatch จะถูกนำออกมาใช้จริงปลายปีนี้พร้อมกับการอัพเดตซอฟต์แวร์ใหม่สำหรับระบบปฏิบัติการของไอโฟน คอมพิวเตอร์แมค และนาฬิกาแอปเปิลวอทช์