Apple เตรียมสแกนรูปภาพบน iPhone และ iCloud ใครที่มีภาพไม่เหมาะสมอยู่ในเครื่อง หรือบน iCloud ระวังให้ดี และตอนนี้เป็นเรื่องจริงแล้วหลังจาก Apple ได้ยืนยัน ว่าจะสแกนรูปภาพหากภาพไม่เหมาะสมเกี่ยวกับเด็กบนอุปกรณ์ iOS และ iCloud ซึ่งการมาของฟีเจอร์นี้ สามารถช่วยบังคับใช้กฎหมายในการสืบสวนคดีอาญา แต่อาจเปิดประตูสู่ความต้องการข้อมูลผู้ใช้ของทางภาครัฐที่เพิ่มขึ้น
Apple เตรียมสแกนรูปภาพบน iPhone และ iCloud
โดยการสแกนรูปภาพบนอุปกรณ์ iOS และ iCloud จะใช้ AI ในการสแกน หากพบมีภาพเข้าข่ายไม่เหมาะสม ก็อาจรายงานทันที นอกจากนี้จะใช้บนฟีเจอร์อื่นๆอย่าง SIRI และการค้นหาผ่านทางเว็บเบราว์เซอร์ด้วย ฟีเจอร์นี้จะมาบน iOS15 , watchOS 8 และ macOS Monteray ดังนั้นใครคิดจะอัปเดตและมีรูปเหล่านี้อยู่ระวังให้ดี
โดย AI นี้เรียกว่า NeuralMatch จะแจ้งเตือนเมื่อพบภาพไม่เหมาะสม ซึ่งได้รับการฝึกฝนโดยใช้ 200,000 ภาพจาก National Center for Missing & Exploited Children ฟีเจอร์นี้จะเปิดตัวครั้งแรกในสหรัฐอเมริกา รูปภาพจะถูกแฮชและเปรียบเทียบกับฐานข้อมูลภาพที่มีการล่วงละเมิดทางเพศเด็ก
ฟีเจอร์ดังกล่าว ไม่ใช่สร้างความกังวลแก่ผู้ที่มีรูปไม่เหมาะสมในเครื่องเท่านั้น อาจกระทบถึงจีนในเรื่องการเข้าถึงข้อมูลบนบริการ icloud ที่ฝั่ง Apple สามารถเข้าถึงข้อมูลได้
ทั้งนี้ฟีเจอร์สแกนรูปภาพหาภาพล่วงละเมิดเด็กของทาง Apple จะทำงานบน iOS15 และเฉพาะในสหรัฐอเมริกาเป็นประเทศแรก
อ่านบทความและข่าวอื่นๆเพิ่มเติมได้ที่ it24hrs.com
Apple เตรียมสแกนรูปภาพบน iPhone และ iCloud หาภาพล่วงละเมิดเด็ก ?
อย่าลืมกดติดตามอัพเดตข่าวสาร ทิปเทคนิคดีๆกันนะคะ Please follow us