Memuat…
Apple mengumumkan sedang dalam proses mengembangkan sistem yang akan secara otomatis mengenali gambar ilegal saat diunggah ke iCloud dan memberi tahu pihak berwenang. FOTO/IST
LAS VEGAS – Rencana apel untuk dapat memindai foto di iCloud dengan dalih membatasi penyebaran Materi Eksploitasi Seksual Anak (CSAM) atau konten pelecehan anak resmi dicabut.
BACA JUGA – Justin Bieber Bantah Tuduhan Pelecehan Seksual
Perusahaan telah mengkonfirmasi bahwa pengembangan acara kontroversial tersebut telah dihentikan.
“Kami memutuskan untuk tidak melanjutkan alat pelacak CSAM yang kami usulkan sebelumnya untuk Foto iCloud. Anak-anak dapat dilindungi dengan cara lain tanpa perusahaan harus menyisir data pribadi pengguna,” kata Apple dalam pernyataan yang dikutip Metro, Jumat (12/10). 9 ). /2022).
Selain itu, Apple mengatakan akan terus bekerja sama dengan pemerintah, pembela anak, dan banyak lainnya untuk membantu melindungi anak-anak dari pelecehan.
Perusahaan asal Cupertino, Amerika Serikat itu juga berjanji akan menjaga hak privasi pengguna dan menjadikan internet sebagai tempat yang ramah anak.
Sebagai informasi, pada Agustus 2021, Apple mengumumkan sedang dalam proses mengembangkan sistem yang secara otomatis mengenali gambar ilegal saat diunggah ke iCloud dan memberi tahu pihak berwenang. Rencana ini pun mendapat kecaman dari banyak pihak.
Hal ini tidak lain karena jika rencana tersebut dilakukan, maka Apple dapat melihat konten iCloud seseorang dan mengontrolnya.
Hal ini jelas bertentangan dengan hak privasi pengguna, meski ada juga yang sangat mendukung upaya Apple.
“Sangat mengecewakan bahwa Apple telah membatalkan rencana untuk memindai gambar pelecehan seksual anak yang diunggah ke iCloud. Ini meresahkan bahwa perusahaan juga menutup mata terhadap materi pelecehan anak yang disimpan dan dibagikan melalui iCloud,” kata Richard Collard, Manajer Kebijakan Online. Keselamatan Anak. di badan amal anak-anak Inggris, NSPCC.