liveslot168
liveslot168
liveslot168
liveslot168
liveslot168
liveslot168
liveslot168
Cocol88
Cocol88
Cocol88
Cocol88
Cocol88
Cocol88
Cocol88
bosswin168
bosswin168 login
bosswin168 login
bosswin168 rtp
bosswin168 login
bosswin168 link alternatif
boswin168
bocoran rtp bosswin168
bocoran rtp bosswin168
slot online bosswin168
slot bosswin168
bosswin168 slot online
bosswin168
bosswin168 slot viral online
cocol88
cocol88
cocol88
cocol88
cocol88
cocol88
cocol88
cocol88
lotus138
bosswin168
bosswin168
bosswin168
maxwin138
master38
master38
master38
mabar69
mabar69
mabar69
mabar69
master38
ronin86
ronin86
ronin86
cocol77
cocol77
ronin86
Apple Batalkan Rencana Fitur Scan CSAM iPhone

Apple Batalkan Rencana Fitur Scan CSAM iPhone

Memuat…

Apple mengumumkan sedang dalam proses mengembangkan sistem yang akan secara otomatis mengenali gambar ilegal saat diunggah ke iCloud dan memberi tahu pihak berwenang. FOTO/IST

LAS VEGAS – Rencana apel untuk dapat memindai foto di iCloud dengan dalih membatasi penyebaran Materi Eksploitasi Seksual Anak (CSAM) atau konten pelecehan anak resmi dicabut.

BACA JUGA – Justin Bieber Bantah Tuduhan Pelecehan Seksual

Perusahaan telah mengkonfirmasi bahwa pengembangan acara kontroversial tersebut telah dihentikan.

“Kami memutuskan untuk tidak melanjutkan alat pelacak CSAM yang kami usulkan sebelumnya untuk Foto iCloud. Anak-anak dapat dilindungi dengan cara lain tanpa perusahaan harus menyisir data pribadi pengguna,” kata Apple dalam pernyataan yang dikutip Metro, Jumat (12/10). 9 ). /2022).

Selain itu, Apple mengatakan akan terus bekerja sama dengan pemerintah, pembela anak, dan banyak lainnya untuk membantu melindungi anak-anak dari pelecehan.

Perusahaan asal Cupertino, Amerika Serikat itu juga berjanji akan menjaga hak privasi pengguna dan menjadikan internet sebagai tempat yang ramah anak.

Sebagai informasi, pada Agustus 2021, Apple mengumumkan sedang dalam proses mengembangkan sistem yang secara otomatis mengenali gambar ilegal saat diunggah ke iCloud dan memberi tahu pihak berwenang. Rencana ini pun mendapat kecaman dari banyak pihak.

Hal ini tidak lain karena jika rencana tersebut dilakukan, maka Apple dapat melihat konten iCloud seseorang dan mengontrolnya.

Hal ini jelas bertentangan dengan hak privasi pengguna, meski ada juga yang sangat mendukung upaya Apple.

“Sangat mengecewakan bahwa Apple telah membatalkan rencana untuk memindai gambar pelecehan seksual anak yang diunggah ke iCloud. Ini meresahkan bahwa perusahaan juga menutup mata terhadap materi pelecehan anak yang disimpan dan dibagikan melalui iCloud,” kata Richard Collard, Manajer Kebijakan Online. Keselamatan Anak. di badan amal anak-anak Inggris, NSPCC.