Beranda News Meta harus meningkatkan mekanisme keamanan bagi korban deepfake AI eksplisit

Meta harus meningkatkan mekanisme keamanan bagi korban deepfake AI eksplisit

43
0


Dewan Pengawas, sebuah badan global yang terdiri dari para ahli yang mengulas keputusan Meta yang paling sulit dan signifikan terkait dengan konten di Facebook, Instagram, dan Threads, diterbitkan temuannya mengenai topik gambar-gambar figur publik perempuan yang eksplisit, nonkonsensual, dan dihasilkan oleh AI dibagikan di Facebook.

Dewan menganalisis dua kasus serupa yang awalnya diperlakukan berbeda oleh Facebook (meskipun relevan juga untuk Instagram dan Threads). Kedua kasus tersebut melibatkan figur publik perempuan, satu di AS, dan satu di India. Panel ahli menemukan kedua contoh deepfake nonkonsensual tersebut, tidak mengherankan, melanggar Standar Komunitas; namun, kasus India tersebut awalnya tidak dihapus oleh Facebook. Sebaliknya, laporan pengguna secara otomatis dihapus setelah 48 jam. Ini merupakan petunjuk bahwa Meta tidak memperlakukan semua pasar global secara setara – salah satu dari banyak alasan mengapa perusahaan tersebut dikritik oleh para ahli dan jurnalis.

Meskipun merupakan badan independen, Dewan Pengawas memiliki kewenangan signifikan yang membuatnya dijuluki “Mahkamah Agung Meta.” Dewan ini dapat membatalkan keputusan perusahaan dalam kasus tertentu dan mengeluarkan rekomendasi kebijakan kepada Meta.

Dalam kasus ini, Dewan merekomendasikan agar Meta:

  • Pindahkan larangan terhadap “photoshop seksual yang merendahkan” ke dalam Standar Komunitas Eksploitasi Seksual Orang Dewasa.
  • Ubah kata “menghina” dalam larangan “photoshop seksual yang merendahkan” menjadi “tidak konsensual.”
  • Ganti kata “photoshop” dalam larangan “photoshop seksual yang merendahkan” dengan istilah yang lebih umum untuk media yang dimanipulasi.
  • Menyelaraskan kebijakannya tentang konten nonkonsensual dengan menambahkan sinyal baru untuk kurangnya persetujuan dalam kebijakan Eksploitasi Seksual Dewasa: konteks bahwa konten tersebut dibuat atau dimanipulasi oleh AI. Untuk konten dengan konteks khusus ini, kebijakan tersebut juga harus menentukan bahwa konten tersebut tidak harus “nonkomersial atau diproduksi di tempat pribadi” untuk dianggap melanggar.

Selain rekomendasi-rekomendasi ini, Dewan prihatin dengan penutupan otomatis permohonan banding pelecehan seksual berbasis gambardengan mengatakan: “Bahkan menunggu 48 jam untuk peninjauan dapat berbahaya mengingat kerusakan yang ditimbulkan.” Dewan menganggap ini sebagai masalah yang dapat berdampak signifikan pada hak asasi manusia, yang memerlukan penilaian dan mitigasi risiko.

Kasus yang dianalisis juga mengungkap masalah lain terkait dengan apa yang disebut Media Matching Service Bank, yang mengumpulkan konten yang dihapus sebelumnya dan membantu menghapus secara otomatis gambar yang melanggar aturan setelah dipublikasikan ulang.

Meta menjelaskan bahwa hal itu bergantung pada laporan media, misalnya, sebuah artikel yang menginformasikan tentang gambar-gambar yang bocor dari seorang selebriti tertentu. “Hal ini dapat berguna ketika postingan melibatkan tokoh publik tetapi tidak bermanfaat bagi individu pribadi. Oleh karena itu, Meta tidak boleh terlalu bergantung pada sinyal ini,” kata Dewan.

Rekomendasi ini tidak mengikat, meskipun Meta harus menanggapi secara resmi dalam waktu 60 hari. Hal ini sering kali menyebabkan perubahan dalam kebijakan internal Meta.





Source link