Foto : Google
Sandidharma.ac.id – Gambar hasil buatan Artificial Intelligence (AI) semakin marak di internet, menimbulkan kekhawatiran karena konten ini sering kali membingungkan pengguna yang Tak mengetahui keasliannya.
Di Korea Selatan, kasus pornografi berbasis AI, khususnya deepfake, menjadi persoalan yang semakin mendesak dalam beberapa waktu terakhir. Semakin banyak Anggota Korea Selatan, termasuk anak-anak, menjadi korban dari penyalahgunaan teknologi deepfake dalam kasus pornografi.
Masalah ini menjadi perhatian publik setelah viralnya sejumlah ruang obrolan di Telegram yang diduga digunakan Buat memproduksi dan menyebarkan konten pornografi deepfake, menimbulkan ketakutan dan kemarahan di kalangan masyarakat.
Berdasarkan laporan dari Badan Kepolisian Nasional Korea Selatan, sebanyak 297 kasus pornografi deepfake telah dilaporkan antara Januari hingga Juli, dengan 113 dari 178 tersangka merupakan remaja. Di Seoul, sebanyak 10 remaja berusia 14 tahun ditangkap terkait kasus ini.
Karena tingginya peredaran konten berbasis AI yang mengkhawatirkan, Google kini tengah mengembangkan alat pendeteksi konten buatan AI. Pada awal tahun ini, Google bergabung dengan Coalition for Content Provenance and Authenticity (C2PA) Buat bekerja sama mengembangkan teknologi deteksi dan penandaan konten AI Berbarengan Member komite lainnya.
Teknologi ini nantinya akan diintegrasikan dengan Content Credentials, sebuah Perluasan yang berfungsi melacak sumber dari konten gambar dan video. Dalam beberapa bulan ke depan, Google berencana menambahkan versi terbaru dari Content Credentials ke berbagai produk intinya, sehingga mempermudah pengguna mendeteksi konten berbasis AI di hasil pencarian.
Baca juga: Ask Photos, Fitur AI Google Buat Cari Foto
Dilansir dari Engadget, fitur pendeteksi ini juga akan tersedia di Google Images, Lens, dan Circle to Search. Kalau suatu gambar Mempunyai metadata C2PA, pengguna akan dapat Menonton perubahan yang dilakukan oleh AI melalui menu “About this image.”
Di samping itu, Google tengah mengembangkan sistem Buat mengidentifikasi data teknis pada video di YouTube, seperti waktu dan jenis kamera yang digunakan Ketika pengambilan video. Tetapi, teknologi ini Tetap Mempunyai keterbatasan. Keefektifan sistem ini bergantung pada penggunaan sistem penandaan C2PA oleh pihak terkait, seperti produsen kamera dan penyedia perangkat AI. Kalau metadata pada suatu gambar atau video dihapus, pendeteksian AI oleh Google menjadi lebih sulit.
Di sisi lain, Meta menghadapi tantangan dalam menentukan kebijakan pengungkapan konten AI di platformnya, seperti Facebook, Instagram, dan Threads. Perusahaan ini baru saja memperbarui kebijakan Buat menempatkan label “AI info” pada foto yang diedit dengan AI di bagian menu postingan, alih-alih menampilkannya di tengah gambar seperti sebelumnya. Perubahan ini menimbulkan kekhawatiran karena label menjadi kurang terlihat.
Selain itu, Google juga merencanakan penerapan metadata C2PA dalam sistem iklan, meskipun detail teknisnya belum sepenuhnya terungkap. Penggunaan C2PA diharapkan dapat membantu Google dalam mengelola kebijakan transparansi konten AI.
Baca Berita dan artikel lain di Google News
(mha)