JURNAL IT - Di penghujung tahun 2025, Adam Mosseri, pimpinan Instagram, menutup tahun dengan sebuah refleksi yang meresahkan, keaslian kini menjadi sesuatu yang dapat direproduksi tanpa batas.
Segala hal yang dulunya membuat kreator bermakna, suara unik, koneksi nyata, dan kejujuran, kini bisa ditiru oleh siapa pun dengan alat kecerdasan buatan (AI) yang tepat.
Ironisnya, di saat platform seperti Instagram mencoba meyakinkan pengguna bahwa mereka peduli pada konten "asli", kenyataan di lapangan menunjukkan perang melawan apa yang disebut sebagai "AI Slop" (konten sampah buatan AI) jauh dari kata usai.
Solusi utama yang ditawarkan oleh raksasa teknologi saat ini adalah C2PA (Coalition for Content Provenance and Authenticity).
Ini adalah standar teknis yang menempelkan metadata tidak terlihat pada gambar atau video untuk memverifikasi siapa pembuatnya dan apakah AI digunakan dalam proses tersebut.
Meta, Microsoft, hingga Google telah memberikan dukungan mereka pada sistem ini.
Namun, C2PA bukanlah peluru perak. Metadata ini sangat ringkih dan mudah dihapus, baik secara sengaja maupun tidak sengaja. Bahkan perusahaan seperti OpenAI mengakui kelemahan ini.
Masalah lainnya adalah adopsi yang lambat. Agar sistem ini bekerja, setiap pihak dalam rantai pembuatan media harus ikut serta, mulai dari produsen kamera hingga platform media sosial.
Kenyataannya, perusahaan kamera seperti Canon dan Sony baru mulai menerapkannya pada model-model terbaru, sementara platform besar seperti X (Twitter) justru menarik diri dari inisiatif ini setelah diakuisisi oleh Elon Musk.
Meskipun label seperti "Info AI" mulai muncul di bawah nama akun di Instagram, pelabelan ini sering kali tidak konsisten dan sulit ditemukan.
Pengguna sering kali harus secara manual mencari informasi tersebut di balik menu tiga titik atau menggunakan ekstensi peramban khusus untuk memverifikasi sebuah konten.
Ben Colman, CEO Reality Defender, berpendapat bahwa mengandalkan pelabelan atau watermarking adalah asumsi yang salah, karena konten AI berbahaya sering kali dibuat dengan alat yang tidak mengikuti aturan tersebut.
Sebuah studi bahkan menunjukkan bahwa peringatan transparansi sering kali tidak cukup untuk mencegah kerugian dari deepfake yang menipu.
Konflik Kepentingan Raksasa Teknologi
Muncul pertanyaan besar, apakah perusahaan teknologi benar-benar ingin membersihkan "sampah" AI yang mereka bantu ciptakan? Ada konflik kepentingan yang nyata di sini.
Di satu sisi, mereka mempromosikan standar keaslian, namun di sisi lain, mereka terus memompa alat AI generatif yang membanjiri internet dengan konten serupa.
Meta, misalnya, mempromosikan AI sebagai masa depan media sosial sambil mencoba mengunci fitur AI tertentu di balik langganan premium.
YouTube mendorong penggunaan model AI Google dalam produksi video, meski mereka juga berjanji untuk memerangi konten inautentik.
Konten "AI Slop", mulai dari gambar aneh "Shrimp Jesus" hingga deepfake yang menyesatkan, terbukti mampu memicu keterlibatan (engagement) yang tinggi, yang pada akhirnya mendatangkan keuntungan iklan bagi platform tersebut.
Pergeseran Menuju "Siapa", Bukan "Apa"
Dengan semakin kaburnya batasan antara kenyataan dan rekayasa, fokus mulai bergeser.
Mosseri menyarankan bahwa ke depannya, Instagram mungkin akan lebih fokus pada "siapa yang berbicara" daripada "apa yang dikatakan".
Reputasi dan verifikasi identitas kreator menjadi benteng terakhir dalam dunia yang penuh dengan keraguan tanpa batas.
Pada akhirnya, upaya untuk membuktikan keaslian konten secara teknis terasa seperti sistem kehormatan yang mulia namun ditakdirkan untuk menghadapi tantangan berat.
Di tengah banjir informasi palsu, tanggung jawab untuk tetap nyata kini kembali ditekankan kepada para kreator manusia, sementara para penyedia teknologi terus mencoba menyeimbangkan antara tanggung jawab etis dan mesin pencetak uang mereka.(*)
0 Komentar