Hai Editor! Saatnya untuk terlibat dalam transparansi AI
Kecerdasan buatan terapan telah menjadi bagian integral dari operasi sehari-hari banyak perusahaan media, dan kemampuan baru muncul dengan kecepatan yang mencengangkan. Tapi seberapa banyak informasi konsumen media tentang apa yang sedang terjadi? Dan siapa yang bertanggung jawab atas gambaran yang lebih besar? Melihat kembali diskusi tentang transparansi AI di jaringan Jurnalisme AI Nordik, kami melihat perlunya peningkatan keterlibatan kepemimpinan.
Pada tanggal 4 Oktober 2022, penyiar publik Norwegia NRK menerbitkan artikel yang tampak standar tentang harga energi. Namun, kredensial untuk gambar terkait bukan fotografer rata-rata Anda. Sebaliknya, kabel listrik yang tergambar dan lanskap pegunungan yang tenang dikaitkan dengan "Midjourney (AI)".

Apakah byline membuat pengguna memahami dan menghargai sifat sintetik dari konten? Editor yang bertanggung jawab di NRK tampaknya tidak yakin, dan gambar itu dengan cepat diturunkan dan diganti dengan stok foto tradisional. “Seharusnya ada alasan bagus untuk menggunakan ilustrasi yang dihasilkan AI sebagai bagian dari operasi berita kami”, jelasnya dalam wawancara berikutnya dengan Journalisten .
Kami, tiga anggota jaringan Jurnalisme AI Nordik, menemukan bahwa kasus ini menyoroti pertanyaan strategis dan etis yang penting bagi perusahaan media ke depan.
N ordic AI Journalism adalah jaringan industri yang terdiri dari sekitar 200 orang yang bekerja untuk lebih dari 30 organisasi media berita berbeda di Nordik. Jaringan berusaha untuk berkontribusi pada penggunaan dan pengembangan teknologi AI yang bertanggung jawab dalam jurnalisme dengan berbagi pembelajaran lintas batas organisasi. Jaringan ini didirikan oleh Agnes Stenbom (Schibsted) dan Olle Zachrison (Sveriges Radio) pada tahun 2020, dan sejak itu kami telah bertemu secara virtual untuk sesi dua bulanan yang mencakup berbagai kasus terkait AI dan jurnalisme — dari suara sintetik hingga model ekstraksi entitas.
Musim gugur ini, kami akhirnya bertemu langsung. Dengan hub lokal di Stockholm (dipandu oleh Sveriges Radio), Kopenhagen (Ekstra Bladet), dan Oslo (Schibsted), kami membahas transparansi AI dan mengapa kami memerlukan lebih banyak informasi yang dapat diakses pengguna tentang penggunaan AI dalam jurnalisme.
Dalam postingan blog ini, kami akan menyoroti berbagai jenis transparansi yang dibahas, menjelaskan konsekuensi dari proses buram, dan menyarankan kerangka kerja untuk memetakan kasus penggunaan dan risiko di masa mendatang. Pesan utama kami: kami melihat kebutuhan mendesak untuk bertindak, tidak terkecuali oleh para eksekutif media.

Mengapa transparansi AI?
Pertama, kami ingin menekankan mengapa kami menemukan pertanyaan tentang transparansi terkait penggunaan AI di media berita menjadi masalah yang mendesak bagi jurnalisme saat ini.
- Transparansi secara intrinsik penting untuk praktik AI yang bertanggung jawab
Transparansi dalam penggunaan AI terhadap orang-orang yang terpengaruh olehnya diakui secara luas sebagai aspek sentral dari praktik AI yang bertanggung jawab, karena merupakan dasar untuk berinteraksi dengan sistem AI dengan cara yang terinformasi sebagai makhluk otonom . - Transparansi untuk membangun kepercayaan
Dalam jurnalisme, kami belum memiliki 'kontrak' dengan konsumen media tentang bagaimana dan untuk apa menggunakan AI — baik sebagai industri maupun perusahaan media individual. Kami menemukan bahwa keterbukaan diperlukan untuk memungkinkan diskusi di antara penerbit berita dan pemangku kepentingan tentang apa yang boleh dan tidak boleh dilakukan AI untuk menetapkan pedoman, kebijakan, dan kerangka kerja yang lebih matang untuk domain berita. Secara khusus, kami percaya bahwa peningkatan transparansi terhadap pengguna akan memungkinkan diskusi yang diperlukan untuk memfasilitasi penyelarasan harapan — yang penting untuk memfasilitasi kepercayaan. - Transparansi harus diprioritaskan mengingat keadaan AI yang belum matang dalam berita
Seperti yang disoroti oleh laporan terbaru di dalam dan di luar Nordik — lihat misalnya Wiik (2022) dan Beckett (2019) — industri media berita masih berada di awal perjalanan AI kita . Aspek positif dari hal ini adalah bagaimana hal itu memberi kita kesempatan untuk meletakkan dasar yang kuat. Kami menemukan bahwa fondasi ini akan menjadi sangat penting di masa mendatang mengingat transparansi dalam pengambilan keputusan otomatis dan AI disebutkan dalam misalnya GDPR, Undang-Undang Layanan Digital, dan Undang-Undang AI.
Jenis dan tingkat transparansi
Mengingat keragaman besar dalam aplikasi AI untuk berita, mulai dari pemberi rekomendasi hingga alat penandaan internal atau sistem pembuatan konten generatif, kami menemukan bahwa berbagai jenis dan tingkat transparansi diperlukan dalam situasi yang berbeda.
Diinformasikan oleh diskusi jaringan, kami telah membedakan antara empat jenis dan tingkat transparansi relevansi dengan organisasi berita:
- Beri tahu pengguna bahwa sistem AI sedang digunakan (visibilitas dasar)
Jenis transparansi yang mungkin paling dasar melibatkan memberi tahu pengguna ketika semua jenis sistem AI digunakan untuk memilih atau mengubah konten yang sedang disajikan. Hal ini dapat dilakukan dengan berbagai cara, mulai dari kebijakan AI umum yang menjelaskan secara umum bahwa sistem AI digunakan oleh penerbit berita, hingga informasi spesifik setiap kali AI digunakan dalam elemen tertentu di situs web atau aplikasi berita. - Jelaskan bagaimana sistem AI membuat keputusan (visibilitas teknis)
Jenis transparansi lain yang dibangun di atas visibilitas dasar adalah deskripsi tentang cara kerja algoritme yang digunakan. Jenis transparansi ini dapat berkisar dari deskripsi umum algoritme AI hingga deskripsi terperinci dari masing-masing algoritme termasuk apa yang mereka optimalkan, input data apa yang digunakan, jenis metode pembelajaran mesin apa yang digunakan. Deskripsi ini bisa dalam istilah teknis atau dalam istilah awam. - Jelaskan keputusan individu yang dibuat oleh sistem AI
Jenis transparansi lain melibatkan penjelasan tentang keputusan individu yang dibuat oleh sistem AI, seperti alasan mengapa kumpulan artikel berita tertentu disajikan kepada pembaca tertentu. Jenis transparansi ini berkisar dari penjelasan post hoc (di mana algoritme AI lain menebak alasan untuk keputusan tertentu dengan memeriksa fitur apa yang mendasari keputusan tersebut berkorelasi dengan, misalnya jenis kelamin pembaca atau kecenderungan untuk membaca misalnya cerita olahraga) hingga penjelasan intrinsik di mana algoritmik itu membuat keputusan menunjukkan faktor internal apa yang menyebabkan keputusan (ini biasanya lebih tepat, tetapi sulit ditafsirkan oleh orang awam). - Memungkinkan pengguna untuk memengaruhi keputusan individu secara langsung
Jenis transparansi terakhir yang kita diskusikan melibatkan memungkinkan pembaca untuk memengaruhi algoritme AI yang mereka gunakan untuk membangun pemahaman yang lebih dalam tentang cara kerja algoritme. Pada satu tingkat, ini mungkin melibatkan opsi opt in/opt out sederhana di mana pengguna dapat memilih antara versi situs web atau elemen di situs web berita dengan atau tanpa sistem AI. Di tingkat lain, pengguna dapat diberikan "pegangan dan tuas" yang memengaruhi masukan ke algoritme AI yang memungkinkan mereka bereksperimen dengan pengaturan dan keluaran yang berbeda.
Jadi, bagaimana Anda tahu transparansi seperti apa yang diminta oleh kasus penggunaan khusus Anda? Dalam jaringan, kami membahas dua faktor berbeda yang seharusnya memengaruhi penilaian tersebut.
Pertama, kita harus mempertimbangkan risiko editorial terkait penggunaan AI. Kami menemukan bahwa ada baiknya membuat perbedaan antara risiko hukum (yang tidak dapat dinegosiasikan) dan risiko editorial 'murni'. Kadang-kadang tumpang tindih, tetapi pasti ada kasus di mana penggunaan AI tertentu dapat menimbulkan risiko editorial yang tidak akan menjadi tanggung jawab hukum formal. Sekelompok rekomendasi AI yang buruk, atau kesalahan serius yang dilakukan oleh terjemahan mesin dapat menyebabkan kerusakan merek tanpa pelanggaran hukum.
Kedua, kita harus mempertimbangkan dampaknya terhadap pengalaman pengguna . Apakah pengguna mendapatkan jenis pengalaman media yang berbeda karena penggunaan AI, atau apakah kita menggunakan teknologi dalam proses yang hanya menghadap ruang redaksi, misalnya dengan membuat proses yang ada menjadi lebih efisien melalui otomatisasi?
Dalam jaringan, kami menyusun dua topik ini — risiko editorial dan dampak pada pengalaman pengguna — sebagai sumbu untuk membuat kerangka kerja diskusi dasar:

Setelah tim tertentu menyetujui tempat kasus penggunaannya, kami berpendapat bahwa mereka dapat melakukan diskusi yang lebih terinformasi tentang perlunya memberi tahu pengguna dan/atau pemangku kepentingan lainnya.
Risiko datang dalam berbagai bentuk
Selama pertemuan jaringan Jurnalisme AI Nordik, kami membahas sejumlah kasus penggunaan aktif AI di media Nordik dari perspektif transparansi. Haruskah mereka dikomunikasikan kepada pengguna dengan cara yang lebih jelas? Jika tidak, mengapa tidak? Jika ya, bagaimana?
Sebagian besar kasus penggunaan yang dibahas berfokus pada sistem pemberi rekomendasi, tetapi juga menyertakan penandaan konten video, transkripsi audio, dan pembuatan telegram berita secara otomatis. Kasus penggunaan mencakup sistem berbasis ML dan sistem berbasis aturan (dijelaskan bersama di bawah sebagai "sistem AI"). Namun, kesamaan yang mereka miliki adalah tidak ada yang dikomunikasikan kepada pengguna sebagai sistem AI.
Saat mendiskusikan kasus penggunaan kami terkait kerangka kerja di atas, dengan cepat menjadi jelas bahwa kami menetapkan tingkat risiko editorial yang berbeda untuk jenis kasus penggunaan yang berbeda. Secara umum, kami yakin dengan proses dan keputusan editorial kami, dan tidak mengkhawatirkan AI, misalnya, merekomendasikan atau menerjemahkan konten yang awalnya 'diperiksa' oleh profesional berita. Sistem AI dengan tingkat otomatisasi yang lebih tinggi, seperti berita yang dihasilkan secara otomatis, disarankan untuk melibatkan risiko editorial yang lebih tinggi, dan dengan itu, tuntutan transparansi yang lebih tinggi.
… tetapi apakah pengguna menginginkannya?
Beberapa orang di jaringan berpendapat bahwa pengguna jarang menunjukkan minat pada transparansi dan bahwa mereka tidak menginginkan kontrol langsung atas sistem AI (misalnya pemberi rekomendasi). Mengutip salah satu anggota jaringan: "Mereka hanya mengungkapkan keinginan untuk pengalaman yang lancar dan relevan - mereka tidak peduli bagaimana itu diproduksi".
Orang lain di jaringan (termasuk penulis posting blog ini) berpendapat sebaliknya, dengan contoh pengguna yang meminta informasi yang jelas tentang siapa/institusi apa yang "di belakang" AI, data yang digunakan untuk melatihnya, dan mengapa AI diterapkan di posisi pertama.
Terlepas dari perbedaan internal dalam persepsi keinginan pengguna, sebagian besar anggota berpendapat bahwa lebih banyak transparansi itu penting dan diinginkan — paling tidak untuk meningkatkan fokus internal pada praktik etis yang bertahan di siang hari.
Implementasi AI di seluruh proses jurnalistik membutuhkan transparansi
Diskusi jaringan kami telah menyoroti pentingnya mengenali bagaimana aplikasi AI merupakan bagian dari rantai nilai jurnalistik di mana jumlah kasus penggunaan dan skala dampaknya terus meningkat. Kadang-kadang satu kasus penggunaan AI tertentu dapat dinilai sebagai risiko rendah, tetapi dikombinasikan dengan aplikasi AI lainnya, gambarannya dengan cepat menjadi lebih kompleks dan risiko ketidakjelasan lebih sulit untuk dihitung. Tidak ada kasus penggunaan AI yang muncul di silo.

Transparansi internal sebagai persyaratan dasar
Dengan mengingat hal ini, menurut kami transparansi internal dan pemahaman bersama tentang bagaimana berbagai kasus penggunaan AI saling mempengaruhi merupakan titik awal yang penting untuk mengembangkan produk yang mempromosikan transparansi AI dalam jurnalisme. Kami perlu memahami gambaran yang lebih luas dan menginformasikannya kepada pengguna.
Dalam organisasi media modern, kami berpendapat bahwa pemimpin redaksi — tidak terkecuali editor dan/atau penerbit — harus memiliki gambaran tentang di mana, kapan, dan bagaimana AI memengaruhi proses produksi dan pengalaman pengguna. Bagaimana lagi publik dapat meminta pertanggungjawaban mereka?
Mudah untuk membayangkan sejumlah masalah jika para pemimpin media tidak menjadi lebih sadar tentang AI yang diterapkan di ruang redaksi mereka. Di satu sisi, risiko kepemimpinan yang mengabaikan potensi besar AI dapat menghambat inovasi di bidang media. Di sisi lain, gagal mengenali risiko dapat menimbulkan konsekuensi negatif yang parah bagi perusahaan media dan konsumen.
Tidak dapat menjelaskan cara kerja umum dari sistem yang diterapkan dalam proses editorial sendiri dapat merusak merek berita dan kredibilitas pribadi editor. Sementara "human-in-the-loop" telah menjadi ide yang dipopulerkan di AI, kami percaya bahwa kami perlu berinvestasi lebih khusus untuk memastikan bahwa kami memiliki sistem "editor-in-the-loop" saat kami terus mengeksplorasi dan menerapkan AI dalam jurnalisme.
Memberi tahu pengguna bahwa sistem AI sedang dimainkan: langkah pertama yang diperlukan
Terakhir, kami ingin sekali lagi menekankan pentingnya tingkat transparansi dasar terhadap pembaca setiap kali sistem AI secara langsung berdampak pada pengalaman berita tanpa ada manusia yang mengetahuinya, misalnya sistem rekomendasi berita atau konten yang dibuat (atau diterjemahkan) dan dipublikasikan secara otomatis. Penyiapan seperti itu meningkatkan kebutuhan akan informasi yang memungkinkan pembaca memahami berita yang disajikan kepada mereka (dan kesalahan yang mungkin dibuat oleh sistem AI) dalam konteksnya.
Konsumen memiliki hak untuk diberi tahu saat AI memainkan peran penting dalam pengalaman media.
Dalam lanskap informasi digital ini, kami percaya bahwa konsumen memiliki hak untuk diberi tahu saat AI memainkan peran penting dalam pengalaman media. Bagaimana persisnya hal ini dilakukan harus bergantung pada masing-masing perusahaan. Namun, pengalaman kami dari jaringan Jurnalisme AI Nordik adalah bahwa dialog peer-to-peer tentang transparansi AI, baik di dalam perusahaan Anda maupun industri yang lebih luas, adalah tempat yang sangat baik untuk memulai.