สวัสดีบรรณาธิการ! ถึงเวลาที่จะมีส่วนร่วมในความโปร่งใสของ AI
ปัญญาประดิษฐ์ประยุกต์ได้กลายเป็นส่วนสำคัญของการดำเนินงานประจำวันของบริษัทสื่อหลายแห่ง และความสามารถใหม่ๆ ก็เกิดขึ้นอย่างรวดเร็วจนน่าทึ่ง แต่ผู้บริโภคสื่อทราบดีแค่ไหนถึงสิ่งที่เกิดขึ้น? และใครเป็นผู้รับผิดชอบต่อภาพรวม? เมื่อมองย้อนกลับไปถึงการอภิปรายเกี่ยวกับความโปร่งใสของ AI ในเครือข่าย Nordic AI Journalism เราเห็นความจำเป็นในการมีส่วนร่วมของผู้นำที่เพิ่มขึ้น
เมื่อวันที่ 4 ตุลาคม 2022 NRK สถานีโทรทัศน์สาธารณะของนอร์เวย์ได้เผยแพร่บทความที่ดูเป็นมาตรฐานเกี่ยวกับราคาพลังงาน อย่างไรก็ตาม ข้อมูลรับรองสำหรับรูปภาพที่เกี่ยวข้องไม่ใช่ของช่างภาพทั่วไปของคุณ แต่สายไฟที่ปรากฎและภูมิทัศน์ภูเขาอันเงียบสงบนั้นมาจาก “Midjourney (AI)”
บรรทัดย่อยทำให้ผู้ใช้เข้าใจและชื่นชมลักษณะสังเคราะห์ของเนื้อหาหรือไม่ บรรณาธิการที่รับผิดชอบของ NRK ดูเหมือนจะไม่เชื่อ และภาพก็ถูกลบออกอย่างรวดเร็วและแทนที่ด้วยภาพสต็อกแบบดั้งเดิม “ควรมีเหตุผลที่ดีในการใช้ภาพประกอบที่สร้างโดย AI เป็นส่วนหนึ่งของการปฏิบัติการข่าวของเรา” เขาอธิบายในการสัมภาษณ์กับ Journalisten ในเวลาต่อ มา
เราซึ่งเป็นสมาชิกสามคนของเครือข่าย Nordic AI Journalism พบว่ากรณีนี้เน้นคำถามเชิงกลยุทธ์และจริยธรรมที่สำคัญสำหรับบริษัทสื่อในอนาคต
N ordic AI Journalismเป็นเครือข่ายอุตสาหกรรมที่ประกอบด้วยบุคคลประมาณ 200 คนที่ทำงานให้กับองค์กรสื่อข่าวมากกว่า 30 แห่งในกลุ่มประเทศนอร์ดิก เครือข่ายพยายามที่จะมีส่วนร่วมในการใช้อย่างรับผิดชอบและการพัฒนาเทคโนโลยี AI ในวารสารศาสตร์โดยการแบ่งปันการเรียนรู้ข้ามขอบเขตขององค์กร เครือข่ายนี้ก่อตั้งโดย Agnes Stenbom (Schibsted) และ Olle Zachrison (Sveriges Radio) ในปี 2020 และตั้งแต่นั้นมาเราก็ได้พบปะกันแบบเสมือนจริงสำหรับเซสชันทุก 2 เดือนซึ่งครอบคลุมกรณีต่างๆ ที่เกี่ยวข้องกับ AI และสื่อสารมวลชน ตั้งแต่เสียงสังเคราะห์ไปจนถึงแบบจำลองการแยกเอนทิตี
ฤดูใบไม้ร่วงปีนี้ ในที่สุดเราก็ได้พบกันสักที ด้วยศูนย์กลางท้องถิ่นในสตอกโฮล์ม (จัดโดย Sveriges Radio) โคเปนเฮเกน (Ekstra Bladet) และออสโล (Schibsted) เราได้หารือเกี่ยวกับความโปร่งใสของ AI และเหตุใดเราจึงต้องการข้อมูลที่ผู้ใช้สามารถเข้าถึงได้มากขึ้นเกี่ยวกับการใช้ AI ในการสื่อสารมวลชน
ในบล็อกโพสต์นี้ เราจะเน้นความโปร่งใสประเภทต่างๆ ที่กล่าวถึง อธิบายผลที่ตามมาของกระบวนการทึบแสง และแนะนำกรอบงานสำหรับแผนภูมิกรณีการใช้งานและความเสี่ยงในอนาคต ข้อความสำคัญของเรา: เราเห็นความจำเป็นเร่งด่วนในการดำเนินการ ไม่น้อยไปกว่าผู้บริหารสื่อ
ทำไม AI จึงโปร่งใส
ประการแรก เราต้องการเน้นย้ำว่าทำไมเราจึงพบคำถามเกี่ยวกับความโปร่งใสที่เกี่ยวข้องกับการใช้ AI ในสื่อข่าวที่เป็นประเด็นเร่งด่วนสำหรับการสื่อสารมวลชนในช่วงเวลานี้
- ความโปร่งใสเป็นสิ่งสำคัญโดยเนื้อแท้สำหรับแนวทางปฏิบัติด้าน AI อย่างมีความรับผิดชอบ
ความโปร่งใสในการใช้ AI ต่อผู้ที่ได้รับผลกระทบจาก AI นั้นได้รับการยอมรับอย่างกว้างขวางว่าเป็นส่วนสำคัญของแนวทางปฏิบัติด้าน AI อย่างมีความรับผิดชอบ เนื่องจากเป็นรากฐานสำหรับการโต้ตอบกับระบบ AI ในลักษณะที่แจ้งข้อมูลในฐานะสิ่งมีชีวิตที่เป็นอิสระ . - ความโปร่งใสเพื่อสร้างความไว้วางใจ
ในวงการสื่อสารมวลชน เรายังไม่มี 'สัญญา' กับผู้บริโภคสื่อเกี่ยวกับวิธีการและสิ่งที่จะใช้ AI ไม่ว่าในฐานะอุตสาหกรรมหรือบริษัทสื่อแต่ละแห่ง เราพบว่าการเปิดกว้างเป็นสิ่งจำเป็นในการเปิดให้มีการอภิปรายระหว่างผู้เผยแพร่ข่าวและผู้มีส่วนได้ส่วนเสียเกี่ยวกับสิ่งที่ควรทำและไม่ควรทำของ AI เพื่อกำหนดแนวทางปฏิบัติ นโยบาย และกรอบการทำงานที่เป็นผู้ใหญ่มากขึ้นสำหรับโดเมนข่าว โดยเฉพาะอย่างยิ่ง เราเชื่อว่าความโปร่งใสที่เพิ่มขึ้นต่อผู้ใช้จะช่วยให้มีการอภิปรายที่จำเป็นเพื่ออำนวยความสะดวกในการจัดตำแหน่งความคาดหวัง ซึ่งเป็นสิ่งสำคัญในการอำนวยความสะดวกในการไว้วางใจ - ความโปร่งใสควรได้รับการจัดลำดับความสำคัญก่อนหลังเนื่องจากสถานะของ AI ในข่าวที่ยังไม่บรรลุนิติภาวะ
ตามที่รายงานล่าสุดทั้งในและนอกกลุ่มนอร์ดิกเน้นย้ำไว้ เช่นWiik (2022) และBeckett (2019) อุตสาหกรรมสื่อข่าวยังคงเป็นจุดเริ่มต้นของเส้นทาง AI ของเรา . แง่บวกของสิ่งนี้คือการเปิดโอกาสให้เราวางรากฐานที่มั่นคง เราพบว่าพื้นฐานนี้จะมีความสำคัญเป็นพิเศษในอนาคต เนื่องจากความโปร่งใสในการตัดสินใจโดยอัตโนมัติและ AI ได้รับการกล่าวถึงใน GDPR, Digital Services Act และ AI Act
ประเภทและระดับของความโปร่งใส
จากความหลากหลายอย่างมากในแอปพลิเคชัน AI สำหรับข่าวสาร ตั้งแต่ผู้แนะนำไปจนถึงเครื่องมือการแท็กภายในหรือระบบสร้างเนื้อหาเชิงสร้างสรรค์ เราพบว่าประเภทและระดับของความโปร่งใสต่างๆ เป็นสิ่งจำเป็นในสถานการณ์ที่แตกต่างกัน
จากการอภิปรายในเครือข่าย เราได้จำแนกความแตกต่างระหว่างประเภทและระดับของความโปร่งใสที่เกี่ยวข้องกับองค์กรข่าวสี่ประเภท:
- แจ้งให้ผู้ใช้ทราบว่าระบบ AI กำลังถูกใช้ (การมองเห็นพื้นฐาน)
ความโปร่งใสประเภทพื้นฐานที่สุดอาจเกี่ยวข้องกับการแจ้งให้ผู้ใช้ทราบเมื่อระบบ AI ทุกประเภทถูกใช้เพื่อเลือกหรือแก้ไขเนื้อหาที่พวกเขากำลังแสดง ซึ่งสามารถทำได้หลายวิธี ตั้งแต่นโยบาย AI ทั่วไปที่อธิบายในคำทั่วไปว่าผู้เผยแพร่ข่าวใช้ระบบ AI ไปจนถึงข้อมูลเฉพาะเมื่อใดก็ตามที่ AI ใช้ในองค์ประกอบเฉพาะในเว็บไซต์ข่าวหรือแอป - อธิบายว่าระบบ AI ตัดสินใจอย่างไร (การมองเห็นทางเทคนิค)
ความโปร่งใสอีกประเภทหนึ่งที่สร้างจากการมองเห็นพื้นฐานคือคำอธิบายว่าอัลกอริทึมที่ใช้ทำงานอย่างไร ความโปร่งใสประเภทนี้อาจมีตั้งแต่คำอธิบายทั่วไปของอัลกอริทึม AI ไปจนถึงคำอธิบายโดยละเอียดของอัลกอริทึมแต่ละรายการ รวมถึงสิ่งที่พวกเขาปรับให้เหมาะสม ข้อมูลอินพุตที่ใช้อยู่ วิธีการเรียนรู้ของเครื่องประเภทใดที่ใช้ คำอธิบายเหล่านี้สามารถอยู่ในเงื่อนไขทางเทคนิคหรือในเงื่อนไขของคนธรรมดา - อธิบายการตัดสินใจส่วนบุคคลที่ทำโดยระบบ AI
ความโปร่งใสอีกประเภทหนึ่งเกี่ยวข้องกับคำอธิบายการตัดสินใจส่วนบุคคลที่ทำโดยระบบ AI เช่น เหตุผลที่บทความข่าวชุดหนึ่งถูกส่งไปยังผู้อ่านที่เฉพาะเจาะจง ความโปร่งใสประเภทนี้มีตั้งแต่คำอธิบายภายหลัง (ซึ่งอัลกอริธึม AI อื่นคาดเดาเหตุผลสำหรับการตัดสินใจที่เฉพาะเจาะจงโดยการตรวจสอบว่าคุณลักษณะพื้นฐานใดที่เกี่ยวข้องกับการตัดสินใจ เช่น เพศของผู้อ่านหรือแนวโน้มที่จะอ่าน เช่น เรื่องราวเกี่ยวกับกีฬา) ไปจนถึงคำอธิบายที่แท้จริงซึ่งอัลกอริทึมนั้น ทำให้การตัดสินใจแสดงให้เห็นว่าปัจจัยภายในใดที่ทำให้เกิดการตัดสินใจ (โดยทั่วไปจะแม่นยำกว่า แต่ยากสำหรับคนธรรมดาที่จะตีความ) - ช่วยให้ผู้ใช้มีผลโดยตรงต่อการตัดสินใจของแต่ละคน
ความโปร่งใสประเภทสุดท้ายที่เราพูดถึงเกี่ยวข้องกับการทำให้ผู้อ่านสามารถ ส่งผลกระทบต่ออัลกอริทึม AI ที่พวกเขากำลังเผชิญเพื่อสร้างความเข้าใจที่ลึกซึ้งยิ่งขึ้นเกี่ยวกับวิธีการทำงานของอัลกอริทึม ในระดับหนึ่งสิ่งนี้อาจเกี่ยวข้องกับตัวเลือกการเข้าร่วม/การไม่เข้าร่วมอย่างง่าย ซึ่งผู้ใช้สามารถเลือกระหว่างเวอร์ชันของเว็บไซต์หรือองค์ประกอบบนเว็บไซต์ข่าวที่มีหรือไม่มีระบบ AI ในอีกระดับหนึ่ง ผู้ใช้อาจได้รับ "ที่จับและคันโยก" ที่มีอิทธิพลต่ออินพุตไปยังอัลกอริทึม AI ซึ่งช่วยให้พวกเขาสามารถทดลองกับการตั้งค่าและเอาต์พุตต่างๆ ได้
แล้วคุณจะรู้ได้อย่างไรว่ากรณีการใช้งานเฉพาะของคุณต้องการความโปร่งใสแบบใด ในเครือข่าย เราได้กล่าวถึงปัจจัยที่แตกต่างกันสองประการที่น่าจะส่งผลต่อการประเมินดังกล่าว
อันดับแรก เราต้องพิจารณาความเสี่ยงด้านบรรณาธิการที่เกี่ยวข้องกับการใช้ AI เราพบว่าเป็นการดีที่จะแยกแยะระหว่างความเสี่ยงทางกฎหมาย (ซึ่งไม่สามารถต่อรองได้) และความเสี่ยงด้านบรรณาธิการที่ 'บริสุทธิ์' บางครั้งอาจทับซ้อนกัน แต่มีบางกรณีที่การใช้ AI บางอย่างอาจสร้างความเสี่ยงด้านบรรณาธิการที่จะไม่ถือเป็นความรับผิดทางกฎหมายอย่างเป็นทางการ กลุ่มคำแนะนำ AI ที่ไม่ดีหรือข้อผิดพลาดร้ายแรงที่เกิดขึ้นจากการแปลด้วยคอมพิวเตอร์อาจทำให้แบรนด์เสียหายได้โดยไม่ผิดกฎหมาย
ประการที่สอง เราต้องพิจารณาผลกระทบต่อประสบการณ์ของผู้ใช้ ผู้ใช้ได้รับประสบการณ์สื่อประเภทอื่นเนื่องจากการใช้ AI หรือเรากำลังใช้เทคโนโลยีในกระบวนการที่ใช้เฉพาะห้องข่าวเท่านั้น เช่น การทำให้กระบวนการที่มีอยู่มีประสิทธิภาพมากขึ้นผ่านระบบอัตโนมัติ
ในเครือข่าย เราจัดโครงสร้างสองหัวข้อนี้ — ความเสี่ยงด้านบรรณาธิการและผลกระทบต่อประสบการณ์ของผู้ใช้ — เป็นแกนหลักเพื่อสร้างกรอบการสนทนาพื้นฐาน:
เมื่อทีมหนึ่งๆ ตกลงกันได้แล้วว่ากรณีการใช้งานจะอยู่ที่ใด เรายืนยันว่าพวกเขาสามารถมีการสนทนาที่มีข้อมูลมากขึ้นเกี่ยวกับความจำเป็นในการแจ้งให้ผู้ใช้และ/หรือผู้มีส่วนได้ส่วนเสียอื่นๆ ทราบ
ความเสี่ยงมาในรูปแบบต่างๆ
ในระหว่างการพบปะกับเครือข่าย Nordic AI Journalism เราได้หารือเกี่ยวกับกรณีการใช้งาน AI ที่ใช้งานอยู่จำนวนหนึ่งในสื่อนอร์ดิกจากมุมมองที่โปร่งใส ควรมีการสื่อสารให้ผู้ใช้ทราบอย่างชัดเจนกว่านี้หรือไม่ ถ้าไม่ ทำไมไม่? ถ้าใช่ อย่างไร?
กรณีการใช้งานที่กล่าวถึงส่วนใหญ่มุ่งเน้นไปที่ระบบผู้แนะนำ แต่ยังรวมถึงการแท็กเนื้อหาวิดีโอ การถอดเสียง และการสร้างโทรเลขข่าวอัตโนมัติ กรณีการใช้งานมีทั้งระบบที่ใช้ ML และระบบตามกฎ (อธิบายร่วมกันด้านล่างว่า "ระบบ AI") สิ่งที่พวกเขามีเหมือนกันคือไม่มีการสื่อสารใด ๆ กับผู้ใช้ในฐานะระบบ AI
เมื่อพูดถึงกรณีการใช้งานของเราที่เกี่ยวข้องกับเฟรมเวิร์กด้านบน เป็นที่ชัดเจนว่าเราได้กำหนดระดับความเสี่ยงด้านบรรณาธิการที่แตกต่างกันให้กับกรณีการใช้งานประเภทต่างๆ โดยทั่วไปแล้ว เรามั่นใจในกระบวนการบรรณาธิการและการตัดสินใจของเรา และไม่ได้กังวลเกี่ยวกับ AI เช่น การแนะนำหรือการแปลเนื้อหาในตอนแรกที่ 'ตรวจสอบ' โดยผู้เชี่ยวชาญด้านข่าว ระบบ AI ที่มีระดับการทำงานอัตโนมัติที่สูงกว่า เช่น เรื่องราวข่าวที่สร้างขึ้นโดยอัตโนมัติ ได้รับการแนะนำให้มีความเสี่ยงด้านบรรณาธิการที่สูงขึ้น และเมื่อใช้ระบบนี้ ก็ยิ่งต้องการความโปร่งใสสูงขึ้นด้วย
… แต่ผู้ใช้ต้องการหรือไม่
มีบางคนในเครือข่ายแย้งว่าผู้ใช้ไม่ค่อยแสดงความสนใจในความโปร่งใสและไม่ต้องการการควบคุมระบบ AI โดยตรง (เช่น ผู้แนะนำ) เพื่อถอดความสมาชิกเครือข่ายคนหนึ่ง: "พวกเขาแค่แสดงความต้องการประสบการณ์ที่ราบรื่นและเกี่ยวข้อง - พวกเขาไม่สนใจว่ามันจะถูกสร้างขึ้นมาอย่างไร"
คนอื่นๆ ในเครือข่าย (รวมถึงผู้เขียนบล็อกโพสต์นี้) โต้แย้งด้วยตัวอย่างของผู้ใช้ที่ขอข้อมูลที่ชัดเจนว่าใคร/สถาบันใดที่ "อยู่เบื้องหลัง" AI ข้อมูลที่ใช้ในการฝึกอบรม และเหตุใดจึงมีการนำ AI มาประยุกต์ใช้ ที่แรก
แม้จะมีความแตกต่างภายในในการรับรู้ความต้องการของผู้ใช้ แต่สมาชิกส่วนใหญ่แย้งว่าความโปร่งใสเป็นสิ่งสำคัญและเป็นที่ต้องการ ไม่น้อยไปกว่ากัน เพื่อที่จะเพิ่มการมุ่งเน้นภายในไปสู่หลักปฏิบัติทางจริยธรรมที่ทนต่อแสงของวัน
การนำ AI ไปใช้ในกระบวนการสื่อสารมวลชนนั้นต้องการความโปร่งใส
การสนทนาในเครือข่ายของเราได้เน้นย้ำถึงความสำคัญของการตระหนักว่าแอปพลิเคชัน AI เป็นส่วนหนึ่งของห่วงโซ่คุณค่าด้านวารสารศาสตร์ ซึ่งจำนวนกรณีการใช้งานและขนาดของผลกระทบกำลังเพิ่มขึ้น บางครั้งกรณีการใช้งาน AI ที่เฉพาะเจาะจงในตัวมันเองสามารถประเมินได้ว่ามีความเสี่ยงต่ำ แต่เมื่อรวมกับแอปพลิเคชัน AI อื่นๆ รูปภาพจะซับซ้อนขึ้นอย่างรวดเร็วและความเสี่ยงของความทึบนั้นยากต่อการคำนวณ ไม่มีกรณีการใช้ AI ปรากฏในไซโล
ความโปร่งใสภายในเป็นข้อกำหนดพื้นฐาน
เมื่อคำนึงถึงสิ่งนี้ เราคิดว่าความโปร่งใสภายในองค์กรและความเข้าใจร่วมกันเกี่ยวกับความแตกต่างของกรณีการใช้งาน AI ที่แตกต่างกันเป็นจุดเริ่มต้นที่สำคัญสำหรับการพัฒนาผลิตภัณฑ์ที่ส่งเสริมความโปร่งใสของ AI ในการทำข่าว เราจำเป็นต้องเข้าใจภาพรวมที่กว้างขึ้นและแจ้งให้ผู้ใช้ทราบตามนั้น
ในองค์กรสื่อสมัยใหม่ เราโต้แย้งว่าผู้นำห้องข่าว ไม่น้อยไปกว่าบรรณาธิการและ/หรือผู้จัดพิมพ์ ต้องมีภาพรวมว่า AI ส่งผลกระทบต่อกระบวนการผลิตและประสบการณ์ของผู้ใช้ที่ใด เมื่อไร และอย่างไร ประชาชนจะรับผิดชอบต่อพวกเขาได้อย่างไร?
เป็นเรื่องง่ายที่จะจินตนาการถึงปัญหาต่างๆ หากผู้นำสื่อไม่ตระหนักมากขึ้นเกี่ยวกับการใช้ AI ในห้องข่าวของพวกเขา ในแง่หนึ่ง ความเสี่ยงของการเป็นผู้นำที่มองข้ามศักยภาพอันยิ่งใหญ่ของ AI อาจขัดขวางนวัตกรรมในแวดวงสื่อ ในทางกลับกัน การไม่ตระหนักถึงความเสี่ยงอาจส่งผลเสียอย่างรุนแรงต่อบริษัทสื่อและผู้บริโภค
การไม่สามารถอธิบายการทำงานทั่วไปของระบบที่ใช้ในกระบวนการบรรณาธิการของตนเองได้ อาจสร้างความเสียหายต่อทั้งแบรนด์ข่าวและความน่าเชื่อถือส่วนบุคคลของบรรณาธิการ ในขณะที่ "มนุษย์ในลูป" กลายเป็นแนวคิดที่ได้รับความนิยมใน AI เราเชื่อว่าเราจำเป็นต้องลงทุนอย่างเจาะจงมากขึ้นเพื่อให้แน่ใจว่าเรามีระบบ "บรรณาธิการในลูป" เมื่อเราสำรวจและนำไปใช้ต่อไป AI ในวารสารศาสตร์
การบอกผู้ใช้ว่าระบบ AI กำลังดำเนินอยู่: ขั้นตอนแรกที่จำเป็น
สุดท้ายนี้ เราขอย้ำอีกครั้งว่าระดับความโปร่งใสขั้นพื้นฐานที่มีต่อผู้อ่านมีความสำคัญอย่างไร เมื่อใดก็ตามที่ระบบ AI ส่งผลกระทบโดยตรงต่อประสบการณ์การรับชมข่าวโดยไม่มีมนุษย์คอยควบคุม เช่น ระบบผู้แนะนำข่าวหรือเนื้อหาที่สร้าง (หรือแปล) และเผยแพร่โดยอัตโนมัติ การตั้งค่าดังกล่าวเพิ่มความต้องการข้อมูลที่ช่วยให้ผู้อ่านเข้าใจข่าวสารที่พวกเขากำลังนำเสนอ (และข้อผิดพลาดที่ระบบ AI อาจสร้างขึ้น) ในบริบท
ผู้บริโภคมีสิทธิที่จะได้รับการแจ้งให้ทราบเมื่อ AI มีบทบาทสำคัญในประสบการณ์สื่อ
ในภาพรวมข้อมูลดิจิทัลนี้ เราเชื่อว่าผู้บริโภคมีสิทธิที่จะได้รับทราบเมื่อ AI มีบทบาทสำคัญในประสบการณ์สื่อ การดำเนินการดังกล่าวจะต้องขึ้นอยู่กับแต่ละบริษัท อย่างไรก็ตาม ประสบการณ์ของเราจากเครือข่าย Nordic AI Journalism คือการสนทนาแบบเพียร์ทูเพียร์เกี่ยวกับความโปร่งใสของ AI ทั้งภายในบริษัทของคุณและในอุตสาหกรรมที่กว้างขึ้น เป็นจุดเริ่มต้นที่ดีเยี่ยม