Hej Redaktorze! Nadszedł czas, aby zaangażować się w przejrzystość sztucznej inteligencji

Nov 29 2022
Agnes Stenbom, Kasper Lindskow i Olle Zachrison
Stosowana sztuczna inteligencja stała się integralną częścią codziennej działalności wielu firm medialnych, a nowe możliwości pojawiają się w oszałamiającym tempie. Ale w jakim stopniu konsumenci mediów są poinformowani o tym, co się dzieje? A kto jest odpowiedzialny za szerszy obraz? Patrząc wstecz na dyskusje na temat przejrzystości sztucznej inteligencji w sieci Nordic AI Journalism, widzimy potrzebę większego zaangażowania przywódców.

Stosowana sztuczna inteligencja stała się integralną częścią codziennej działalności wielu firm medialnych, a nowe możliwości pojawiają się w oszałamiającym tempie. Ale w jakim stopniu konsumenci mediów są poinformowani o tym, co się dzieje? A kto jest odpowiedzialny za szerszy obraz? Patrząc wstecz na dyskusje na temat przejrzystości sztucznej inteligencji w sieci Nordic AI Journalism, widzimy potrzebę większego zaangażowania przywódców.

4 października 2022 roku norweski nadawca publiczny NRK opublikował standardowy artykuł o cenach energii. Jednak dane uwierzytelniające dla powiązanego obrazu nie należały do ​​przeciętnego fotografa. Zamiast tego przedstawione linie energetyczne i spokojny górski krajobraz zostały przypisane „Midjourney (AI)”.

Wstępna ilustracja opublikowana przez NRK

Czy napis sprawił, że użytkownicy zrozumieli i docenili syntetyczny charakter treści? Odpowiedzialny redaktor w NRK nie wydawał się przekonany, a zdjęcie zostało szybko usunięte i zastąpione tradycyjnym zdjęciem stockowym. „Powinny istnieć dobre powody, aby używać ilustracji generowanych przez sztuczną inteligencję w ramach naszych operacji informacyjnych”, wyjaśnił w kolejnym wywiadzie dla Journalisten .

My, trzej członkowie sieci Nordic AI Journalism, uważamy, że ta sprawa uwydatnia ważne kwestie strategiczne i etyczne dla firm medialnych w przyszłości.

Nordic AI Journalism to branżowa sieć składająca się z około 200 osób pracujących dla ponad 30 różnych organizacji medialnych w Skandynawii. Sieć stara się przyczynić do odpowiedzialnego wykorzystania i rozwoju technologii AI w dziennikarstwie poprzez dzielenie się wiedzą ponad granicami organizacji. Sieć została założona przez Agnes Stenbom (Schibsted) i Olle Zachrison (Sveriges Radio) w 2020 roku i od tego czasu spotykamy się wirtualnie na dwumiesięcznych sesjach poświęconych różnym sprawom związanym ze sztuczną inteligencją i dziennikarstwem — od syntetycznych głosów po modele ekstrakcji jednostek.

Tej jesieni w końcu udało nam się spotkać osobiście. Z lokalnymi hubami w Sztokholmie (prowadzonym przez Sveriges Radio), Kopenhadze (Ekstra Bladet) i Oslo (Schibsted) rozmawialiśmy o przejrzystości sztucznej inteligencji i dlaczego potrzebujemy więcej dostępnych dla użytkownika informacji na temat wykorzystania sztucznej inteligencji w dziennikarstwie.

W tym poście na blogu podkreślimy różne omawiane rodzaje przejrzystości, opiszemy konsekwencje nieprzejrzystych procesów i zasugerujemy ramy do tworzenia wykresów przypadków użycia i zagrożeń w przyszłości. Nasze główne przesłanie: widzimy pilną potrzebę działania, nie tylko ze strony kierownictwa mediów.

Sieć Nordic AI Journalism skupia około 200 specjalistów od mediów informacyjnych z całej Skandynawii

Dlaczego przejrzystość AI?

Po pierwsze, chcemy podkreślić, dlaczego uważamy, że kwestia przejrzystości związana z wykorzystaniem sztucznej inteligencji w mediach informacyjnych jest tak palącą kwestią dla dziennikarstwa w tym momencie.

  1. Przejrzystość jest z natury ważna dla odpowiedzialnych praktyk w zakresie sztucznej inteligencji
    Przejrzystość w korzystaniu z sztucznej inteligencji wobec osób, na które ma ona wpływ, jest powszechnie uznawana za centralny aspekt odpowiedzialnych praktyk w zakresie sztucznej inteligencji, ponieważ stanowi podstawę interakcji z systemami sztucznej inteligencji w świadomy sposób jako autonomiczne istoty .
  2. Przejrzystość w budowaniu zaufania
    W dziennikarstwie nie mamy jeszcze „umowy” z konsumentami mediów na temat tego, jak i do czego wykorzystywać sztuczną inteligencję — ani jako branża, ani jako poszczególne firmy medialne. Uważamy, że otwartość jest konieczna, aby umożliwić dyskusję między wydawcami wiadomości i zainteresowanymi stronami na temat tego, co należy, a czego nie należy robić ze sztuczną inteligencją, aby ustanowić bardziej dojrzałe wytyczne, zasady i ramy dla domeny wiadomości. W szczególności uważamy, że większa przejrzystość wobec użytkowników umożliwiłaby dyskusję potrzebną do ułatwienia dostosowania oczekiwań — co jest niezbędne do budowania zaufania.
  3. Przejrzystość powinna być traktowana priorytetowo, biorąc pod uwagę niedojrzały stan sztucznej inteligencji w wiadomościach
    Jak podkreślono w ostatnich raportach w Skandynawii i poza nią — patrz np. Wiik (2022) i Beckett (2019) — branża mediów informacyjnych wciąż znajduje się na początku naszej podróży AI . Pozytywnym aspektem tego jest to, że daje nam to możliwość położenia solidnego fundamentu. Uważamy, że ta podstawa będzie szczególnie ważna w przyszłości, biorąc pod uwagę, że przejrzystość w zautomatyzowanym podejmowaniu decyzji i sztucznej inteligencji jest wymieniona np. w RODO, ustawie o usługach cyfrowych i ustawie o sztucznej inteligencji.

Rodzaje i poziomy przezroczystości

Biorąc pod uwagę ogromną różnorodność aplikacji AI do wiadomości, od rekomendacji po narzędzia do wewnętrznego tagowania lub systemy tworzenia treści generatywnych, stwierdzamy, że w różnych sytuacjach potrzebne są różne rodzaje i poziomy przejrzystości.

Na podstawie dyskusji w sieci wyróżniliśmy cztery różne typy i poziomy przejrzystości istotne dla organizacji informacyjnych:

  • Poinformuj użytkowników, że używany jest system sztucznej inteligencji (podstawowa widoczność)
    Być może najbardziej podstawowym rodzajem przejrzystości jest informowanie użytkowników, kiedy jakikolwiek system sztucznej inteligencji jest używany do wybierania lub modyfikowania udostępnianych im treści. Można to zrobić na wiele sposobów, począwszy od ogólnych zasad sztucznej inteligencji, które opisują w sposób ogólny, że systemy sztucznej inteligencji są używane przez wydawcę wiadomości, po konkretne informacje, gdy sztuczna inteligencja jest używana w określonym elemencie witryny lub aplikacji z wiadomościami.
  • Opisz, w jaki sposób system sztucznej inteligencji podejmuje decyzje (widoczność techniczna)
    Innym rodzajem przejrzystości, który opiera się na podstawowej widoczności, są opisy działania używanych algorytmów. Ten rodzaj przejrzystości może wahać się od ogólnych opisów algorytmów sztucznej inteligencji do szczegółowych opisów każdego z algorytmów, w tym tego, co optymalizują, jakie dane wejściowe są używane, jaki rodzaj metod uczenia maszynowego jest używany. Opisy te mogą być w kategoriach technicznych lub laickich.
  • Wyjaśnij poszczególne decyzje podejmowane przez system sztucznej inteligencji
    Jeszcze inny rodzaj przejrzystości obejmuje wyjaśnienia indywidualnych decyzji podejmowanych przez systemy sztucznej inteligencji, na przykład powody, dla których określony zestaw artykułów informacyjnych jest dostarczany określonemu czytelnikowi. Ten rodzaj przejrzystości rozciąga się od wyjaśnień post hoc (gdzie inny algorytm sztucznej inteligencji odgaduje przyczyny konkretnej decyzji, badając, z jakimi podstawowymi cechami ta decyzja jest skorelowana, np. podejmuje decyzję pokazuje, jakie czynniki wewnętrzne spowodowały podjęcie decyzji (jest to zazwyczaj bardziej precyzyjne, ale trudne do zinterpretowania przez laików).
  • Umożliwianie użytkownikom bezpośredniego wpływania na indywidualne decyzje
    Ostatni rodzaj przejrzystości, który omówiliśmy, obejmuje umożliwienie czytelnikowi wpływania na algorytmy sztucznej inteligencji, na które jest narażony, w celu głębszego zrozumienia działania algorytmu. Na pewnym poziomie może to obejmować proste opcje włączenia/wyłączenia, w ramach których użytkownicy mogą wybierać między wersją strony internetowej lub elementem w witrynie z wiadomościami z systemami AI lub bez nich. Na innym poziomie użytkownik może otrzymać „uchwyty i dźwignie”, które wpływają na dane wejściowe do algorytmu AI, umożliwiając mu eksperymentowanie z różnymi ustawieniami i wynikami.

Skąd więc wiesz, jakiego rodzaju przejrzystości wymaga twój konkretny przypadek użycia? W sieci omówiliśmy dwa różne czynniki, które powinny mieć wpływ na takie oceny.

Po pierwsze, musimy wziąć pod uwagę ryzyko redakcyjne związane z wykorzystaniem sztucznej inteligencji. Uważamy, że dobrze jest dokonać rozróżnienia między ryzykiem prawnym (którego nie można negocjować) a „czystym” ryzykiem redakcyjnym. Czasami nakładają się na siebie, ale z pewnością są przypadki, w których określone użycie sztucznej inteligencji może stwarzać ryzyko redakcyjne, które nie wiązałoby się z formalną odpowiedzialnością prawną. Złe zestawienie rekomendacji AI lub poważne błędy popełnione przez tłumaczenie maszynowe mogą spowodować uszkodzenie marki bez żadnego przekroczenia prawa.

Po drugie, musimy wziąć pod uwagę wpływ na doświadczenie użytkownika . Czy dzięki zastosowaniu sztucznej inteligencji użytkownik uzyskuje inny rodzaj doświadczenia z mediami, czy też wykorzystujemy technologie w procesach czysto informacyjnych, np. poprzez automatyzację usprawniania istniejących procesów?

W sieci usystematyzowaliśmy te dwa tematy — zagrożenia redakcyjne i wpływ na wrażenia użytkownika — jako osie do stworzenia podstawowych ram dyskusji:

Nasze ramy ułatwiające dyskusje na temat przejrzystości AI w wiadomościach

Gdy dany zespół uzgodni, gdzie znajduje się jego przypadek użycia, argumentujemy, że może przeprowadzić bardziej świadomą dyskusję na temat potrzeby informowania użytkowników i/lub innych interesariuszy.

Ryzyko występuje w różnych formach

Podczas spotkań sieci Nordic AI Journalism omówiliśmy szereg aktywnych przypadków użycia AI w nordyckich mediach z perspektywy przejrzystości. Czy powinny być przekazane użytkownikom w bardziej przejrzysty sposób? Jeśli nie, dlaczego nie? Jeśli tak, jak?

Większość omówionych przypadków użycia skupiała się na systemach rekomendujących, ale obejmowała również tagowanie treści wideo, transkrypcje audio i automatyczne generowanie telegramów informacyjnych. Przypadki użycia obejmowały zarówno systemy oparte na ML, jak i systemy oparte na regułach (opisane poniżej łącznie jako „systemy AI”). To, co łączyło ich wszystkich, to fakt, że żaden z nich nie został przekazany użytkownikom jako system sztucznej inteligencji.

Omawiając nasze przypadki użycia w odniesieniu do powyższych ram, szybko stało się jasne, że przypisujemy różne poziomy ryzyka redakcyjnego różnym typom przypadków użycia. Ogólnie rzecz biorąc, byliśmy pewni naszego procesu redakcyjnego i decyzji i nie martwiliśmy się sztuczną inteligencją, np. rekomendacją lub tłumaczeniem treści, które zostały wstępnie „sprawdzone” przez specjalistów od wiadomości. Zasugerowano, że systemy sztucznej inteligencji o wyższym stopniu automatyzacji, takie jak automatycznie generowane wiadomości, wiążą się z większym ryzykiem redakcyjnym, a wraz z nim jeszcze wyższymi wymaganiami dotyczącymi przejrzystości.

… ale czy użytkownicy tego chcą?

Niektórzy w sieci argumentowali, że użytkownicy rzadko wyrażają zainteresowanie przejrzystością i nie chcą bezpośredniej kontroli nad systemami AI (np. rekomendacje). Parafrazując jednego z członków sieci: „Oni po prostu wyrażają pragnienie płynnych, odpowiednich doświadczeń — nie obchodzi ich, jak są produkowane”.

Inni w sieci (w tym autorzy tego wpisu na blogu) argumentują coś przeciwnego, podając przykłady użytkowników proszących o jasne informacje o tym, kto/jaka instytucja stoi „za” sztuczną inteligencją, danych wykorzystywanych do jej szkolenia i dlaczego sztuczna inteligencja jest stosowana w pierwsze miejsce.

Pomimo wewnętrznych różnic w postrzeganiu pragnień użytkowników, większość członków twierdzi, że większa przejrzystość jest ważna i pożądana — zwłaszcza w celu zwiększenia wewnętrznego skupienia się na praktykach etycznych, które wytrzymują światło dzienne.

Wdrożenie sztucznej inteligencji w całym procesie dziennikarskim wymaga przejrzystości

Nasze dyskusje sieciowe podkreśliły znaczenie rozpoznania, w jaki sposób aplikacje AI są częścią dziennikarskiego łańcucha wartości, w którym rośnie liczba przypadków użycia i skala ich wpływu. Czasami jeden konkretny przypadek użycia sztucznej inteligencji sam w sobie można ocenić jako obarczony niskim ryzykiem, ale w połączeniu z innymi zastosowaniami sztucznej inteligencji obraz szybko staje się bardziej złożony, a ryzyko nieprzejrzystości jest trudniejsze do obliczenia. W silosie nie pojawia się żaden przypadek użycia AI.

Grafika autorstwa Nidii Dias dla DeepMind/Unsplash.

Przejrzystość wewnętrzna jako podstawowy wymóg

Mając to na uwadze, uważamy, że wewnętrzna przejrzystość i wspólne zrozumienie interakcji różnych przypadków użycia AI jest kluczowym punktem wyjścia do opracowywania produktów promujących przejrzystość AI w dziennikarstwie. Musimy zrozumieć szerszy obraz i odpowiednio poinformować użytkowników.

Uważamy, że w nowoczesnych organizacjach medialnych liderzy newsroomów — zwłaszcza redaktorzy i/lub wydawcy — muszą mieć przegląd tego, gdzie, kiedy i jak sztuczna inteligencja wpływa na proces produkcji i doświadczenia użytkowników. Jak inaczej opinia publiczna może pociągnąć ich do odpowiedzialności?

Łatwo sobie wyobrazić szereg problemów, jeśli liderzy mediów nie staną się bardziej świadomi AI stosowanej w ich redakcjach. Z jednej strony ryzyko związane z przeoczeniem przez przywódców wielkiego potencjału sztucznej inteligencji może utrudniać innowacje w dziedzinie mediów. Z drugiej strony brak rozpoznania ryzyka może mieć poważne negatywne konsekwencje zarówno dla firm medialnych, jak i dla konsumentów.

Brak możliwości wyjaśnienia ogólnego działania systemów stosowanych we własnym procesie redakcyjnym może zaszkodzić zarówno marce informacyjnej, jak i osobistej wiarygodności redaktora. Podczas gdy koncepcja „człowieka w pętli” stała się spopularyzowaną ideą w sztucznej inteligencji, uważamy, że musimy bardziej szczegółowo inwestować w upewnienie się, że mamy systemy „edytora w pętli”, ponieważ nadal badamy i stosujemy SI w dziennikarstwie.

Poinformowanie użytkowników, że w grę wchodzą systemy sztucznej inteligencji: potrzebny pierwszy krok

Na koniec chcielibyśmy jeszcze raz podkreślić, że podstawowy poziom przejrzystości wobec czytelników jest niezbędny zawsze, gdy systemy sztucznej inteligencji bezpośrednio wpływają na odbiór wiadomości bez udziału człowieka, np. systemy rekomendacji wiadomości lub treści tworzone (lub tłumaczone) i publikowane automatycznie. Takie konfiguracje zwiększają zapotrzebowanie na informacje, które pozwalają czytelnikom zrozumieć podawane im wiadomości (oraz błędy, które mogą popełniać systemy sztucznej inteligencji) w kontekście.

Konsument ma prawo do informacji, kiedy sztuczna inteligencja odgrywa kluczową rolę w korzystaniu z mediów.

Uważamy, że w tym cyfrowym krajobrazie informacyjnym konsument ma prawo do informacji, gdy sztuczna inteligencja odgrywa kluczową rolę w korzystaniu z mediów. Dokładny sposób, w jaki to się robi, musi zależeć od każdej firmy. Jednak z naszego doświadczenia w sieci Nordic AI Journalism wynika, że ​​dialog peer-to-peer na temat przejrzystości sztucznej inteligencji, zarówno w Twojej firmie, jak i w całej branży, jest doskonałym miejscem do rozpoczęcia.