Эй, редактор! Пришло время заняться прозрачностью ИИ

Nov 29 2022
Агнес Стенбом, Каспер Линдскоу и Олле Захрисон
Прикладной искусственный интеллект стал неотъемлемой частью повседневной деятельности многих медиакомпаний, и новые возможности появляются с ошеломляющей скоростью. Но насколько информированы медиапотребители о том, что происходит? И кто отвечает за общую картину? Оглядываясь назад на дискуссии о прозрачности ИИ в скандинавской сети AI Journalism, мы видим необходимость более активного участия руководства.

Прикладной искусственный интеллект стал неотъемлемой частью повседневной деятельности многих медиакомпаний, и новые возможности появляются с ошеломляющей скоростью. Но насколько информированы медиапотребители о том, что происходит? И кто отвечает за общую картину? Оглядываясь назад на дискуссии о прозрачности ИИ в скандинавской сети AI Journalism, мы видим необходимость более активного участия руководства.

4 октября 2022 года норвежская общественная телекомпания NRK опубликовала стандартную статью о ценах на энергию. Однако учетные данные для связанного изображения не были обычным фотографом. Вместо этого изображенные линии электропередач и безмятежный горный пейзаж были отнесены к «Midjourney (AI)».

Первоначальная иллюстрация, опубликованная NRK

Заставила ли подпись пользователей понять и оценить синтетический характер контента? Ответственный редактор NRK, похоже, не был убежден, и изображение было быстро удалено и заменено традиционной стоковой фотографией. «Должны быть веские причины для использования иллюстраций, созданных ИИ, в рамках наших новостных операций», — объяснил он в последующем интервью Journalisten .

Мы, три члена сети Nordic AI Journalism, считаем, что этот случай выдвигает на первый план важные стратегические и этические вопросы для медиа-компаний в будущем.

Nordic AI Journalism — это отраслевая сеть, состоящая примерно из 200 человек, работающих в более чем 30 различных организациях средств массовой информации в странах Северной Европы. Сеть стремится внести свой вклад в ответственное использование и развитие технологий искусственного интеллекта в журналистике, делясь опытом между организациями. Сеть была основана Агнес Стенбом (Schibsted) и Олле Захрисон (Sveriges Radio) в 2020 году, и с тех пор мы встречались виртуально для двухмесячных сессий, посвященных различным случаям, связанным с ИИ и журналистикой — от синтетических голосов до моделей извлечения сущностей.

Этой осенью мы наконец-то встретились лично. С местными центрами в Стокгольме (размещено Sveriges Radio), Копенгагене (Ekstra Bladet) и Осло (Schibsted) мы обсудили прозрачность ИИ и то, почему нам нужно больше доступной для пользователей информации об использовании ИИ в журналистике.

В этом посте мы расскажем о различных обсуждаемых типах прозрачности, опишем последствия непрозрачных процессов и предложим структуру для составления схемы вариантов использования и рисков в будущем. Наше ключевое сообщение: мы видим настоятельную необходимость действий, не в последнюю очередь со стороны руководителей СМИ.

Сеть Nordic AI Journalism объединяет около 200 специалистов в области средств массовой информации со всех скандинавских стран.

Почему прозрачность ИИ?

Во-первых, мы хотим подчеркнуть, почему мы считаем, что вопрос прозрачности, связанный с использованием ИИ в средствах массовой информации, является столь актуальным для журналистики в данный момент времени.

  1. Прозрачность крайне важна для ответственных практик ИИ
    . Прозрачность использования ИИ по отношению к людям, которых он затрагивает, широко признана центральным аспектом ответственных практик ИИ, поскольку она является основой для осознанного взаимодействия с системами ИИ как с автономными существами. .
  2. Прозрачность для укрепления доверия
    В журналистике у нас еще нет «контракта» с потребителями СМИ о том, как и для чего использовать ИИ — ни в отрасли, ни в отдельных медиакомпаниях. Мы считаем, что открытость необходима для обсуждения среди издателей новостей и заинтересованных сторон того, что можно и чего нельзя делать с ИИ, чтобы установить более зрелые руководящие принципы, политики и рамки для новостной сферы. В частности, мы считаем, что повышение прозрачности по отношению к пользователям позволит провести обсуждение, необходимое для согласования ожиданий, что необходимо для укрепления доверия.
  3. Прозрачность должна быть приоритетом, учитывая незрелость ИИ в новостях
    . Как подчеркивают недавние отчеты в Скандинавии и за ее пределами — см., например, Wiik (2022) и Beckett (2019) — индустрия средств массовой информации все еще находится в начале нашего пути ИИ. . Положительным аспектом этого является то, что это дает нам возможность заложить прочный фундамент. Мы считаем, что эта основа будет особенно важна в будущем, учитывая, что прозрачность автоматизированного принятия решений и ИИ упоминается, например, в GDPR, Законе о цифровых услугах и Законе об ИИ.

Типы и уровни прозрачности

Учитывая большое разнообразие приложений ИИ для новостей, от рекомендателей до инструментов внутренней маркировки или систем создания генеративного контента, мы обнаруживаем, что в разных ситуациях необходимы разные типы и уровни прозрачности.

На основе сетевых дискуссий мы выделили четыре различных типа и уровня прозрачности, имеющих отношение к новостным организациям:

  • Сообщите пользователям, что используется система ИИ (базовая видимость)
    . Пожалуй, самый простой тип прозрачности включает в себя информирование пользователей о том, что система ИИ любого типа используется для выбора или изменения контента, который они обслуживают. Это можно сделать несколькими способами: от общих политик ИИ, которые в общих чертах описывают, что системы ИИ используются издателем новостей, до конкретной информации, когда ИИ используется в определенном элементе на новостном веб-сайте или в приложении.
  • Опишите, как система ИИ принимает решения (техническая видимость)
    . Другой тип прозрачности, основанный на базовой видимости, — это описание того, как работают используемые алгоритмы. Этот тип прозрачности может варьироваться от общих описаний алгоритмов ИИ до подробных описаний каждого из алгоритмов, включая то, для чего они оптимизируются, какие входные данные используются, какие методы машинного обучения используются. Эти описания могут быть в технических терминах или в терминах непрофессионала.
  • Объяснение отдельных решений, принимаемых системой ИИ.
    Еще один тип прозрачности включает в себя объяснение отдельных решений, принимаемых системами ИИ, например, причины, по которым определенный набор новостных статей предоставляется определенному читателю. Этот тип прозрачности варьируется от апостериорных объяснений (когда другой алгоритм ИИ угадывает причины конкретного решения, исследуя, с какими основными характеристиками это решение коррелирует, например, с полом читателей или склонностью читать, например, спортивные истории) до внутренних объяснений, где алгоритмический принимает решение показывает, какие внутренние факторы вызвали это решение (обычно это более точно, но трудно интерпретировать неспециалистам).
  • Позвольте пользователям напрямую влиять на индивидуальные решения
    . Последний тип прозрачности, который мы обсуждали, включает в себя предоставление читателю возможности влиять на алгоритмы ИИ, которым он подвергается, чтобы получить более глубокое понимание того, как работает алгоритм. На одном уровне это может включать в себя простые варианты входа/отключения, когда пользователи могут выбирать между версией веб-сайта или элементом на новостном веб-сайте с системами ИИ или без них. На другом уровне пользователю могут быть предоставлены «ручки и рычаги», которые влияют на входные данные алгоритма ИИ, что позволяет им экспериментировать с различными настройками и выходными данными.

Так как же узнать, какой вид прозрачности требуется для вашего конкретного варианта использования? В сети мы обсудили два разных фактора, которые должны влиять на такие оценки.

Во-первых, мы должны учитывать редакционные риски, связанные с использованием ИИ. Мы считаем, что полезно проводить различие между юридическими рисками (о которых нельзя договориться) и «чистыми» редакционными рисками. Иногда они пересекаются, но, безусловно, есть случаи, когда конкретное использование ИИ может создавать редакционные риски, которые не влекут за собой формальную юридическую ответственность. Плохая группа рекомендаций ИИ или серьезные ошибки, допущенные машинным переводом, могут нанести ущерб бренду без каких-либо юридических нарушений.

Во-вторых, мы должны учитывать влияние на пользовательский опыт . Получает ли пользователь другой тип медиа-опыта из-за использования ИИ, или мы используем технологии исключительно в процессах, связанных с отделом новостей, например, повышая эффективность существующих процессов за счет автоматизации?

В сети мы структурировали эти две темы — редакционные риски и влияние на пользовательский опыт — как оси, чтобы создать базовую основу для обсуждения:

Наша структура для облегчения дискуссий о прозрачности ИИ в новостях

Мы утверждаем, что после того, как данная команда договорилась о месте своего варианта использования, они могут провести более информированное обсуждение необходимости информирования пользователей и/или других заинтересованных сторон.

Риски бывают разных форм

Во время встреч в сети Nordic AI Journalism мы обсудили ряд активных вариантов использования AI в скандинавских СМИ с точки зрения прозрачности. Должны ли они были доведены до пользователей в более ясной форме? Если нет, то почему? Если да, то как?

Большинство обсуждаемых вариантов использования были сосредоточены на рекомендательных системах, но также включали маркировку видеоконтента, транскрипцию аудио и автоматическое создание новостных телеграмм. Варианты использования включали как системы на основе машинного обучения, так и системы на основе правил (далее вместе они описываются как «системы ИИ»). Однако их всех объединяло то, что ни одна из них не сообщалась пользователям как система ИИ.

При обсуждении наших вариантов использования в отношении вышеупомянутой структуры быстро стало ясно, что мы присваиваем разные уровни редакционного риска разным типам вариантов использования. В целом, мы были уверены в нашем редакционном процессе и решениях и не беспокоились об ИИ, например, о рекомендации или переводе контента, изначально «проверенного» профессионалами в области новостей. Было высказано предположение, что системы ИИ с более высокой степенью автоматизации, такие как автоматически генерируемые новости, сопряжены с более высокими редакционными рисками, а вместе с тем и с еще более высокими требованиями к прозрачности.

… но хотят ли этого пользователи?

Некоторые в сети утверждали, что пользователи редко проявляют интерес к прозрачности и что они не хотят прямого контроля над системами ИИ (например, рекомендателями). Перефразируя одного члена сети: «Они просто выражают желание получить гладкий, актуальный опыт — им все равно, как он создается».

Другие в сети (включая авторов этого поста в блоге) утверждают обратное, приводя примеры пользователей, запрашивающих четкую информацию о том, кто/какое учреждение «стоит» за ИИ, данные, используемые для его обучения, и почему ИИ применяется в первое место.

Несмотря на внутренние различия в восприятии желаний пользователей, большинство участников утверждали, что большая прозрачность важна и желательна — не в последнюю очередь для того, чтобы усилить внутреннее внимание к этическим практикам, которые выдерживают дневной свет.

Внедрение ИИ в журналистском процессе требует прозрачности

Наши сетевые обсуждения подчеркнули важность признания того, что приложения ИИ являются частью журналистской цепочки создания ценности, где количество вариантов использования и масштаб их воздействия растут. Иногда один конкретный вариант использования ИИ сам по себе может быть оценен как низкий риск, но в сочетании с другими приложениями ИИ картина быстро становится более сложной, и риски непрозрачности труднее рассчитать. Ни один вариант использования ИИ не отображается в бункере.

Искусство Нидии Диас для DeepMind/Unsplash.

Внутренняя прозрачность как основное требование

Помня об этом, мы считаем, что внутренняя прозрачность и общее понимание того, как взаимодействуют различные варианты использования ИИ , являются важной отправной точкой для разработки продуктов, способствующих прозрачности ИИ в журналистике. Нам нужно понимать более широкую картину и соответствующим образом информировать пользователей.

В современных медиа-организациях мы утверждаем, что руководители отделов новостей — не в последнюю очередь редакторы и/или издатели — должны иметь представление о том, где, когда и как ИИ влияет на производственный процесс и взаимодействие с пользователем. Как еще общественность может привлечь их к ответственности?

Легко представить ряд проблем, если руководители СМИ не узнают больше об ИИ, применяемом в их редакциях. С одной стороны, риски, связанные с тем, что руководство упускает из виду огромный потенциал ИИ, могут препятствовать инновациям в области средств массовой информации. С другой стороны, неспособность распознать риски может иметь серьезные негативные последствия как для медиа-компаний, так и для потребителей.

Неспособность объяснить общую работу систем, применяемых в собственном редакционном процессе, может нанести ущерб как новостному бренду, так и личному авторитету редактора. В то время как «человек в цикле» стал популярной идеей в ИИ, мы считаем, что нам необходимо более конкретно инвестировать в обеспечение наличия систем «редактор в цикле», поскольку мы продолжаем исследовать и применять ИИ в журналистике.

Сообщить пользователям, что системы искусственного интеллекта играют важную роль: необходимый первый шаг

Наконец, мы хотели бы еще раз подчеркнуть, насколько важен базовый уровень прозрачности по отношению к читателям, когда системы ИИ напрямую влияют на впечатления от новостей без участия человека, например, системы рекомендаций по новостям или контент, созданный (или переведенный) и опубликованный автоматически. Такие настройки увеличивают потребность в информации, которая позволяет читателям понимать новости, которые им подают (и ошибки, которые могут совершать системы ИИ) в контексте.

Потребитель имеет право быть проинформированным, когда ИИ играет решающую роль в медиа-опыте.

В этом цифровом информационном ландшафте мы считаем, что потребитель имеет право быть информированным, когда ИИ играет решающую роль в медиа-опыте. Как именно это сделать, должно решать каждая компания. Тем не менее, наш опыт работы в сети Nordic AI Journalism показывает, что равноправный диалог о прозрачности ИИ как внутри вашей компании, так и в отрасли в целом является отличным началом.