¡Hola editora! Es hora de involucrarse en la transparencia de la IA

Nov 29 2022
Por Agnes Stenbom, Kasper Lindskow y Olle Zachrison
La inteligencia artificial aplicada se ha convertido en una parte integral de las operaciones diarias de muchas empresas de medios, y están surgiendo nuevas capacidades a una velocidad asombrosa. Pero, ¿qué tan informados están los consumidores de medios de lo que está pasando? ¿Y quién es responsable del panorama general? Mirando hacia atrás en las discusiones sobre la transparencia de la IA en la red nórdica de periodismo de IA, vemos la necesidad de una mayor participación del liderazgo.

La inteligencia artificial aplicada se ha convertido en una parte integral de las operaciones diarias de muchas empresas de medios, y están surgiendo nuevas capacidades a una velocidad asombrosa. Pero, ¿qué tan informados están los consumidores de medios de lo que está pasando? ¿Y quién es responsable del panorama general? Mirando hacia atrás en las discusiones sobre la transparencia de la IA en la red nórdica de periodismo de IA, vemos la necesidad de una mayor participación del liderazgo.

El 4 de octubre de 2022, la emisora ​​pública noruega NRK publicó un artículo de aspecto estándar sobre los precios de la energía. Sin embargo, las credenciales de la imagen asociada no eran las de un fotógrafo promedio. En cambio, las líneas eléctricas representadas y el paisaje montañoso sereno se atribuyeron a "Midjourney (AI)".

La ilustración inicial publicada por NRK

¿La firma hizo que los usuarios entendieran y apreciaran la naturaleza sintética del contenido? El editor responsable de NRK no parecía convencido, y la imagen fue eliminada rápidamente y reemplazada por una foto de archivo tradicional. “Debe haber buenas razones para usar ilustraciones generadas por IA como parte de nuestras operaciones de noticias”, explicó en una entrevista posterior con Journalisten .

Nosotros, tres miembros de la red Nordic AI Journalism, encontramos que este caso destaca importantes cuestiones estratégicas y éticas para las empresas de medios en el futuro.

N ordic AI Journalism es una red de la industria que consta de unas 200 personas que trabajan para más de 30 organizaciones de medios de comunicación diferentes en los países nórdicos. La red busca contribuir al uso y desarrollo responsable de las tecnologías de IA en el periodismo al compartir aprendizajes más allá de los límites organizacionales. La red fue fundada por Agnes Stenbom (Schibsted) y Olle Zachrison (Sveriges Radio) en 2020, y desde entonces nos hemos reunido virtualmente para sesiones bimensuales que cubren varios casos relacionados con la IA y el periodismo, desde voces sintéticas hasta modelos de extracción de entidades.

Este otoño, finalmente pudimos conocernos en persona. Con centros locales en Estocolmo (organizado por Sveriges Radio), Copenhague (Ekstra Bladet) y Oslo (Schibsted) discutimos la transparencia de la IA y por qué necesitamos más información accesible para el usuario sobre el uso de la IA en el periodismo.

En esta publicación de blog, destacaremos los diferentes tipos de transparencia discutidos, describiremos las consecuencias de los procesos opacos y sugeriremos un marco para trazar los casos de uso y los riesgos en el futuro. Nuestro mensaje clave: vemos una necesidad urgente de acción, sobre todo por parte de los ejecutivos de los medios.

La red Nordic AI Journalism reúne a unos 200 profesionales de los medios de comunicación de todos los países nórdicos.

¿Por qué transparencia de IA?

Primero, queremos enfatizar por qué encontramos que la cuestión de la transparencia relacionada con el uso de la IA en los medios de comunicación es un tema tan apremiante para el periodismo en este momento.

  1. La transparencia es intrínsecamente importante para las prácticas responsables de IA
    La transparencia en el uso de la IA hacia las personas afectadas por ella es ampliamente reconocida como un aspecto central de las prácticas responsables de IA, ya que es la base para interactuar con los sistemas de IA de manera informada como seres autónomos .
  2. Transparencia para generar confianza
    En el periodismo, todavía no tenemos un 'contrato' con los consumidores de los medios sobre cómo y para qué usar la IA, ni como industria ni como empresas de medios individuales. Encontramos que la apertura es necesaria para permitir discusiones entre los editores de noticias y las partes interesadas sobre lo que se debe y no se debe hacer con la IA para establecer pautas, políticas y marcos más maduros para el dominio de las noticias. Específicamente, creemos que una mayor transparencia hacia los usuarios permitiría la discusión necesaria para facilitar la alineación de expectativas, lo cual es esencial para generar confianza.
  3. Se debe priorizar la transparencia dado el estado inmaduro de la IA en las noticias
    . Como se destaca en informes recientes en y más allá de los países nórdicos, véase, por ejemplo , Wiik (2022) y Beckett (2019), la industria de los medios de comunicación todavía se encuentra en el comienzo de nuestro viaje de IA. . Un aspecto positivo de esto es que nos brinda la oportunidad de sentar una base sólida. Creemos que esta base será especialmente importante en el futuro dado que la transparencia en la toma de decisiones automatizada y la IA se mencionan, por ejemplo, en el RGPD, la Ley de Servicios Digitales y la Ley de IA.

Tipos y niveles de transparencia

Dada la gran diversidad de aplicaciones de IA para noticias, desde recomendadores hasta herramientas de etiquetado interno o sistemas de creación de contenido generativo, encontramos que se necesitan diferentes tipos y niveles de transparencia en diferentes situaciones.

Informados por las discusiones de la red, hemos distinguido entre cuatro tipos diferentes y niveles de transparencia de relevancia para las organizaciones de noticias:

  • Informar a los usuarios que se está utilizando un sistema de IA (visibilidad básica)
    El tipo de transparencia quizás más básico consiste en informar a los usuarios cuando se utiliza cualquier tipo de sistema de IA para seleccionar o modificar el contenido que se les ofrece. Esto se puede hacer de varias maneras, desde políticas generales de IA que describen en términos generales que el editor de noticias usa los sistemas de IA, hasta información específica cada vez que se usa IA en un elemento específico en un sitio web o aplicación de noticias.
  • Describir cómo el sistema de IA toma decisiones (visibilidad técnica)
    Otro tipo de transparencia que se basa en la visibilidad básica son las descripciones de cómo funcionan los algoritmos que se utilizan. Este tipo de transparencia puede variar desde descripciones genéricas de los algoritmos de IA hasta descripciones detalladas de cada uno de los algoritmos, incluido para qué se optimizan, qué datos de entrada se utilizan, qué tipo de métodos de aprendizaje automático se utilizan. Estas descripciones pueden ser en términos técnicos o en términos sencillos.
  • Explicar las decisiones individuales tomadas por el sistema de IA
    Otro tipo de transparencia implica explicaciones de las decisiones individuales que toman los sistemas de IA, como las razones por las que un conjunto específico de artículos de noticias se sirve a un lector específico. Este tipo de transparencia va desde explicaciones post hoc (donde otro algoritmo de IA adivina los motivos de una decisión específica al examinar con qué características subyacentes se correlaciona la decisión, por ejemplo, el género de los lectores o la propensión a leer, por ejemplo, historias deportivas) hasta explicaciones intrínsecas donde el algoritmo que toma la decisión muestra qué factores internos causaron la decisión (esto suele ser más preciso, pero difícil de interpretar para los legos).
  • Permita que los usuarios afecten directamente las decisiones individuales
    El último tipo de transparencia que discutimos implica permitir que el lector afecte los algoritmos de IA a los que está expuesto para desarrollar una comprensión más profunda de cómo funciona el algoritmo. En un nivel, esto puede implicar opciones simples de aceptación/exclusión en las que los usuarios pueden elegir entre una versión de un sitio web o un elemento en un sitio web de noticias con o sin sistemas de IA. En otro nivel, el usuario puede recibir "asas y palancas" que influyen en la entrada del algoritmo de IA, lo que le permite experimentar con diferentes configuraciones y salidas.

Entonces, ¿cómo sabe qué tipo de transparencia requiere su caso de uso específico? En la red, discutimos dos factores diferentes que deberían afectar tales evaluaciones.

Primero, debemos considerar los riesgos editoriales asociados con el uso de la IA. Creemos que es bueno hacer una distinción entre los riesgos legales (que no se pueden negociar) y los riesgos editoriales 'puros'. A veces se superponen, pero ciertamente hay casos en los que un uso específico de IA puede crear riesgos editoriales que no serían una responsabilidad legal formal. Un conjunto incorrecto de recomendaciones de IA o errores graves cometidos por la traducción automática pueden causar daños a la marca sin ningún tipo de exceso legal.

En segundo lugar, debemos considerar el impacto en la experiencia del usuario . ¿Obtiene el usuario un tipo diferente de experiencia con los medios debido al uso de IA, o estamos usando las tecnologías en procesos puramente relacionados con la sala de redacción, por ejemplo, haciendo que los procesos existentes sean más eficientes a través de la automatización?

En la red, estructuramos estos dos temas, riesgos editoriales e impacto en la experiencia del usuario, como ejes para crear un marco de discusión básico:

Nuestro marco para facilitar debates sobre la transparencia de la IA en las noticias

Una vez que un equipo determinado ha acordado dónde se ubica su caso de uso, argumentamos que pueden tener una discusión más informada sobre la necesidad de informar a los usuarios y/u otras partes interesadas.

Los riesgos vienen en diferentes formas

Durante las reuniones de la red Nordic AI Journalism, discutimos una serie de casos de uso activo de AI en los medios nórdicos desde una perspectiva de transparencia. ¿Deberían haberse comunicado a los usuarios de una manera más clara? ¿Si no, porque no? Si es así, ¿cómo?

La mayoría de los casos de uso discutidos se centraron en los sistemas de recomendación, pero también incluyeron el etiquetado de contenido de video, transcripciones de audio y generación automatizada de telegramas de noticias. Los casos de uso incluyeron sistemas basados ​​en ML y sistemas basados ​​en reglas (descritos juntos a continuación como "sistemas de IA"). Sin embargo, lo que todos tenían en común era que ninguno se comunicaba a los usuarios como un sistema de IA.

Cuando discutimos nuestros casos de uso en relación con el marco anterior, rápidamente quedó claro que asignábamos diferentes niveles de riesgo editorial a diferentes tipos de casos de uso. En general, teníamos confianza en nuestro proceso editorial y nuestras decisiones, y no nos preocupábamos por la IA, por ejemplo, recomendar o traducir contenido inicialmente "examinado" por profesionales de las noticias. Se sugirió que los sistemas de IA con mayores grados de automatización, como las noticias generadas automáticamente, implican mayores riesgos editoriales y, con ello, demandas aún mayores de transparencia.

… pero, ¿lo quieren los usuarios?

Algunos en la red argumentaron que los usuarios rara vez expresan algún interés en la transparencia y que no quieren un control directo sobre los sistemas de IA (por ejemplo, los recomendadores). Parafraseando a un miembro de la red: “Simplemente expresan el deseo de experiencias fluidas y relevantes, no les importa cómo se produzcan”.

Otros en la red (incluidos los autores de esta publicación de blog) argumentan lo contrario, con ejemplos de usuarios que solicitan información clara sobre quién/qué institución está "detrás" de la IA, los datos utilizados para entrenarla y por qué la IA se está aplicando en El primer lugar.

A pesar de las diferencias internas en las percepciones de los deseos de los usuarios, la mayoría de los miembros han argumentado que una mayor transparencia es importante y deseable, sobre todo para aumentar el enfoque interno en las prácticas éticas que resisten la luz del día.

La implementación de la IA en todo el proceso periodístico exige transparencia

Nuestras discusiones en la red han resaltado la importancia de reconocer cómo las aplicaciones de IA son parte de una cadena de valor periodístico donde la cantidad de casos de uso y la escala de su impacto está creciendo. A veces, un caso de uso específico de IA en sí mismo puede evaluarse como de bajo riesgo, pero combinado con otras aplicaciones de IA, la imagen se vuelve rápidamente más compleja y los riesgos de opacidad son más difíciles de calcular. Ningún caso de uso de IA aparece en un silo.

Arte de Nidia Dias para DeepMind/Unsplash.

La transparencia interna como requisito básico

Teniendo esto en cuenta, creemos que la transparencia interna y una comprensión compartida de cómo interactúan los diferentes casos de uso de la IA es un punto de partida crucial para desarrollar productos que promuevan la transparencia de la IA en el periodismo. Necesitamos comprender el panorama más amplio e informar a los usuarios en consecuencia.

En las organizaciones de medios modernas, argumentamos que los líderes de las salas de redacción, en particular los editores y/o editores, deben tener una visión general de dónde, cuándo y cómo la IA está afectando el proceso de producción y la experiencia del usuario. ¿De qué otra manera puede el público hacerlos responsables?

Es fácil imaginar una serie de problemas si los líderes de los medios no se vuelven más conscientes de la IA aplicada en sus salas de redacción. Por un lado, los riesgos de liderazgo que pasan por alto el gran potencial de la IA pueden obstaculizar la innovación en el campo de los medios. Por otro lado, no reconocer los riesgos puede tener graves consecuencias negativas tanto para las empresas de medios como para los consumidores.

No poder explicar el funcionamiento general de los sistemas aplicados en el propio proceso editorial puede dañar tanto la marca de la noticia como la credibilidad personal del editor. Si bien "human-in-the-loop" se ha convertido en una idea popularizada en IA, creemos que debemos invertir más específicamente para asegurarnos de tener sistemas de "editor en el loop" a medida que continuamos explorando y aplicando IA en el periodismo.

Decirle a los usuarios que los sistemas de IA están en juego: un primer paso necesario

Finalmente, nos gustaría enfatizar nuevamente cómo un nivel básico de transparencia hacia los lectores es esencial siempre que los sistemas de IA impacten directamente en la experiencia de noticias sin un ser humano en el circuito, por ejemplo, sistemas de recomendación de noticias o contenido creado (o traducido) y publicado automáticamente. Tales configuraciones aumentan la necesidad de información que permita a los lectores comprender las noticias que reciben (y los errores que pueden cometer los sistemas de IA) en contexto.

El consumidor tiene derecho a estar informado cuando la IA está jugando un papel crucial en la experiencia de los medios.

En este panorama de información digital, creemos que el consumidor tiene derecho a estar informado cuando la IA juega un papel crucial en la experiencia de los medios. Exactamente cómo se hace esto debe depender de cada empresa. Sin embargo, nuestra experiencia de la red Nordic AI Journalism es que un diálogo entre pares sobre la transparencia de la IA, tanto dentro de su empresa como en la industria en general, es un excelente lugar para comenzar.