Oi Redator! É hora de se envolver na transparência da IA
A inteligência artificial aplicada tornou-se parte integrante das operações diárias de muitas empresas de mídia, e novos recursos estão surgindo em uma velocidade impressionante. Mas quão informados estão os consumidores de mídia sobre o que está acontecendo? E quem é responsável pelo quadro geral? Olhando para trás nas discussões sobre a transparência da IA na rede Nordic AI Journalism, vemos a necessidade de aumentar o envolvimento da liderança.
Em 4 de outubro de 2022, a emissora pública norueguesa NRK publicou um artigo de aparência padrão sobre preços de energia. No entanto, as credenciais para a imagem associada não eram de um fotógrafo comum. Em vez disso, as linhas de energia representadas e a serena paisagem montanhosa foram atribuídas a “Midjourney (AI)”.

A assinatura fez com que os usuários entendessem e apreciassem a natureza sintética do conteúdo? O editor responsável da NRK não pareceu convencido, e a imagem foi rapidamente retirada e substituída por uma foto tradicional. “Deve haver boas razões para usar ilustrações geradas por IA como parte de nossas operações de notícias”, explicou ele em uma entrevista subsequente ao Journalisten .
Nós, três membros da rede Nordic AI Journalism, descobrimos que este caso destaca questões estratégicas e éticas importantes para as empresas de mídia daqui para frente.
N ordic AI Journalism é uma rede da indústria composta por cerca de 200 indivíduos que trabalham para mais de 30 diferentes organizações de mídia de notícias nos países nórdicos. A rede busca contribuir para o uso responsável e o desenvolvimento de tecnologias de IA no jornalismo, compartilhando aprendizados além das fronteiras organizacionais. A rede foi fundada por Agnes Stenbom (Schibsted) e Olle Zachrison (Sveriges Radio) em 2020 e, desde então, nos reunimos virtualmente em sessões bimensais cobrindo vários casos relacionados a IA e jornalismo - de vozes sintéticas a modelos de extração de entidades.
Neste outono, finalmente nos conhecemos pessoalmente. Com hubs locais em Estocolmo (hospedado pela Sveriges Radio), Copenhague (Ekstra Bladet) e Oslo (Schibsted), discutimos a transparência da IA e por que precisamos de mais informações acessíveis ao usuário sobre o uso da IA no jornalismo.
Nesta postagem do blog, destacaremos os diferentes tipos de transparência discutidos, descreveremos as consequências de processos opacos e sugeriremos uma estrutura para mapear os casos de uso e os riscos daqui para frente. Nossa principal mensagem: vemos uma necessidade urgente de ação, principalmente por parte dos executivos de mídia.

Por que transparência de IA?
Primeiro, queremos enfatizar por que consideramos a questão da transparência relacionada ao uso de IA na mídia jornalística uma questão tão urgente para o jornalismo neste momento.
- A transparência é intrinsecamente importante para práticas responsáveis de IA
A transparência no uso de IA para com as pessoas afetadas por ela é amplamente reconhecida como um aspecto central das práticas responsáveis de IA, pois é a base para interagir com sistemas de IA de maneira informada como seres autônomos . - Transparência para construir confiança
No jornalismo, ainda não temos um 'contrato' com os consumidores de mídia sobre como e para que usar a IA — nem como indústria nem como empresas de mídia individuais. Achamos que a abertura é necessária para permitir discussões entre editores de notícias e partes interessadas sobre o que fazer e o que não fazer na IA, a fim de estabelecer diretrizes, políticas e estruturas mais maduras para o domínio das notícias. Especificamente, acreditamos que o aumento da transparência com os usuários permitiria a discussão necessária para facilitar o alinhamento de expectativas – o que é essencial para facilitar a confiança. - A transparência deve ser priorizada devido ao estado imaturo da IA nas notícias
Conforme destacado por relatórios recentes dentro e fora dos países nórdicos - veja, por exemplo, Wiik (2022) e Beckett (2019) - a indústria de mídia de notícias ainda está muito no início de nossa jornada de IA . Um aspecto positivo disso é como nos dá a oportunidade de estabelecer uma base sólida. Achamos que essa base será especialmente importante no futuro, visto que a transparência na tomada de decisões automatizada e na IA é mencionada, por exemplo, no GDPR, na Lei de Serviços Digitais e na Lei de IA.
Tipos e níveis de transparência
Dada a grande diversidade de aplicativos de IA para notícias, de recomendações a ferramentas internas de marcação ou sistemas de criação de conteúdo generativo, descobrimos que diferentes tipos e níveis de transparência são necessários em diferentes situações.
Informados pelas discussões da rede, distinguimos entre quatro tipos e níveis diferentes de transparência relevantes para as organizações de notícias:
- Informar aos usuários que um sistema de IA está sendo usado (visibilidade básica)
Talvez o tipo mais básico de transparência envolva informar aos usuários quando qualquer tipo de sistema de IA está sendo usado para selecionar ou modificar o conteúdo que está sendo servido. Isso pode ser feito de várias maneiras, desde políticas gerais de IA que descrevem em termos gerais que os sistemas de IA são usados pelo editor de notícias, até informações específicas sempre que a IA é usada em um elemento específico em um site ou aplicativo de notícias. - Descrever como o sistema de IA toma decisões (visibilidade técnica)
Outro tipo de transparência que se baseia na visibilidade básica são as descrições de como os algoritmos que estão sendo usados funcionam. Esse tipo de transparência pode variar de descrições genéricas dos algoritmos de IA a descrições detalhadas de cada um dos algoritmos, incluindo o que eles otimizam, quais dados de entrada estão sendo usados, que tipo de métodos de aprendizado de máquina são usados. Essas descrições podem ser feitas em termos técnicos ou em termos leigos. - Explicar as decisões individuais tomadas pelo sistema de IA
Outro tipo de transparência envolve explicações das decisões individuais tomadas pelos sistemas de IA, como os motivos pelos quais um conjunto específico de artigos de notícias está sendo exibido para um leitor específico. Esse tipo de transparência varia de explicações post hoc (onde outro algoritmo de IA adivinha as razões para uma decisão específica, examinando quais características subjacentes à decisão se correlacionam, por exemplo, o gênero do leitor ou a propensão a ler, por exemplo, histórias de esportes) a explicações intrínsecas em que o algoritmo que toma a decisão mostra quais fatores internos causaram a decisão (isso normalmente é mais preciso, mas difícil para os leigos interpretarem). - Permita que os usuários afetem diretamente as decisões individuais
O tipo final de transparência que discutimos envolve permitir que o leitor afete os algoritmos de IA aos quais está sendo exposto, a fim de construir uma compreensão mais profunda de como o algoritmo funciona. Em um nível, isso pode envolver opções simples de inclusão/exclusão em que os usuários podem escolher entre uma versão de um site ou um elemento em um site de notícias com ou sem sistemas de IA. Em outro nível, o usuário pode receber “alças e alavancas” que influenciam a entrada do algoritmo de IA, permitindo que ele experimente diferentes configurações e saídas.
Então, como você sabe que tipo de transparência seu caso de uso específico exige? Na rede, discutimos dois fatores diferentes que devem impactar essas avaliações.
Primeiro, devemos considerar os riscos editoriais associados ao uso de IA. Achamos que é bom fazer uma distinção entre riscos legais (que não podem ser negociados) e riscos editoriais 'puros'. Às vezes, eles se sobrepõem, mas certamente há casos em que um uso específico de IA pode criar riscos editoriais que não seriam uma responsabilidade legal formal. Um conjunto ruim de recomendações de IA ou erros graves cometidos pela tradução automática podem causar danos à marca sem qualquer violação legal.
Em segundo lugar, devemos considerar o impacto na experiência do usuário . O usuário está obtendo um tipo diferente de experiência de mídia por causa do uso de IA ou estamos usando as tecnologias em processos puramente voltados para a redação, por exemplo, tornando os processos existentes mais eficientes por meio da automação?
Na rede, estruturamos esses dois temas — riscos editoriais e impacto na experiência do usuário — como eixos para criar um quadro básico de discussão:

Uma vez que uma determinada equipe tenha concordado com a localização de seu caso de uso, argumentamos que eles podem ter uma discussão mais informada sobre a necessidade de informar os usuários e/ou outras partes interessadas.
Os riscos vêm em diferentes formas
Durante os encontros da rede Nordic AI Journalism, discutimos vários casos de uso ativo de IA na mídia nórdica a partir de uma perspectiva de transparência. Deveriam ter sido comunicados aos usuários de forma mais clara? Se não, por que não? Se sim, como?
A maioria dos casos de uso discutidos se concentrou em sistemas de recomendação, mas também incluiu marcação de conteúdo de vídeo, transcrições de áudio e geração automatizada de telegramas de notícias. Os casos de uso incluíam sistemas baseados em ML e sistemas baseados em regras (descritos juntos abaixo como “sistemas de IA”). O que todos eles tinham em comum, porém, era que nenhum deles era comunicado aos usuários como um sistema de IA.
Ao discutir nossos casos de uso em relação à estrutura acima, rapidamente ficou claro que atribuímos diferentes níveis de risco editorial a diferentes tipos de casos de uso. Em geral, estávamos confiantes em nosso processo e decisões editoriais e não nos preocupávamos com IA, por exemplo, recomendar ou traduzir conteúdo inicialmente 'avaliado' por profissionais de notícias. Sugeriu-se que sistemas de IA com graus mais altos de automação, como notícias geradas automaticamente, envolvem riscos editoriais mais altos e, com isso, demandas ainda maiores por transparência.
… mas os usuários querem isso?
Foi argumentado por alguns na rede que os usuários raramente expressam qualquer interesse em transparência e que não desejam controle direto sobre os sistemas de IA (por exemplo, recomendações). Parafraseando um membro da rede: “Eles apenas expressam um desejo por experiências suaves e relevantes – eles não se importam como isso é produzido”.
Outros na rede (incluindo os autores deste blogpost) argumentam o contrário, com exemplos de usuários solicitando informações claras sobre quem/qual instituição está “por trás” da IA, os dados usados para treiná-la e por que a IA está sendo aplicada em o primeiro lugar.
Apesar das diferenças internas nas percepções dos desejos dos usuários, a maioria dos membros argumentou que mais transparência é importante e desejável - não apenas para aumentar o foco interno em práticas éticas que resistem à luz do dia.
A implementação da IA em todo o processo jornalístico exige transparência
Nossas discussões em rede destacaram a importância de reconhecer como os aplicativos de IA fazem parte de uma cadeia de valor jornalística em que o número de casos de uso e a escala de seu impacto estão crescendo. Às vezes, um caso específico de uso de IA em si pode ser avaliado como de baixo risco, mas combinado com outros aplicativos de IA, a imagem rapidamente se torna mais complexa e os riscos de opacidade são mais difíceis de calcular. Nenhum caso de uso de IA aparece em um silo.

Transparência interna como requisito básico
Tendo isso em mente, pensamos que a transparência interna e uma compreensão compartilhada de como diferentes casos de uso de IA interagem é um ponto de partida crucial para o desenvolvimento de produtos que promovem a transparência da IA no jornalismo. Precisamos entender o quadro mais amplo e informar os usuários adequadamente.
Nas organizações de mídia modernas, argumentamos que os líderes das redações – principalmente editores e/ou publicadores – devem ter uma visão geral de onde, quando e como a IA está impactando o processo de produção e a experiência do usuário. De que outra forma o público pode responsabilizá-los?
É fácil imaginar uma série de problemas se os líderes da mídia não se tornarem mais conscientes sobre a IA aplicada em suas redações. Por um lado, os riscos da liderança negligenciando o grande potencial da IA podem dificultar a inovação no campo da mídia. Por outro lado, deixar de reconhecer os riscos pode ter consequências negativas graves para as empresas de mídia e também para os consumidores.
Não conseguir explicar o funcionamento geral dos sistemas aplicados no próprio processo editorial pode prejudicar tanto a marca da notícia quanto a credibilidade pessoal do editor. Embora o “human-in-the-loop” tenha se tornado uma ideia popularizada na IA, acreditamos que precisamos investir mais especificamente para garantir que tenhamos sistemas de “editor-in-the-loop” à medida que continuamos a explorar e aplicar IA no jornalismo.
Dizer aos usuários que os sistemas de IA estão em jogo: um primeiro passo necessário
Finalmente, gostaríamos de enfatizar novamente como um nível básico de transparência para os leitores é essencial sempre que os sistemas de IA impactam diretamente a experiência de notícias sem um ser humano no circuito, por exemplo, sistemas de recomendação de notícias ou conteúdo criado (ou traduzido) e publicado automaticamente. Essas configurações aumentam a necessidade de informações que permitam aos leitores entender as notícias que estão recebendo (e os erros que os sistemas de IA podem cometer) no contexto.
O consumidor tem o direito de ser informado quando a IA estiver desempenhando um papel crucial na experiência da mídia.
Neste cenário de informação digital, acreditamos que o consumidor tem o direito de ser informado quando a IA está desempenhando um papel crucial na experiência da mídia. Exatamente como isso é feito deve caber a cada empresa. No entanto, nossa experiência com a rede Nordic AI Journalism é que um diálogo ponto a ponto sobre a transparência da IA, tanto dentro de sua empresa quanto no setor em geral, é um excelente ponto de partida.