As diretrizes da AP restringem o uso de inteligência artificial generativa por jornalistas

A Associated Press divulgou diretrizes para o uso de inteligência artificial generativa, pois a proeminente organização de notícias destacou o papel da supervisão humana no jornalismo.

Imprensa Associada. Imagem: Shutterstock

Em um esforço para eliminar qualquer potencial impacto negativo em suas reportagens, a Associated Press emitiu novas diretrizes na quarta-feira, limitando o uso de ferramentas de inteligência artificial generativas por jornalistas para reportagens de notícias.

Amanda Barrett, vice-presidente de padrões e inclusão da AP, expôs algumas restrições sobre como a AP lidará com questões futuras de IA. Primeiro, os jornalistas não têm permissão para usar o ChatGPT para criar conteúdo publicável.

“Qualquer resultado de ferramentas generativas de IA deve ser considerado material de origem não verificado”, escreveu Barrett, acrescentando que a equipe deve usar seu julgamento editorial e os padrões de fornecimento da mídia ao considerar qualquer informação para divulgação.

Além disso, o AP não permite o uso de inteligência artificial generativa para adicionar ou remover elementos de fotos, vídeo ou áudio. Ele também não transmitirá imagens geradas por IA suspeitas de serem "representadas falsamente", conhecidas como deepfakes, a menos que sejam o assunto de uma história e estejam claramente identificadas.

Barrett alertou a equipe que, como a IA generativa pode facilmente espalhar desinformação, Barrett aconselhou os repórteres da AP a serem diligentes e exercerem sua cautela e ceticismo habituais, inclusive tentando identificar a fonte do conteúdo original.

"Se os jornalistas tiverem alguma dúvida sobre a veracidade deste material", escreveu ela, "eles não devem usá-lo".

Embora o artigo destacasse as limitações da capacidade dos jornalistas da AP de usar IA generativa, ele atingiu um tom otimista em alguns setores, sugerindo que as ferramentas de IA também poderiam beneficiar as reportagens dos jornalistas.

"Precisão, imparcialidade e velocidade são os valores orientadores das reportagens da AP, e acreditamos que o uso cuidadoso da inteligência artificial pode servir a esses valores e melhorar a maneira como trabalhamos ao longo do tempo", escreveu Barrett.

Além disso, ela esclareceu que a organização de notícias de 177 anos não acredita que a IA possa substituir os repórteres, acrescentando que os repórteres da AP são responsáveis pela precisão e justiça das informações que compartilham.

Barrett apontou para um acordo de licenciamento que a AP assinou com a OpenAI no mês passado que deu aos criadores do ChatGPT acesso ao arquivo de notícias da AP desde 1985. Em troca, o acordo fornece meios de comunicação com acesso ao conjunto de produtos e tecnologias da OpenAI.

A notícia do acordo com a OpenAI chega dias depois que a startup de inteligência artificial comprometeu US$ 5 milhões com o US Journal Project. No mesmo mês, a OpenAI assinou um contrato de seis anos com a plataforma de mídia Shutterstock para obter acesso à sua vasta biblioteca de imagens e mídia.

Em meio a todo o hype sobre o potencial da inteligência artificial generativa e a capacidade de encontrar informações por meio de chatbots, há preocupações crescentes sobre a precisão de algumas das informações que são fornecidas aos usuários.

Embora os chatbots de IA possam gerar respostas que parecem reais, eles também têm o hábito bem conhecido de obter respostas que são realmente irreais. Conhecido como alucinações de IA, esse fenômeno pode gerar conteúdo, notícias ou informações falsas sobre pessoas, eventos ou fatos. A

Ver original
  • Recompensa
  • Comentar
  • Partilhar
Comentar
Nenhum comentário