Les directives de l'AP restreignent l'utilisation par les journalistes de l'intelligence artificielle générative

L'Associated Press a publié des directives pour l'utilisation de l'intelligence artificielle générative alors que l'éminente organisation de presse soulignait le rôle de la surveillance humaine dans le journalisme.

Presse associée. Image : Shutterstock

Afin d'éliminer tout impact négatif potentiel sur ses reportages, l'Associated Press a publié mercredi de nouvelles directives limitant l'utilisation par les journalistes d'outils d'intelligence artificielle générative pour les reportages.

Amanda Barrett, vice-présidente de l'AP pour les normes et l'inclusion, a exposé certaines contraintes sur la manière dont l'AP gérera les futurs problèmes d'IA. Premièrement, les journalistes ne sont pas autorisés à utiliser ChatGPT pour créer du contenu publiable.

"Toute sortie d'outils d'IA générative doit être considérée comme une source non vérifiée", a écrit Barrett, ajoutant que le personnel devrait utiliser son jugement éditorial et les normes d'approvisionnement des médias lors de l'examen de toute information à publier.

De plus, AP n'autorise pas l'utilisation de l'intelligence artificielle générative pour ajouter ou supprimer des éléments de photos, de vidéos ou d'audio. Il ne transmettra pas non plus d'images générées par l'IA suspectées d'être "faussement représentées", connues sous le nom de deepfakes, à moins qu'elles ne fassent l'objet d'une histoire et qu'elles ne soient clairement étiquetées.

Barrett a averti le personnel que, comme l'IA générative peut facilement propager des informations erronées, Barrett a conseillé aux journalistes de l'AP d'être diligents et de faire preuve de prudence et de scepticisme habituels, notamment en essayant d'identifier la source du contenu original.

"Si les journalistes ont des doutes sur la véracité de ce matériel", a-t-elle écrit, "ils ne devraient pas l'utiliser".

Bien que l'article ait souligné les limites de la capacité des journalistes de l'AP à utiliser l'IA générative, il a donné un ton optimiste dans certains milieux, suggérant que les outils d'IA pourraient également bénéficier aux reportages des journalistes.

"La précision, l'équité et la rapidité sont les valeurs directrices des reportages d'AP, et nous pensons que l'utilisation prudente de l'intelligence artificielle peut servir ces valeurs et améliorer notre façon de travailler au fil du temps", a écrit Barrett.

En outre, elle a précisé que l'agence de presse de 177 ans ne pense pas que l'IA puisse remplacer les journalistes, ajoutant que les journalistes AP sont responsables de l'exactitude et de l'équité des informations qu'ils partagent.

Barrett a souligné un accord de licence AP signé avec OpenAI le mois dernier qui permettait aux créateurs de ChatGPT d'accéder aux archives d'actualités de l'AP remontant à 1985. En échange, l'accord permet aux médias d'accéder à la suite de produits et de technologies d'OpenAI.

La nouvelle de l'accord OpenAI survient quelques jours après que la startup d'intelligence artificielle a engagé 5 millions de dollars dans le US Journal Project. Le même mois, OpenAI a signé un accord de six ans avec la plate-forme multimédia Shutterstock pour accéder à sa vaste bibliothèque d'images et de médias.

Au milieu de tout le battage médiatique autour du potentiel de l'intelligence artificielle générative et de la capacité de trouver des informations de manière conversationnelle via les chatbots, l'exactitude de certaines des informations qui sont finalement fournies aux utilisateurs suscite des inquiétudes croissantes.

Bien que les chatbots IA puissent générer des réponses qui semblent réelles, ils ont également l'habitude bien connue de susciter des réponses qui sont en réalité irréelles. Connu sous le nom d'hallucinations de l'IA, ce phénomène peut générer de faux contenus, nouvelles ou informations sur des personnes, des événements ou des faits. UN

Voir l'original
  • Récompense
  • Commentaire
  • Partager
Commentaire
Aucun commentaire