Avec de plus en plus d'images et de vidéos "deep fake" émergeant, Microsoft a décidé de prendre des mesures proactives pour s'assurer que son art d'IA généré de manière procédurale puisse être identifié, a rapporté le Financial Associated Press le 24 mai. Lors de la conférence des développeurs Build 2023 de Microsoft, la société a annoncé qu'elle ajouterait une fonctionnalité dans les mois à venir qui permettra à quiconque d'identifier si une image ou un clip vidéo généré par Bing Image Creator et Microsoft Designer a été généré par AI. Microsoft affirme que la technologie utilise des méthodes cryptographiques pour marquer et signer le contenu généré par l'IA, ainsi que des informations de métadonnées sur son origine. Microsoft affirme que la fonctionnalité fonctionnera avec les "principaux formats d'image et de vidéo" pris en charge par ses deux programmes de génération de contenu d'IA, mais n'a pas annoncé les formats qu'elle prend en charge.
Microsoft ajoutera un filigrane au contenu généré par l'IA pour lutter contre les deepfakes
Avec de plus en plus d'images et de vidéos "deep fake" émergeant, Microsoft a décidé de prendre des mesures proactives pour s'assurer que son art d'IA généré de manière procédurale puisse être identifié, a rapporté le Financial Associated Press le 24 mai. Lors de la conférence des développeurs Build 2023 de Microsoft, la société a annoncé qu'elle ajouterait une fonctionnalité dans les mois à venir qui permettra à quiconque d'identifier si une image ou un clip vidéo généré par Bing Image Creator et Microsoft Designer a été généré par AI. Microsoft affirme que la technologie utilise des méthodes cryptographiques pour marquer et signer le contenu généré par l'IA, ainsi que des informations de métadonnées sur son origine. Microsoft affirme que la fonctionnalité fonctionnera avec les "principaux formats d'image et de vidéo" pris en charge par ses deux programmes de génération de contenu d'IA, mais n'a pas annoncé les formats qu'elle prend en charge.