Comment réguler l'IA ? Les experts suggèrent d'améliorer la garantie légale et le système standard

Auteur : Xu Cihao

Source : Financial Associated Press

‌Source de l'image : générée par les outils AI illimités

La recrudescence de l'IA déclenchée par OpenAI se poursuit, mais si les applications liées à l'AIGC améliorent l'efficacité de la production, elles sont également utilisées par les criminels pour générer de faux contenus et perturber le fonctionnement normal de la société.

Le rapport de recherche de Guosen Securities a souligné que les applications nationales d'IA se développent progressivement et que les applications liées à l'IA augmenteront progressivement. Compte tenu du risque d'abus de l'IA, la sécurité des données, la cryptographie et la supervision de l'IA sont toutes des directions de développement technologique importantes.

Il y a quelques jours, Meiya Pico a lancé un nouveau produit capable de détecter et de reconnaître des vidéos, des images et du texte générés par l'IA. En fait, les départements concernés de notre pays ont exploré la supervision juridique des produits et applications AIGC. Les experts concernés ont également suggéré que ce n'est qu'en établissant et en améliorant le système juridique pertinent que nous pouvons promouvoir fondamentalement le développement sain et durable de l'industrie AIGC de mon pays.

Meiya Pico lance des produits de réglementation de l'IA

Le 15 mai, Meiya Pico a publié un bilan des activités de relations avec les investisseurs.

La fiche d'enregistrement montre qu'en termes de produits de supervision IA, la société a lancé le poste de travail d'authentification d'image vidéo AI-3300 "Huiyan", qui peut surveiller et identifier des images vidéo profondément synthétisées et falsifiées et des images vidéo générées par AIGC. La plate-forme de détection AIGC lancée par la société prend en charge la détection et la reconnaissance du texte généré par AIGC.

Dans le même temps, Meiya Pico a déclaré que les sociétés de suivi continueront de mener des recherches sur la sécurité de l'IA et les domaines réglementaires, y compris l'IA anti-générative, et déploieront des produits connexes en temps opportun en fonction des besoins de l'entreprise.

Un journaliste de Metaverse NEWS appelé Meiya Pico, et le responsable de l'entreprise ont déclaré que du point de vue du modèle commercial, les produits de sécurité IA de l'entreprise servent principalement les organismes de réglementation tels que la sécurité publique et les informations sur les réseaux, visant l'utilisation de la technologie générative. sur Internet pour mener des activités illégales Identification et identification du comportement de diffusion d'informations ; en outre, des services d'évaluation de la sécurité et de la conformité peuvent être fournis aux fabricants qui fournissent des services génératifs.

La personne de connexion mentionnée ci-dessus a déclaré franchement que les fabricants nationaux de modèles à grande échelle en sont encore au stade de la sortie et de l'application sur le marché. Du point de vue de la face B, la coopération dans le domaine des affaires est toujours en discussion.

"Avec la maturité de la technologie de contrefaçon profonde et de la technologie AIGC, le seuil technologique pour la vidéo, l'audio et les images liés à la contrefaçon a été considérablement réduit, et le risque d'abus de la technologie de l'IA s'est encore accru, et la surveillance doit être renforcée de toute urgence." Angel L'investisseur et expert principal en intelligence artificielle Guo Tao Xiang Yuan Un journaliste de Cosmos News a déclaré que les outils de surveillance de l'IA ont des résultats relativement bons dans la surveillance et l'identification des images, des vidéos et des vidéos réalisées à l'aide de la technologie de contrefaçon profonde et de la technologie AIGC, ce qui peut réduire le risque de la technologie abus.

Le Dr Li Sanping, scientifique cadre supérieur du groupe R&D de Dell Technologies China, a déclaré au journaliste de Yuanverse News que d'un point de vue technique, il y a eu quelques tentatives pour générer des images et des vidéos avec l'IA. Par exemple, Google marquera chaque IA -image générée créée par ses outils.

"Il est techniquement facile à identifier et n'affecte pas les utilisateurs en cours d'utilisation. Cependant, le contenu du texte est toujours en cours d'exploration", a déclaré Li Sanping.

La supervision par IA est toujours en route

Guosen Securities estime qu'à mesure que les sociétés Internet nationales telles que Baidu, 360, Ali, Huawei et Tencent publient ou prévoient de publier des modèles à grande échelle, les applications liées à l'IA augmenteront progressivement. Compte tenu du risque d'abus de l'IA, la sécurité des données, la cryptographie et la supervision de l'IA sont toutes des directions de développement technologique importantes.

En fait, mon pays a toujours attaché une grande importance à la supervision de l'IA.

Le 10 janvier 2023, le "Règlement sur l'administration de la synthèse approfondie des services d'information sur Internet" (ci-après dénommé le "Règlement") est entré en vigueur. Le « Règlement » précise que les services qui fournissent des fonctions telles que le dialogue intelligent, la voix humaine synthétique, la génération de visages et les scènes virtuelles immersives qui génèrent ou modifient de manière significative le contenu de l'information doivent être marqués de manière bien visible pour éviter toute confusion ou erreur d'identification du public. Aucune organisation ou personne ne peut utiliser des moyens techniques pour supprimer, falsifier ou dissimuler des marques pertinentes.

Le 11 avril, l'Administration du cyberespace de Chine a publié les "Mesures pour l'administration des services d'intelligence artificielle générative (projet pour commentaires)" (appelées les "Mesures"), se concentrant pour la première fois sur l'IA générative et clarifiant davantage les frontières juridiques et entités responsables. Les "Mesures" proposent que les organisations et les individus qui utilisent des produits d'intelligence artificielle générative pour fournir des services tels que le chat et la génération de texte, d'images et de sons, y compris les organisations et les individus qui aident les autres à générer eux-mêmes du texte, des images et du son en fournissant des interfaces, etc., doivent Assumer la responsabilité du producteur du contenu généré par ce produit. Les fournisseurs devraient être responsables de la légitimité des données de pré-formation et des sources de données de formation optimisées des produits d'intelligence artificielle générative.

"En termes de supervision de l'industrie de l'IA, il existe des problèmes en suspens tels que des lois, des réglementations et des systèmes standard pertinents incomplets, l'absence d'un système de supervision descendant coordonné par plusieurs départements et une technologie de supervision en amont." Guo Tao a souligné que les départements gouvernementaux concernés nécessité d'établir et d'améliorer la R&D de l'AIGC et d'appliquer les lois, réglementations et systèmes normatifs pertinents, d'établir ou d'améliorer le système d'examen éthique et le système de supervision, de renforcer la supervision des entreprises technologiques, des scénarios d'application et des utilisateurs, de construire une plateforme de gouvernance collaborative multipartite , et promouvoir le développement sain et durable de l'industrie AIGC.

Voir l'original
  • Récompense
  • Commentaire
  • Partager
Commentaire
0/400
Aucun commentaire
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate.io app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • ไทย
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)