OpenAIのリーダーシップトリオは、スーパーインテリジェンスを監督する国際機関を求める記事を共同執筆した

出典: ザ・ペーパー

ファン・シャオ記者

「スーパーインテリジェンスの取り組みには、最終的にIAEA(国際原子力機関)のようなものが必要になるかもしれない。能力(またはコンピューティングなどのリソース)の一定のしきい値を超える取り組みは、国際機関によるチェック、監査の要求、コンプライアンスのテストが必要となるだろう」セキュリティ基準、展開の程度とセキュリティのレベルの制限など。」

OpenAI指導部は公式ブログで「スーパーインテリジェンスの統治」を公開した。

人工知能の進歩は十分に速く、起こり得る危険性が十分に明らかであるため、ChatGPT の開発者である OpenAI の指導部は、世界が原子力エネルギーを管理するのと同様のスーパーインテリジェンスのための国際機関を必要としていると自ら申し出ました。

現地時間5月22日、OpenAIの創設者サム・アルトマン(Sam Altman)氏、社長のグレッグ・ブロックマン(Greg Brockman)氏、主任科学者のイリヤ・サツケヴァー(Ilya Sutskever)氏が力を合わせて同社のブログに書き、人工知能のイノベーションのペースが速くなったと述べた。あまりにも急速なので、既存の機関がテクノロジーを適切に制御することは期待できません。

「スーパーインテリジェンスの統治」と題されたこの記事は、AI が自らを管理できないことを認めており、「最終的には、スーパーインテリジェンスの取り組みのために IAEA (国際原子力機関) のようなものが必要になるかもしれない。コンピューティングなどのリソースのしきい値の取り組みは、国際当局によるチェック、監査の要求、セキュリティ基準を満たしているかどうかのテスト、展開の程度とセキュリティレベルの制限などです。」

著名なAI研究者で評論家のティムニット・ゲブルー氏も、その日のガーディアン紙のインタビューで同様のことを述べた:「何か違うことをするという外部からの圧力がない限り、企業は自主規制をしない。我々には規制が必要であり、純粋な利益動機よりも優れたものが必要だ」 」 ゲブルー氏は人工知能の危険性について発言したためグーグルから解雇された。

OpenAIの提案は、世界最大のAIブランドとベンダーが規制を支持しており、公的監視が緊急に必要であるが、「そのようなメカニズムを設計する方法がまだわかっていない」ことを示し、業界の会話のきっかけになる可能性がある。

先週、アルトマン氏は米国議会で、OpenAIが選挙がAI生成コンテンツによって影響を受けることを「非常に懸念している」と証言した。同氏は、AI産業が「世界に重大な害を及ぼす」可能性があると懸念している。 「この技術がうまくいかない場合、ひどい間違いを犯す可能性があると思います。そして、私たちはそれについて率直に発言したいと思っています。」 「私たちは政府と協力して、そのようなことが起こらないようにしたいと考えています。」 アルトマン氏は、議会がこの問題を解決する新しい機関を創設することを提案した。 「一定規模の能力を超える」AI テクノロジーのライセンスは、AI システムを一般に公開する前に、そのモデルがこれらの規制に準拠しているかどうかを判断できる専門家による独立した監査の対象となる必要があります。

以下は「スーパーインテリジェンスの統治」の全文です:

私たちが現在見ている状況を考えると、今後 10 年以内に、AI システムはほとんどの分野で専門家のスキル レベルを超え、今日の最大手の企業の 1 つと同じくらい多くの生産的な活動を実行できるようになることが考えられます。

潜在的な利点と欠点の観点から見ると、超知能は、人間がこれまで対処しなければならなかった他のテクノロジーよりも強力になるでしょう。私たちはより豊かな未来を手に入れることができますが、そこに到達するにはリスクを管理する必要があります。リスクの可能性を考えると、ただ受け身でいるわけにはいきません。原子力エネルギーはこの種のテクノロジーの歴史的例としてよく知られていますが、合成生物学もその例です。

私たちは今日の AI テクノロジーのリスクも取り除く必要がありますが、スーパーインテリジェンスには特別な処理と調整が必要です。

出発点

この発展をうまく乗り切る可能性を高めるために重要なアイデアが多数あります。ここでは、そのうちの 3 つについて最初の考えを紹介します。

まず、私たちの安全を確保し、これらのシステムが社会とスムーズに統合できるようにスーパーインテリジェンスの開発を確実に進めるには、主要な開発取り組みの間である程度の調整が必要です。これを実現するには多くの方法があります。世界の主要な政府が、現在の取り組みの多くが参加するプログラムを確立することもできますし、私たちが (以下に提案する新しい組織の支援を得て) 最先端の AI 機能を活用することに集団的に同意することもできます。企業の成長率は毎年一定の割合に制限されるべきです。

もちろん、個々の企業も責任を持って極めて高い基準で行動することが求められます。

第二に、スーパーインテリジェンスの取り組みには、最終的に IAEA (国際原子力機関) に似たものが必要になる可能性があります。能力 (またはコンピューティング リソースなど) の一定のしきい値を超える取り組みは、国際機関によるチェックが必要となり、国際機関によるチェックが必要になります。監査 、セキュリティ標準への準拠のテスト、展開とセキュリティ レベルの制限など。コンピューティングとエネルギーの使用状況を追跡することは非常に役立ち、このアイデアが実際に実現可能であるという希望も与えてくれます。第 1 ステップとして、企業は政府機関がいつか必要とするであろう要素の実装を開始することに自発的に同意することができ、第 2 ステップとして、各国がそれらを実装することができます。このような機関は、AI に何を発言させるべきかを定義するなど、各国に任せるべき問題ではなく、存在するリスクを軽減することに重点を置くことが重要です。

第三に、超知能を確保するための技術的能力が必要です。これは未解決の研究問題であり、私たちや他の人々によって多くの研究が行われています。

スコープに含まれないもの

私たちは、企業やオープンソース プロジェクトが、ここで説明する種類の規制 (ライセンスや監査などの面倒なメカニズムを含む) なしで、能力の重大なしきい値を下回るモデルを開発できるようにすることが重要であると考えています。

今日のシステムは世界に莫大な価値を生み出すことになり、リスクはありますが、そのリスクのレベルは他のインターネット技術と同等であるように思われ、社会が行うことは適切であるように思われます。

対照的に、私たちが焦点を当てているシステムは、まだ開発されていないテクノロジーを上回る勢いを持っており、それをはるかに下回るテクノロジーに同様の基準を適用することで、そのテクノロジーへの焦点を軽視しないように注意する必要があります。

一般からの意見と可能性

しかし、最も堅牢なシステムのガバナンスとその導入に関する決定には、強力な公的監視が必要です。私たちは、世界中の人々が AI システムの境界とデフォルトを民主的に決定すべきであると信じています。このような仕組みをどのように設計するかはまだわかりませんが、開発を実験する予定です。私たちは、このような広範なスケールにおいては、個々のユーザーが使用する AI の動作を大幅に制御できるべきだと今でも信じています。

リスクと困難を考慮すると、なぜこのテクノロジーを構築するのかを検討する価値があります。

OpenAI には 2 つの基本的な理由があります。まず、これが私たちが今日想像しているよりもより良い世界につながると私たちは信じています(教育、創造的な仕事、個人の生産性などの分野でこの初期の例を見てきました)。世界は多くの問題に直面しており、それらを解決するためにはさらなる支援が必要です。このテクノロジーは私たちの社会を改善することができ、これらの新しいツールを使用するすべての人の創造力はきっと私たちを驚かせるでしょう。経済成長と生活の質の向上は驚異的なものとなるでしょう。

第二に、スーパーインテリジェンスを阻止することには、直観できないリスクと困難が伴うと考えられます。メリットが非常に大きいため、構築コストは年々低下しており、構築するプレイヤーの数は急速に増加しています。これは本質的に私たちが進んでいる技術的な道の一部であり、これを阻止するには地球規模の監視システムのようなものが必要です。 , これでも動作が保証されるわけではありません。したがって、それを正しく理解する必要があります。

原文表示
  • 報酬
  • コメント
  • 共有
コメント
コメントなし