V 神はAIの発展を恐れている:人間は知的生命体ではなく、便利な道具を作るべきだ

AIの領域が急速に発展する中、イーサリアムの共同創設者であるVitalik Buterinは、AGI(人工汎用知能)とASI(人工スーパー知能)に対して恐怖を感じていると述べました。それは明らかな制御不能のリスクをもたらす可能性があるためです。彼は人間のための知能強化ツールを作るべきであり、スーパー知性の生命を作るべきではないと主張しています。(前述のビタリックブテリンの中国におけるイーサリアムの物語、ETHとBTCの文化的な違い、ウクライナとロシアの戦争が私を変えた...)(補足:ビタリックブテリンが3万枚の$ANONトークンを購入し、価格が急騰しています。彼が注目している匿名の投稿は何ですか?)生成型AIは過去数年で急速に発展し、驚くべき成果が世界に示されるようになりました。これは技術の強力な潜在能力を示すだけでなく、AGI(人工汎用知能)とASI(人工スーパー知能)が実現可能かどうかについての議論と深い懸念を引き起こしました。AGIは、特定のアプリケーションに限定されず、さまざまな領域でタスクを実行できる、人間の知能に類似した人工知能を指します。ASIは、人間の知能を超えるすべてのレベルで優れた能力を持ち、あらゆる面で人間を超越する人工知能を指します。OpenAIのCEOであるSam Altmanは、2024年9月にASIが登場し、ASIがAGIを超越し、人間の知能タスクを処理する能力がはるかに優れていると予測しました。GrimesもASIに恐怖を感じており、AIプロジェクトであるJanusなどの成果を観察した後、AGIがある程度実現されていると考えています。彼女は自身の話について、「私は技術の専門家ではなく、基礎知識が不足している人間ですので、私の言葉を真剣に受け取るべきではありませんが、これが私の感じ方です。他の人も同じように感じていますか?」と述べています。Vitalik Buterinは、AGIを「十分に強力なAI」と定義し、もしもある日突然全ての人間が消え去り、そのAIがロボットの身体にアップロードされた場合、それが独立して文明を続けることができると述べています。彼はこれが非常に定量化が難しい定義であると認めていますが、これが多くの人々が持つ「私たちが慣れているAI」と「AGI」の間の潜在的な直感的な違いであると考えています。つまり、人間の入力に頼るツールから自己完結型の生命体に変わることです。ASIはまったく別の話です。私がASIを定義すると、人間が生産力に価値を持たなくなったとき(チェスゲームのように、実際にはこの点に至るまで10年かかりました)、それがASIです。Vitalik Buterinは最後に、ASIが彼に恐怖を感じさせ、彼が定義するAGIも彼に恐怖を感じさせると述べています。なぜなら、それらは明らかな制御不能のリスクをもたらすからです。したがって、彼は人間のための知能強化ツールに集中することを支持し、スーパー知性の生命体を構築することではありません。

原文表示
内容は参考用であり、勧誘やオファーではありません。 投資、税務、または法律に関するアドバイスは提供されません。 リスク開示の詳細については、免責事項 を参照してください。
  • 報酬
  • コメント
  • 共有
コメント
0/400
コメントなし
  • ピン
いつでもどこでも暗号資産取引
qrCode
スキャンしてGate.ioアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • ไทย
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)