ai_pet_family (1)
1: 2023/05/23(火) 22:26:53.75
OpenAIは「今後10年以内に、AIシステムはほとんどの分野で専門家のスキルレベルを超え、
大企業に匹敵する規模の高度な生産的な活動を行うと考えられます」と述べ、
将来的なAIを「超知能」と呼び、人類がこれまで対処してきたさまざまな技術よりも強力になることを想定しています。

また、OpenAIは「超知能」が潜在的なメリットやリスクを抱えているとして、
リスクを軽減するための特別な調整が必要であると訴えています。

「超知能」の開発に関して、OpenAIは「安全性を維持しつつ社会との円滑な統合を可能にするために、
世界中の主要な政府がプロジェクトを立ち上げ、AIの急激な成長を制限する取り組みを行うべきです」と主張しています。
また「個々の企業は開発に対して責任を持つべきです」と述べています。

また「『国際原子力機関』のようなシステムの検査や監査の要求、安全基準準拠のテスト、
セキュリティレベルの制限などを行う国際的な規制機関の立ち上げが必要です」と提唱しています。
OpenAIは「これらの国際的な規制機関は、AIが何を言うことを許されるべきかを定義するなど、
個々の国や政府に任せられない問題に対して、リスクを軽減することに焦点を当てることが重要です」と述べています。

OpenAIは「今日のAIシステムは、潜在的なリスクを抱えているものの、世の中に非常に大きな価値を生み出すものです。
超知能のレベルに及ばないAI技術に対しても規制や監査、基準の適用を行うべきではありません」と主張しています。

超知能に関してOpenAIは「教育やクリエイティブな仕事、生産性が問われる分野などで、これまでのAIがもたらした結果よりもはるかに優れた世界をもたらすと考えています。
そのためには、直面する多くの問題を解決する必要があります」と述べています。
https://gigazine.net/news/20230523-openai-governance-of-superintelligence/

続きを読む
Source: 理系にゅーす