简体中文
繁體中文
English
Pусский
日本語
ภาษาไทย
Tiếng Việt
Bahasa Indonesia
Español
हिन्दी
Filippiiniläinen
Français
Deutsch
Português
Türkçe
한국어
العربية
概要:[5日 ロイター] - 対話型人工知能(AI)「チャットGPT」を開発した新興企業オープンAIは5日、AIが人間にとって安全であり続けるよう多大な資源を投入し、新たな研究チームを立ち上げる計画を明らかにした。最終的にはAIの監視にAIを使用することを目指す。
対話型人工知能(AI)「チャットGPT」を開発した新興企業オープンAIは5日、AIが人間にとって安全であり続けるよう多大な資源を投入し、新たな研究チームを立ち上げる計画を明らかにした。
[5日 ロイター] - 対話型人工知能(AI)「チャットGPT」を開発した新興企業オープンAIは5日、AIが人間にとって安全であり続けるよう多大な資源を投入し、新たな研究チームを立ち上げる計画を明らかにした。最終的にはAIの監視にAIを使用することを目指す。
共同創設者のイリア・サツキバー氏と調整責任者のヤン・ライカ氏はブログへの投稿で、人間より賢い超知能システムが2020年代の終わりまでに登場する可能性があると予想。超知能AIを管理するために現在利用可能な技術を改善させる必要があると述べた。
今後4年間で同社が持つコンピューター資源の20%をこの問題の解決に充てる。研究で、AIが人間の価値観に合致し人間の意図に従うよう調整し、最終的にAIがAIを監視できるようにすることを目指す。
AIの安全性を提唱するコナー・リーヒー氏は、人間に近い初期のAIが安全性問題を解決するようになる前に暴走し、大混乱を引き起こす可能性があるとし、この計画には根本的な欠陥があると指摘する。
免責事項:
このコンテンツの見解は筆者個人的な見解を示すものに過ぎず、当社の投資アドバイスではありません。当サイトは、記事情報の正確性、完全性、適時性を保証するものではなく、情報の使用または関連コンテンツにより生じた、いかなる損失に対しても責任は負いません。