対話型AI(人工知能)「ChatGPT(チャットGPT)」を運営する米オープンAIが、安全対策チームを事実上解散したことが明らかになった。退社した元幹部の一人は経営陣を公然と批判しており、安全性をめぐる社内の対立があらわになった。AI開発をリードする同社の体制変更は、高度なAIの安全性に影響を与える可能性がある。
- 「極めて強力なAI、2030年までに実現」アルトマン氏が描く未来
- 「幕引き」図るオープンAI アルトマン氏の解任劇、詳細見えぬまま
オープンAIは昨年7月、人間の能力を超える高度なAIの実現に備え、安全対策を検討する「スーパーアラインメントチーム」を発足。トップには、著名AI研究者で元理事のイリヤ・サツキバー氏と、ヤン・ライカ氏が就任した。同社は、人間を超える強力なAIは「人類を無力化させ、絶滅にすらつながる可能性がある」として、4年間にわたり同社が確保するコンピューター資源の20%を安全対策にあてると説明していた。
「アラインメント」とは、人間の価値観や倫理観をAIに取り込み、安全性を高める取り組みをさす。
安全を「後回し」 退社した幹部が批判
だが、サツキバー氏とライカ…