
日本が人工知能(AI)の法整備に一歩踏み出した。政府は28日、AI法案を閣議決定し、研究開発や活用を推進するとともに、国民に危害が及べば政府が調査に動くことを明記した。生成AIのリスクへの懸念が高まるなか、私たちの安全は守られるのか。
- 罰則のないAI法案、規制は十分か 識者「守るべき価値の議論を」
「世界で最もAIの研究開発や実装がしやすい国になることを目指して、取り組みを進めてまいります」
日本政府が27日に主催したAI政策を議論する国際会合で、石破茂首相は集まった約40カ国・地域の高官らにビデオメッセージでAI法案を紹介した。
政府が今国会での成立をめざして28日に提出した法案は、AIの開発や活用の推進と、リスクへの対応の両立をめざす。
肝は、政府の調査権限を規定したことだ。AIで国民の権利や利益が侵害される重大事案が起きた場合、国が開発事業者らを調査できるようにする。犯罪への悪用や、バイアス(偏り)のかかったデータを学習させて不適切な出力をするAIなどを想定する。
AIの動向について、政府が日頃から情報収集できるようにもする。米国の主要なAI開発企業への安全対策の聞き取りなどを想定する。事業者には政府に協力する努力義務を課す。違反しても罰則はないが、悪質な事案は事業者名を公表する方針だ。
開発と活用の推進に向けては、開発インフラの整備や人材育成などの施策をまとめた「AI基本計画」を定める。司令塔役として全閣僚をメンバーとする「AI戦略本部」も発足させる。
日本はこれまで、AI政策では基本原則やガイドラインなど法的拘束力がないルールを優先し、安全管理は事業者の自主的な取り組みに委ねて、法規制とは距離を置いてきた。
風向きが変わったのは一昨年…