米国NPO「Thorn」などがAIによる児童の性的虐待画像の生成を防ぐ原則をまとめ、主要なAI開発10社が合意した=Thornのウェブサイトから

 マイクロソフトやグーグル、オープンAIなどの主要なAI開発10社が、AIによる児童の性的虐待画像を生成、拡散させないよう取り組むことを表明した。こうした画像が生成AIによって大量につくられてしまうことへの懸念が高まっており、10社は米国の非営利組織(NPO)がまとめた原則に合意した。

 児童の性的虐待画像は「CSAM(Child Sexual Abuse Material、シーサム)」と呼ばれる。各国で取り締まりが進むなか、生成AIの登場によって、実在する児童の顔に合成したり、架空の児童を生成したりしたCSAMが新たな脅威となっている。

 米NPO「Thorn(ソーン)」などは、生成AIによるCSAMの生成や拡散を防ぐための原則を23日に公表。世界の主要なAI開発企業10社がこれに合意した。

 原則は、AIモデルの開発運…

共有