![](https://i3.wp.com/imgopt.asahi.com/ogp/AS20240425003116_comm.jpg?w=1200&resize=1200,0&ssl=1)
マイクロソフトやグーグル、オープンAIなどの主要なAI開発10社が、AIによる児童の性的虐待画像を生成、拡散させないよう取り組むことを表明した。こうした画像が生成AIによって大量につくられてしまうことへの懸念が高まっており、10社は米国の非営利組織(NPO)がまとめた原則に合意した。
児童の性的虐待画像は「CSAM(Child Sexual Abuse Material、シーサム)」と呼ばれる。各国で取り締まりが進むなか、生成AIの登場によって、実在する児童の顔に合成したり、架空の児童を生成したりしたCSAMが新たな脅威となっている。
米NPO「Thorn(ソーン)」などは、生成AIによるCSAMの生成や拡散を防ぐための原則を23日に公表。世界の主要なAI開発企業10社がこれに合意した。
原則は、AIモデルの開発運…