人工知能(AI)を用いて写真に写った人物の服を「脱がす」アプリの人気が急上昇していることが、最新のソーシャルメディア調査で明らかになった。こうしたプログラムは、実在する個人が被写体となっている既存の写真や動画を加工して、被写体本人の同意なしに全裸にしてしまう。多くの「ヌード化アプリ」は女性の写真のみを対象としている。
ソーシャルメディア分析会社グラフィカは最近実施した調査で、ヌード化アプリを使って加工された写真を「非同意性的画像(NCII)」と位置づけ、サービスを提供している34社を分析した。各社ウェブサイトのユニーク訪問者数は、9月だけで合わせて2400万人に上っていた。
ある企業の広告は「気になる女の子を片っ端から脱がせよう」をキャッチフレーズに掲げていた。このような「バーチャル脱衣産業」は、2022年にはほぼ存在しなかった。オープンソースのAI画像拡散モデルが利用できるようになったことで、写真加工のプロセスが簡素化され、新しいアプリやウェブサイトを立ち上げやすくなった。Reddit(レディット)やX(旧ツイッター)での紹介リンク数はこの1年間で2400%以上急増しており、著しい成長を裏づけている。
グラフィカの報告書は「これらのAIサービスに支えられた合成NCIIプロバイダーは今や本格的なオンライン産業として運営され、既存のeコマース企業と同じマーケティング戦術や収益化ツールの多くを活用している。これには主要なソーシャルメディアプラットフォームへの広告掲出、インフルエンサーマーケティング、顧客紹介制度の導入、オンライン決済技術の利用が含まれる」と記している。
被写体の同意なしにウェブ上でヌード写真が共有されるのは今に始まったことではない。2018年には、あるハッカーが女優ジェニファー・ローレンスら著名人の実際のヌード写真をインターネット上に公開したとして、禁錮8月の有罪判決を受けた。ローレンスは問題の写真へのハッキングを「性犯罪」と非難した。
今や著名人のヌード写真すら、いくつかの簡単なキー操作で作成できてしまう。そして、その画像が本物か、それとも捏造されたものなのかを見分けるのは難しいだろう。
米連邦捜査局(FBI)は今年6月、セクストーション(性的脅迫)や露骨なコンテンツ作成を目的とした写真加工が増加しているとの警告を発した。「悪意のある行為者は、コンテンツ加工の技術・サービスを利用して、主に個人のSNSアカウントやオープンなインターネット環境からキャプチャしたり、被害者に要求して入手したりした写真や動画を悪用し、性的な画像を作成する。そして本人そっくりの加工写真をソーシャルメディア、ネット公共空間、ポルノサイトなどで拡散する」として注意を促している。こうした写真を利用したセクストーションに使われ、被写体が身代金を要求される事例もあるという。
さらに懸念されるのは、これらのプログラムが未成年者のヌード写真作成に利用されている点だ。今年9月、スペインで20人以上の少女のAI生成ヌード画像が摘発された。ほとんどの画像は、少女たち自身がインスタグラムのアカウントに掲載した着衣写真を元に作成されていた。AI搭載アプリ「ClothOff」で元画像をヌード写真に加工した後、WhatsAppのグループで共有するという手口だった。
米ニュージャージー州でも先月、同様の手法で複数の高校生が同級生のヌード写真を作成していたことが発覚した。
著名人、同級生、バスに乗り合わせた見知らぬ人々、会社の重役、同僚、子どもたちの写真でさえ、たった数回のクリックで「脱がす」ことができてしまう。現在のところ、こうした写真加工を禁止する米連邦法はない。ただし、AIを用いて未成年者のポルノ画像を作成するのは違法だ。11月にはノースカロライナ州の児童精神科医が、患者の着衣写真をAIで性的な画像にデジタル加工したなどとして、児童ポルノ違反で禁錮40年の判決を受けた。
だが、大人の写真に関しては依然、一連のアプリとそれを使って作成された画像は合法の扱いのようだ。米誌タイムによれば、TikTok(ティックトック)とMeta(メタ)は「undress(脱衣)」という検索ワードをブロックすることで、こうしたプログラムへのアクセスを減らそうとしている。グーグルも、ヌード化アプリやサービス提供サイトの広告を一部削除している。