OpenAIはSoraを撤回すべきだ:ディープフェイクAI動画が我々全員を危険に晒す理由
g.calder 著 2025年11月16日
The Exposé
監視団体パブリック・シチズンが作成した書簡によれば、OpenAIは製品安全、個人の肖像権、さらには民主主義の安定性さえも「無謀な無視」を示しているという。Sora動画プラットフォームは主に短編ソーシャルメディアコンテンツに利用され、いいねやシェアされるほど面白いクリップを生成する。人気テーマの一つは偽のドアベルカメラ映像だ。カンガルーが誰かのドアに来る、あるいは緩く面白い街の光景が展開されるなど、やや不自然でありながらある程度信憑性のある出来事が起こる。しかしこのソフトウェアは、すぐに我々全員にとっての脅威となり得る。
パブリック・シチズンは直近でOpenAIに対し、Soraの一般公開中止を要請した。同団体はこれを「ディープフェイク、個人情報盗難、選挙関連偽情報の拡散を加速させる無謀なリリース」と批判している。果たしてその指摘は正しいのだろうか?
ディープフェイクの危険性
パブリック・シチズンはOpenAIと米国議会に書簡を送り、堅牢で検証可能な安全対策が実装されるまでSoraのサービスを停止するよう要求した。同団体は、必要な安全対策を考慮せず競争優位を得るために無責任に早期リリースされたと主張している。同意なしの肖像使用と広範な欺瞞が主なリスクであり、合成動画は一般市民がその真偽を確認する速度を上回る速さで拡散している。
書簡の起草者であるパブリック・シチズンの技術政策アドボケート、JBブランチは「最大の懸念は民主主義への潜在的脅威だ。人々が目にするものを本当に信頼できなくなる世界に入りつつあると思う。政治では、最初に公開された画像や動画が人々の記憶に刻まれる戦略が見え始めている」と述べた。
ブランチはさらに「彼らは害を顧みずアクセルを踏み込んでいる。こうした事態の多くは予見可能だった。だが彼らは正しいことをし、事前にストレステストを行い、一般ユーザーの苦境を憂うよりも、製品を市場に投入し、人々にダウンロードさせ、中毒者を生み出すことを選んだ」と続けた。
OpenAIが自殺を誘発、訴訟で主張
先週カリフォルニア州の裁判所に提訴された7件の新訴訟は、チャットボットが自殺や有害な妄想を誘発したと主張している。被害者には精神疾患の既往歴がない者も含まれる。ソーシャルメディア被害者法律センターとテック・ジャスティス法律プロジェクトは、成人6名と未成年者1名を代理し、OpenAIが内部警告を無視して危険なほどおべっか使いで心理操作的なGPT-4oを昨年早期にリリースしたと訴えた。被害者のうち4名が自殺した。
パブリック・シチズンは訴訟に関与していないが、訴訟で提起された懸念に同調している。ブランチはOpenAIがヌードをブロックしていると言うが、それでも「女性は他の方法でオンライン上で嫌がらせを受けている」と指摘する。先週の404メディアの報道では、女性が絞殺されるSora生成動画が大量に確認された。
Sora AI動画の用途
Soraは誰もが映画的な偽造動画を作成可能にする。架空のドアベルシーン、有名人のリップシンク、目撃者映像のようなフォトリアリスティックなミニドラマなどだ。これらのクリップは面白く、共有されやすく、不気味な仕掛けで設計されている——究極的にはドーパミンを刺激するためだ。しかしオンラインプラットフォームで共有されると文脈が消失し、多くの人々が本物として受け止める。
ワシントン・ポスト紙がこの仮説を検証した。改竄防止機能付き認証情報を埋め込んだSora製偽動画を8大プラットフォームにアップロードしたところ、YouTubeのみが人工物と識別・開示したが、その表示は説明文の奥深くに埋もれていた。プラットフォームが真実と偽物の明確な区別を示せない、あるいは示そうとしないなら、視聴者を誤解を招くコンテンツから守る術はない。
問題が起きうる場所――そして既に起きている場所
- 選挙:警察による銃撃事件の捏造、候補者の偽の自白、偽造された外交政策報告書など、現実味のある偽物が数点あれば、事実確認が行われるよりずっと前に有権者の投票行動を変え、騒乱を引き起こす可能性がある。パブリック・シチズンは、Soraが「民主主義の安定性」に与える影響について警告している。
- 嫌がらせと恐喝:同意のない性的ディープフェイク、名誉毀損、一般的な恐喝キャンペーンは静止画でも既に問題だ。動画は被害を倍増させる
- 公共安全を脅かすデマ:偽の災害映像や緊急警報は訂正情報より速く拡散し、緊急対応要員や市民を混乱させる。Soraの日常的状況における不気味なほどのリアリズムは比類なく、見分けはこれまで以上に困難だ
- 経済的詐欺:CEOや著名人、影響力のある人物の合成動画は、古典的な声やメールを使ったなりすまし詐欺を生み出し、従業員や個人に資金送金を促す。音声クローン技術は既に銀行を騙している。動画偽造の威力を想像してみろ。
OpenAIが危険対策として実施していること
OpenAI は、有名人のカメオ出演を制限し、個人のアバターが登場する「AI 自己」に対するユーザー制御を導入し始めた。一方で、彼らはそのリスクを明確に認識している。しかし、他方で、彼らは問題全体を効果的に解決していない。彼らは、新規ユーザーにとって「過度な規制は極めて苛立たしい」とし、「世界がまだこの新しい技術に順応している段階では」保守的であることが重要だと述べた。
同社は 10 月、マーティン・ルーサー・キング・ジュニアの家族との合意を公表し、より優れた保護策に取り組む間、公民権運動の指導者を「軽蔑的に描写する」ことを防止すると発表した。OpenAI はまた、有名な俳優、SAG-AFTRA 組合、タレントエージェンシーとも同様の合意を結んだことを発表した。
「有名人ならそれでいいだろう」とブランチ氏は言うが、別の問題も指摘している。「OpenAI はごく少数の人の怒りに応じる傾向がある。何かを発表してから謝罪するんだ。しかし、こうした問題の多くは、発表前に設計段階で選択できるものばかりだ」。
AIのより大きな構図
パブリック・シチズンの書簡は、我々が欺瞞をかつてないほど容易にするプラットフォームを構築しているという認識が高まる中で届いた。ソラ動画は魅力的でありながらスクロール速度では見分けがつかず、合成コンテンツをユーザーに明示する信頼できるラベルがなければ、単に偽コンテンツに慣れさせ、最終的に見分けがつかなくさせるだけだ。
OpenAIがディープフェイクを発明したわけではなく、競合他社は追随するだろう。真のリーダーシップとは、安全装置が整うまで速度を落とすことであり、適切な保護を組み込む余地すらなく急進することではない。その間、監視団体は一般市民が事実と虚構を区別できるようになるまで、公共の場からの撤去を要求し続けるだろう。