10州がディープフェイクの作成または拡散を特に犯罪化する法律を可決しました。インディアナ州は拡大することで、間もなく増加するリストに加わる可能性があります10州がディープフェイクの作成または拡散を特に犯罪化する法律を可決しました。インディアナ州は拡大することで、間もなく増加するリストに加わる可能性があります

非同意AIポルノは私たち全員を被害者にする:法律は追いつけるのか?

この記事はThe 19thとの共同出版です。The 19thはジェンダー、政治、政策を扱う非営利ニュースルームです。The 19thのニュースレターへの登録はこちら。

ニュージャージー州のウェストフィールド高校の20人以上の生徒たちは、昨年、自分たちの裸の画像が仲間の間で出回っていることを知り、恐怖を感じました。学校によると、一部の生徒が人工知能(AI)を使用して、元の写真から他の生徒のポルノ画像を作成していたとのことです。そして、偽の裸の写真の被害に遭っているのは、彼女たちだけではありません。ワシントン州とカナダの生徒たちも、ウェブサイトやアプリで写真をリアルに改変する能力がより広くアクセス可能になるにつれて、同様の状況に直面していると報告しています。

一般的にディープフェイク(AI生成画像や動画)に対する警戒感が高まる中、1月にはスーパースターのテイラー・スウィフトに関するものがソーシャルメディアを通じて急速に拡散し、さらに懸念が高まりました。

10年以上にわたり非同意ポルノ(一般的にリベンジポルノと呼ばれる)の被害者を代理してきた弁護士のキャリー・ゴールドバーグ氏は、コンピューター生成画像の被害者から連絡を受け始めたのは比較的最近だと述べました。

「私の法律事務所は、おそらく約5年前からディープフェイクの被害者を扱ってきましたが、ほとんどが著名人でした」とゴールドバーグ氏は述べました。「今では、子供たちが意地悪をするために子供たちに対して行うようになっています。被害者は法的救済措置があることを知らない可能性があり、すべてのケースで明確にそれがあるかどうかがはっきりしないため、おそらく実際よりもかなり報告されていないと思われます。」

統治機関は追いつこうとしています。過去1年ほどで、10の州がディープフェイクの作成や配布を特に犯罪化する法律を可決しました。これらの州(カリフォルニア、フロリダ、ジョージア、ハワイ、イリノイ、ミネソタ、ニューヨーク、サウスダコタ、テキサス、バージニアを含む)は、罰金から懲役刑に至るまでの罰則を概説しました。インディアナ州は、非同意ポルノに関する現行法を拡大することで、近々この増加するリストに加わる可能性があります。

インディアナ州の共和党議員シャロン・ネゲレ氏は、提案された拡大法案を起草しました。既存の法律では、「リベンジポルノ」を、性交、露出した性器、臀部、女性の胸部などを描写した親密な画像を、画像に描かれた個人の同意なしに開示することと定義しています。ネゲレ氏の提案した法案は両院を通過し、現在知事の署名を待っています。

ネゲレ氏は、生徒の一部が自分のディープフェイク画像を配布していることを発見した高校教師の話を聞いたときに、インディアナ州の刑法を更新する動機を得たと述べました。それは教師の私生活に「信じられないほど破壊的」であり、ネゲレ氏は加害者が現行法の下で起訴できないことに驚いたと述べました。

「それは、現在利用可能な技術を理解するための私の教育から始まり、信じられないほど本物でリアルに見える作り物の身体に人々の顔が取り付けられた事件を次々と読むことから始まりました」とネゲレ氏は述べました。「本当に苦痛です。母親であり祖母である私が、家族や自分自身に何が起こるかを考えると、衝撃的です。この種のことに先手を打たなければなりません。」

性犯罪を専門とする法律事務所を持つゴールドバーグ氏は、より多くの州がAIに関する文言を含めるために既存の法律を拡大し続けると予想していると述べました。

「10年前、リベンジポルノまたは画像ベースの性的虐待法を持っていたのはわずか3州でした」とゴールドバーグ氏は述べました。「現在、48州がリベンジポルノを違法化しており、それは本当にリベンジポルノの大幅な減少を生み出しました。当然のことながら、私たち支援者が言っていた通りです。ディープフェイクの台頭全体が、誰かを性的に屈辱させる新しい方法としてギャップを埋めています。」

AP通信によると、2023年には143,000以上の新しいAI生成動画がオンラインに投稿されました。これは、「nudify」ウェブサイトやアプリケーションがそれほど一般的でなかった2019年からの大きな飛躍であり、それでもビジュアル脅威インテリジェンス企業であるDeeptrace Labsの報告によると、これらの偽動画がオンラインに約15,000本ありました。当時でさえ、これらの動画(96パーセントが女性の非同意ポルノを含む)は1億回以上の視聴を獲得していました。

ゴールドバーグ氏は、政策立案者と一般市民の両方が、事実上誰もが被害者になり得るため、AI生成のヌード画像を特に禁止することにより動機付けられているようだと述べました。より共感があるのです。

「リベンジポルノの場合、最初の議論の波では、誰もが被害者を非難し、画像を撮ったことである種の変態のように見せたり、他の人と共有したことで愚かに見せたりしていました」とゴールドバーグ氏は述べました。「ディープフェイクの場合、被害者を本当に非難することはできません。なぜなら、彼らがしたことは体を持っていただけだからです。」

女性と少女を支援することに焦点を当てた国際人権組織であるEquality Nowの南アフリカを拠点とするデジタル権利アドバイザーであるアマンダ・マニャメ氏は、米国にはディープフェイクの被害者に対する保護が事実上ないと述べました。マニャメ氏は世界中の政策と法律を研究し、何が機能しているかを分析し、特に技術を利用した性的搾取と虐待に関するデジタル権利に関する法的助言を提供しています。

「最大のギャップは、米国に連邦法がないことです」とマニャメ氏は述べました。「課題は、問題が州ごとに管理されており、当然ながら、保護に関して統一性や調整がないことです。」

しかし、現在、連邦議会では推進の動きがあります。超党派の上院議員グループが1月に2024年の明示的偽造画像および非同意編集妨害法(DEFIANCE法としても知られる)を導入しました。提案された法律は、非同意の性的に露骨なコンテンツの拡散を阻止することを目的としています。

「誰も(著名人も一般のアメリカ人も)AIポルノに登場することを強いられるべきではありません」と、法案の共同提案者である共和党のジョシュ・ホーリー上院議員は声明で述べました。「無実の人々は、自分の評判を守り、法廷で加害者に責任を負わせる権利があります。」アレクサンドリア・オカシオ=コルテス下院議員は、下院でパートナー法案を提出しました。

Data for Progressの新しい世論調査によると、政治的スペクトラム全体の有権者の85パーセントが提案されたDEFIANCE法を支持していると述べており、男性の62パーセントと比較して、女性の72パーセントが強く支持しています。

しかし、若い男性はDEFIANCE法に反対する可能性が高く、45歳未満の男性の約5人に1人(22パーセント)が、明示的な非同意ディープフェイクの対象者が作成者を訴えることを許可する法律に強くまたはある程度反対していると述べています。

Data for Progressのエグゼクティブディレクターであるダニエル・デイセロス氏は、この問題が、彼女がしばらく見た中で若い男性と女性の間の「より鮮明な対照」の1つを示したと述べました。

「45歳未満の女性と男性がこの政策について意見が分かれていると自信を持って言えます」とデイセロス氏は述べました。「これは女性、特にリベンジポルノの被害者になる可能性が高い若い女性に不釣り合いに影響を与える問題です。そして、それが本当にここでの根本原因だと思います。」

ゴールドバーグ氏は、悪意のある行為者を犯罪化する政策を作成することは良いスタートですが、最終的には不十分だと述べました。次の良いステップは、犯罪活動に主に使用される製品を提供しているApp StoreやGoogle Playなどのオンライン配布業者を対象とした法的措置を講じることだと彼女は述べました。これらの露骨な画像が配布されるソーシャルメディアプラットフォームやインスタントメッセージングアプリも責任を負うべきだとゴールドバーグ氏は付け加えました。

親密な画像虐待の被害者を支援するために活動する草の根組織である#MyImageMyChoiceの創設者たちは、これらの画像の作成と配布に関与する民間企業によってもっと多くのことがなされるべきだと同意しました。

創設者であるソフィー・コンプトン氏、ルーベン・ハムリン氏、エリザベス・ウッドワード氏は、Googleなどの検索エンジンがディープフェイクポルノサイトへの総ウェブトラフィックの大部分を促進し、クレジットカード会社がその支払いを処理していると指摘しました。インターネットサービスプロバイダーは人々がそれらにアクセスすることを許可し、Amazon、Cloudflare、MicrosoftのGithubなどの主要サービスがそれらをホストしています。そして、Xのようなソーシャルメディアサイトは、コンテンツが大規模に循環することを許可しています。Googleは2015年にポリシーを変更し、被害者が検索結果から個々のコンテンツを削除するリクエストを送信できるようにし、それ以来、ディープフェイク虐待にポリシーを拡大しました。しかし、同社は画像ベースの性的暴力とディープフェイク虐待サイトを体系的にリストから削除していません。

「テクノロジー企業は、これらのサイト(その存在全体が同意の侵害とトラウマからの利益に基づいて構築されているサイト)をブロック、インデックスから削除、またはサービスを拒否する力を持っています」とコンプトン氏、ハムリン氏、ウッドワード氏はThe 19thへの声明で述べました。「しかし、彼らはそうしないことを選択しました。」

ゴールドバーグ氏は、テイラー・スウィフトのディープフェイクが拡散した速度を指摘しました。以前はTwitterとして知られていたXで共有された1つの画像は、それを投稿したアカウントが停止される前に4,700万回閲覧されました。ソーシャルメディア企業がそれらを削除しようとしたにもかかわらず、画像は拡散し続けました。

「カンザスシティ・チーフスのフットボールの試合で血まみれで裸のテイラー・スウィフトの暴力的で女性蔑視的な写真は、問題の象徴です」とゴールドバーグ氏は述べました。「本当に主流のサイトを含むその配布の範囲は、このコンテンツを作成することが問題ないというメッセージを全員に送ります。私にとって、それは本当に重要でかなり恐ろしい瞬間でした。」

被害者の著名な性質を考えると、この事件はスウィフトのファンからの顕著で広範な怒りを引き起こし、問題に対する世間の注目をもたらしました。ゴールドバーグ氏は、性的に露骨なディープフェイクをより簡単かつ安価に作成できるようにする製品をオンライン配布業者がオンラインストアから削除したかどうかを確認したと述べ、削除されていたことに安堵したと述べました。

国の政策立案者と裁判所が急速に発展し、ますますアクセスしやすくなる技術に対応し続けようとする中、ゴールドバーグ氏は、立法者が弁護士、ソーシャルワーカー、支援者など、専門家や被害者と直接協力する人々に従い続けることが重要だと述べました。抽象的なアイデアや急速に進歩する技術を規制する立法者は、そうでなければ「災害のレシピ」になる可能性があると彼女は付け加えました。

マニャメ氏はまた、政策決定を行う際に生存者と直接話すことの重要性を強調しましたが、立法者は問題についてより総合的に考える必要があり、常に遅れをとるリスクを冒して特定の技術にあまりにも固執しすぎないようにする必要があると付け加えました。たとえば、マニャメ氏は、一般市民がAIとディープフェイクによってもたらされるリスクを理解し始めたのはつい最近のことだと述べました。これは彼女が2021年に報告書を書くのを手伝ったものです。今後を見据えて、マニャメ氏はすでにメタバース(バーチャル空間)について考えており、そこではユーザーがレイプ、セクシャルハラスメント、虐待の事例に取り組み始めています。

「画像ベースの性的虐待に関する法律の多くは、リベンジポルノについて特に語っているため、少し時代遅れです」とマニャメ氏は述べました。「リベンジポルノは歴史的に、親密なパートナーが以前のまたは既存のパートナーの性的に搾取的な画像を共有するという点で、より家庭内暴力の問題でした。ディープフェイクの場合は必ずしもそうではないため、これらの法律は十分な保護を提供しない可能性があります。」

さらに、マニャメ氏は、これらの政策の多くが、多様な文化的または宗教的背景を考慮するために「親密な画像」の定義を広げることができていないと主張しました。たとえば、一部のイスラム教徒の女性にとって、ヒジャブなしで頭が覆われていない画像を作成して配布することは、同様に侵害的で屈辱的である可能性があります。

解決策に関しては、マニャメ氏は、アプリ作成者、プラットフォーム規制当局、立法者が取ることができる行動を指摘しました。

設計段階では、害を制限するためにより多くの安全対策を組み込むことができます。たとえば、マニャメ氏は、女性の写真を撮って自動的に服を削除できるアプリがいくつかあるが、同じ機能が男性の写真では機能しないと述べました。性別に関係なく、誰からでも服を削除することを難しくするために、これらのアプリのバックエンドでできる方法があります。

しかし、悪意のあるディープフェイクがすでに作成され投稿された後は、マニャメ氏は、被害者がそれを報告した後にコンテンツを削除するためのより良いメカニズムをソーシャルメディアとメッセージングプラットフォームが用意すべきだと述べました。多くの場合、個々の被害者は無視されます。マニャメ氏は、これらの大手ソーシャルメディア企業は、被害者に代わって擁護する第三者規制当局があるオーストラリアなどの国では、これらのディープフェイクを削除する可能性が高いことに気づいたと述べました。

「あらゆる解決策には、監視と執行メカニズムを含める必要があります」とマニャメ氏は述べました。「多くの生存者から聞くことの1つは、彼らは自分の画像を削除してほしいだけだということです。法的手続きを経ることについてさえありません。彼らはそのコンテンツがなくなることを望んでいるだけです。」

マニャメ氏は、多くのテクノロジー企業と政府規制当局にとって、それは大きな要求ではないと述べました。なぜなら、多くはすでに子供を含む不適切な写真を迅速に削除するために対応しているからです。それは、そのような保護を女性に拡大することの問題だと彼女は付け加えました。

「私の懸念は、これらの害の根本原因のいくつかが何であるかを考慮せずに、AI法と政策を実装するための急ぎがあったということです。それは階層化された問題であり、取り組む必要がある他の多くの層があります。」


クレジット

  • Mariel Padilla for The 19th

イラスト

  • Rena Li

編集

  • Flora Peir for The 19th

こちらにも掲載されています

写真:Steve Johnson on Unsplash

市場の機会
Sleepless AI ロゴ
Sleepless AI価格(AI)
$0.03633
$0.03633$0.03633
+1.79%
USD
Sleepless AI (AI) ライブ価格チャート
免責事項:このサイトに転載されている記事は、公開プラットフォームから引用されており、情報提供のみを目的としています。MEXCの見解を必ずしも反映するものではありません。すべての権利は原著者に帰属します。コンテンツが第三者の権利を侵害していると思われる場合は、削除を依頼するために service@support.mexc.com までご連絡ください。MEXCは、コンテンツの正確性、完全性、適時性について一切保証せず、提供された情報に基づいて行われたいかなる行動についても責任を負いません。本コンテンツは、財務、法律、その他の専門的なアドバイスを構成するものではなく、MEXCによる推奨または支持と見なされるべきではありません。