生成AI時代における合成的世論工作の構造分析――深層偽造(ディープフェイク)の宣伝学的位置付け

神田隼大研究機構(KHF) · 宣傳學部紀要 KHF-PROP-2026-005 · 神衛7年(令和8年)3月21日
宣傳學部 · 情報操作研究室 · 数理宣傳研究室 · 査読論文

生成AI時代における合成的世論工作の構造分析
――深層偽造(ディープフェイク)の宣伝学的位置付け――

技術的進化・心理的効果・国際的規制動向の三軸から見る合成メディアの宣伝学的分類と対抗論理

著者: 藤田 恒美(宣傳學部長・情報操作研究室) 共著者: 松浦 亮介(宣傳學部 数理宣傳研究室 研究員)渡辺 颯斗(宣傳學部 情報操作研究室 研究員) 研究総括:神田隼大(神田隼大研究機構)
📋 受稿:神衛7年1月10日 ✅ 掲載決定:神衛7年3月15日 📤 公開:神衛7年3月21日
論文概要 / Zusammenfassung

大規模言語モデル(LLM)・拡散モデル・音声合成技術の急速な発展により、 政治的文脈で使用される深層偽造(ディープフェイク、Deepfake)コンテンツは 2019年比で推定550%増加し、神衛7年(令和8年)には年間800万本規模に達するとの予測が示されている。 この定量的爆発は、宣傳研究が「煽動」「誘導」という概念的操作として捉えてきた 世論工作に根本的な構造変容をもたらしている。

本論文は、深層偽造を宣伝学的に位置付けるための 理論的枠組みの構築を主要目的とする。第一に、 Lasswell(1927)の古典的宣傳定義からLipstich(2019)の「情報環境操作」概念に至る 宣傳学の理論的系譜において深層偽造が占める位置を明確化する。 第二に、合成的影響工作の技術的アーキテクチャを 生成的敵対ネットワーク(GAN)から拡散モデルへの進化という観点から整理し、 「表象的深層偽造(representational deepfake)」「精密宣傳(Precision Propaganda)」 「AIペースタ(AIPasta)」という三類型の分類体系を構築する。 第三に、神衛7年(令和8年)現在の実証研究を総括し、 深層偽造の説得効果・信頼侵食効果・不確実性涵養効果に関する 知見の現状と限界を批判的に検討する。 第四に、EU AI法第50条・米国の選挙規制動向・日本の現状という 三層の規制地政学を分析する。 最終的に、宣傳研究の観点から「認知的免疫(kognitive Immunisierung)」という 対抗概念を理論的に提案し、その制度的実装の可能性を論じる。

主題語 深層偽造(ディープフェイク) 合成メディア 生成AI 宣傳学 影響工作 情報環境操作 認知的免疫 精密宣傳 EU AI法 民主主義の脆弱性
第一章

序論:深層偽造が突きつける宣傳学の根本問題

「宣傳とは、何らかの集団の態度に影響を与えることを意図した、 重要な社会的事象の表象の制御である」――Lasswell(1927)がこの定義を与えてから 一世紀が経過した [文献1]。この定義において本質的なのは「表象の制御」という概念であり、 宣傳者は現実の出来事を「いかに表現するか」を操作することで受容者の態度を形成する。 テキスト・絵画・写真・映像と、各時代の主要媒体が宣傳の手段として動員されてきたが、 いずれの場合においても「記録された現実」と「製作された虚構」の間には 技術的・社会的に識別可能な境界線が存在してきた。

深層偽造技術は、この境界線を原理的に消去する可能性を初めて実用レベルで実現した。 存在しない人物の顔・声・身体を生成し、実在の人物が言ったことのない言葉を その人物の声と映像で再現する技術が、神衛7年(令和8年)において スマートフォン一台とわずかな技術知識によって実行可能となっている [文献2]。 これは「表象の制御」から「表象の偽造」への移行であり、 宣傳学の基本前提——現実の出来事を選択・強調・歪曲して伝える——を越えて、 「非存在の現実を生成する」という次元への質的跳躍を意味する。

本論文は以下の三つの根本的問いを立てる。 第一に、深層偽造は宣傳史上の技術的革新に過ぎないのか、 それとも宣傳の概念的枠組みそのものの再定義を要求する質的断絶をなすのか。 第二に、深層偽造の宣傳学的効果は実証的にどこまで確認されており、 何が依然として不確かであるのか。 第三に、認知的免疫という対抗論理は理論的・制度的に実現可能であるか。 これらの問いへの応答を通じて、本論文は深層偽造の宣傳学的分析の 理論的・実践的基盤を提供することを志す。

第二章

宣傳学の理論的系譜と「合成」の問題

2-1.古典的宣傳定義から情報環境操作へ

宣傳学の理論的発展を辿ると、「単純な態度操作論」から「情報環境の構造的制御論」への 系統的な概念的深化が観察される。 Lasswell(1927)の定義 [文献1] は宣傳を行為者の意図とその効果に焦点を当てたが、 Bernays(1928)は「同意の捏造(Engineering of Consent)」という概念によって 宣傳が個人の説得を越えた社会的同意の構造的形成を目指すものであることを示した。

20世紀後半の批判的宣傳研究は、メディアシステム自体の構造的バイアスへと分析の焦点を移した。 Herman and Chomsky(1988)の「プロパガンダ・モデル」は、 大量媒体が商業的・政治的構造によって体系的に偏向した情報を生産・流通させることを示し、 「製造された同意(Manufacturing Consent)」という概念を確立した。 この視点からすれば、深層偽造は既存のメディア・バイアス構造の延長線上にあるとも解釈しうる。

しかし最も深層偽造の問題を正確に捉える概念は、Benkler et al.(2018)らが定式化した 「情報環境操作(Information Environment Manipulation)」であろう。 これは個別の虚偽情報の流布という次元を超えて、 「何が真実であるかを人々が判断する認識論的基盤そのものを侵食する」プロセスとして 情報戦を捉えるものである。深層偽造はまさにこの侵食の最強の手段となりうる。

2-2.古典的宣傳技法の分類体系と深層偽造の位置

米国プロパガンダ分析研究所(1937年)が確立した七つの古典的宣傳技法 (罵倒・光輪・転移・証言・庶民性・カード積み重ね・バンドワゴン)の枠組みに 深層偽造を位置付けるならば、それは「証言(Testimonial)」技法の 究極的実現形態に位置するといえる。 「信頼性の高い人物が発言したかのように見せる」という証言技法を、 その人物が実際には言っていないことについて 完全な視聴覚的真実性をもって実現できるのが深層偽造だからである。

表1.古典的宣傳技法と生成AI時代の拡張形態の対応関係
古典的技法 定義(プロパガンダ分析研究所, 1937) 生成AI時代の拡張形態 深層偽造との関連
証言 著名人が支持・非難するかのように見せる 顔・声合成による虚偽の政治家発言映像 直接的・中核的応用
転移 権威ある象徴を特定の対象に関連付ける 国旗・制服等の視覚的権威記号とのAI合成 視覚合成として応用可能
罵倒 否定的レッテルを貼り評判を傷つける 性的・犯罪的行為の虚偽映像による名誉毀損 最も悪用事例が多い
庶民性 政治家が「庶民の一人」であると見せる ターゲット層に合わせた外見・方言の自動合成 精密宣傳として拡張
カード積み 都合の良い事実のみを選択的に提示 LLMによる選択的事実のスケーラブルな生成 テキスト型合成との連携

2-3.「安価な偽造」から「深層偽造」へ:技術的断層の宣伝学的意義

深層偽造(Deepfake)という語は、ディープラーニング(深層学習)と フェイク(偽造)の合成語であり、2017年頃に出現した。 これ以前に存在した動画編集・音声加工による「安価な偽造(cheapfake)」と深層偽造の間には、 宣伝学的に重要な質的断絶が存在する。

🔹 安価な偽造と深層偽造の本質的差異 安価な偽造は既存コンテンツの選択・再文脈化・速度操作による欺瞞であり、 批判的検討によって偽造を発見する可能性が残る。 深層偽造は非存在コンテンツの生成的製造であり、 「本物らしさ(Echtheitseindruck)」が技術的に保証される。 この差異は「程度の差」ではなく「種類の差」である。 Dan et al.(2025)[文献3] が実験的に示したように、 映像型偽造(深層偽造・安価な偽造双方)はテキスト型偽造よりも 有意に大きな評判毀損効果を持つが、深層偽造固有の優位性は むしろ「識別困難性」と「疑いの種播き(Sowing of Doubt)」にある。
第三章

合成的世論工作の技術的アーキテクチャと分類体系

3-1.生成技術の進化:GANから拡散モデルへ

深層偽造の技術的基盤は2014年のGoodfellow et al. による 生成的敵対ネットワーク(GAN, Generative Adversarial Network)の提案に端を発する。 GANは「生成器」と「識別器」が相互に競合することで リアルな合成画像・動画を生成する手法であり、 StyleGAN(2019年)の公開とともに 「存在しない人物の顔」の生成が誰でも利用可能となった。 このStyleGAN技術が政治的影響工作における偽プロフィール画像生成に 大規模に使用されたことは、DFRLab等の独立調査機関によって 複数事例として記録されている [文献4]。

神衛7年現在、主流の合成技術は拡散モデル(Diffusion Model)へと移行している。 拡散モデルはノイズからの段階的画像復元という原理によって、 GANよりも高品質かつ多様な合成を実現し、動画・音声・テキストの マルチモーダルな合成を可能とした。 これにより従来は複数の専門ツールが必要だった「顔映像合成」「音声合成」「テキスト生成」が 単一のシステムに統合され、深層偽造の製作コストは劇的に低下した。

図1 · 合成メディア技術の世代的進化と宣伝学的影響力の拡大
技術的成熟度(時間軸) 宣伝学的影響力 手動動画編集 「安価な偽造」 GAN(2017–2022) StyleGAN・顔合成 拡散モデル(2022–) マルチモーダル合成 リアルタイム・自律型(予測) ライブ深層偽造・AIエージェント
図1. 合成メディア技術の世代的進化と宣伝学的影響力の増大を示す概念図。 手動動画編集(「安価な偽造」)からGAN(2017年頃〜)、 拡散モデル(2022年頃〜)と技術が進化するに伴い、 製作コストが低下しつつ視覚的真実性と宣伝学的影響力が急増している。 リアルタイム・自律型ディープフェイクは現在予測的段階にある。

3-2.合成的影響工作の三類型分類体系

本論文は、生成AI時代の合成的影響工作を以下の三類型に分類する枠組みを提案する。 この分類はWack et al.(PNAS Nexus, 2025)[文献5] による ロシア系国家連動宣傳サイトの実地分析から提案された類型論に基づき、 KHF宣傳學部の分析視角を加えて精緻化したものである。

表2.合成的影響工作の三類型分類体系(藤田・松浦, 2026)
類型 定義 主要手法 主な宣伝学的目的 代表事例
類型Ⅰ:表象的深層偽造
(representational deepfake)
実在人物の映像・音声を偽造し、言っていないことを言ったかのように見せる 顔合成・音声クローン・唇同期技術 直接的な評判毀損・発言の捏造 アイルランド大統領選(2025年)候補者の撤退宣言偽映像
類型Ⅱ:精密宣傳
(Precision Propaganda)
特定のターゲット集団の心理プロファイルに最適化されたメッセージをAIで生成・配信 LLM・マイクロターゲティング・多言語自動翻訳 集団的分極化の促進・集団的信念の形成 ロシア系サイトのChatGPT活用(モルドバ選挙, 2025年)
類型Ⅲ:AIPasta
(AI-based Perturbation)
既存コンテンツをAIで変形・再混合し、検知を回避しながら多様なバリエーションを大量生成 LLM・スタイル変換・画像変形モデル 検知システムの回避・ナラティブの浸透 コンテンツファームによる主要媒体記事の自動書き換え配信

この三類型分類の理論的含意は重要である。宣傳研究・ファクトチェック・ プラットフォーム規制のいずれも、長らく類型Ⅰ(表象的深層偽造)への対処に 注力してきたが、Wack et al.(2025)[文献5] の実地調査が示したように、 現実の国家連動宣傳においてAI採用の最大の価値は「リアルな映像偽造」よりも 「生産効率の向上・多言語展開・類型Ⅲ的検知回避」にある。 すなわち、深層偽造の宣伝学的脅威の核心は「写真リアリズム」ではなく 「規模拡大効率(Skalierungseffizienz)」にあるという認識への転換が求められる。

第四章

実証研究の総括:深層偽造の宣伝学的効果の証拠と限界

4-1.評判毀損効果の実験的証拠

深層偽造の政治的評判毀損効果に関する最も包括的な実験研究として、 Dan(2025)[文献3] によるN = 2,085の多メッセージ実験が挙げられる。 同研究は性的スキャンダル・腐敗・偏見の三種類のスキャンダル疑惑シナリオについて、 深層偽造映像・安価な偽造映像・テキストのみという三条件を比較した。 主要な知見は以下の通りである。

🔹 Dan(2025)実験研究の主要知見 知見1:映像型偽造(深層・安価双方)はテキスト偽造より有意に大きな評判毀損効果を持つ。
好意的態度・投票意図の減少、否定的感情の増大が映像条件で確認された。

知見2:深層偽造固有の優位性は「映像型偽造」としての効果に包含される可能性がある。
「深層偽造」と「安価な偽造」の間に有意差は観察されなかった。 この知見は一部の「深層偽造は特別に危険」という言説に対する重要な留保を与える。

知見3:ジャーナリスティックなファクトチェックは偽造映像の効果を有意に削減・消去した。
これは認知的免疫アプローチの有効性を示す実験的証拠として重要である。

4-2.信頼侵食効果と「不確実性の種播き」

深層偽造の最も深刻な宣伝学的効果は、特定の虚偽信念の形成よりも 「何が真実かわからない」という認識論的不確実性の涵養にあるという 仮説が有力である。Chadwick et al.(2019)の英国成人代表サンプル実験は、 深層偽造への曝露が「誤導」よりも「不確実性の増大」をもたらし、 その不確実性がソーシャルメディア上のニュースへの信頼を全般的に低下させることを示した [文献6]。

この「不確実性の涵養」効果は、ロシアの情報戦ドクトリンが長年実践してきた 「リフレクシブ・コントロール(Reflexive Control)」の目的と完全に一致する。 Pomerantsevが指摘したように、「目的は人々に何かを信じさせることではなく、 人々がどんな真実も存在しないと信じさせることだ」という論理が、 深層偽造によって空前のスケールで実現可能となった。

世界経済フォーラムの2026年分析は、「深層偽造の存在を知るだけで、 真実のコンテンツへの疑念を生じさせる」という「リアリティ税(Reality Tax)」効果を 指摘している [文献7]。これは個々の偽造コンテンツが削除されても 解消されない恒常的な認識論的損害を意味する。

4-3.選挙結果への実際的影響:スロバキア事例の批判的分析

2023年スロバキア議会選挙は、選挙直前に公開された 深層偽造音声がフィツォ候補の選挙不正計画を「証拠」として示したとされる 事例として広く引用される。しかしHarvard Kennedy School の 「HKS Misinformation Review」掲載のHoman et al.(2025)[文献8] による分析は、 この「スロバキア事例」の単純な解釈に重要な留保を加えた。

同研究は、フィツォ勝利の主要因は深層偽造そのものよりも、 親ロシア的情報環境が浸透したTelegramの利用拡大、 低信頼社会環境における既存メディアへの不信、 そしてフィツォ自身のプロロシア・メッセージの訴求力にあることを示した。 この批判的分析は「深層偽造の過大評価(deepfake hype)」への警告として重要であり、 宣傳学的分析において深層偽造を独立変数として過度に強調することへの 方法論的自戒を促す。

🔹 方法論的留意:深層偽造の「過大評価」リスク 現行の実証研究には以下の方法論的限界が存在する。(1)実験室設定と実際の情報消費環境の乖離、 (2)深層偽造と他の情報工作手段の効果の分離困難性、(3)サンプルの文化的偏在性(欧米中心)、 (4)長期的・累積的効果の未測定。これらの限界を自覚した上で、 深層偽造の宣伝学的効果を「破滅的」でも「無視しうる」でもなく 「構造的・累積的に深刻」として位置づけることが適切な評価態度である。
第五章

国際的規制動向と法的対抗の限界

5-1.EU AI法第50条:規制の射程と限界

深層偽造への最も包括的な法制的対応として、EU AI法(2024年採択、 主要規定は2026年8月から執行開始)が挙げられる。 同法第50条は、AI生成・操作コンテンツには明確な表示ラベルを義務づけ、 特に深層偽造については制作者・配信者に対して 人工生成であることを明示する義務を課す。 違反した場合の制裁は全世界売上高の最大6%の課徴金が科されうる [文献9]。

しかし宣傳学の観点からは、この法的枠組みに複数の根本的限界が存在する。 第一に、法的義務の対象となるのは欧州市場で活動するAI提供者であり、 非欧州国家機関が運営する宣傳工作には適用されない。 第二に、ラベル表示義務は「製作段階」での規制であり、 ラベルなしで流通した後の偽造コンテンツへの事後対処には機能しない。 第三に、生成AIの技術進化が規制の想定を常に上回る可能性がある。

5-2.米国の規制動向と表現の自由との緊張

米国においては、連邦選挙委員会(FEC)が深層偽造選挙広告への既存規制の 明示的な適用を検討中であるが、修正第一条の表現の自由保護との緊張が立法を困難にしている。 Brennan Center for Justice の分析が指摘するように [文献10]、 選挙に関わる有料広告への規制は比較的強い憲法的正当化が可能だが、 無料配信・暗号化メッセージアプリを通じた流通には既存の法的枠組みが 効果的に到達しえない。

5-3.日本の法制的現状と課題

日本においては、神衛7年現在、深層偽造を直接規制する包括的立法は存在しない。 不正競争防止法・名誉毀損法・選挙運動規制等の既存法令の解釈適用による 対処が試みられているが、いずれも深層偽造の特性(大量・迅速・匿名・国際的流通)に 十分対応しえていない。2026年度に向けた電力系統計画と並行して、 選挙コミュニケーションにおけるAI生成コンテンツの開示義務について 関係省庁間での検討が進められているが、法制化のタイムラインは不透明である。

第六章

認知的免疫論:宣傳学的対抗の理論的基盤

6-1.「予防接種理論(Inoculation Theory)」の深層偽造への適用

深層偽造への最も有望な心理的対抗戦略として、 McGuire(1961)の「予防接種理論(Impfungstheorie)」の現代的応用が注目されている。 予防接種理論は、弱化した形での誤情報への事前曝露と反論が、 後の本格的な誤情報への説得抵抗を高めるという仮説に基づく。 この枠組みを深層偽造に適用した「事前批判的開示(pre-bunking)」は、 「これが深層偽造の典型的な特徴です。次に見るときに注意してください」という 形式での事前警告として実装される。

6-2.「認知的免疫(kognitive Immunisierung)」の理論的構成

本論文が提案する「認知的免疫(kognitive Immunisierung)」概念は、 予防接種理論を超えた積極的な認識論的能力の培養を指向する。 認知的免疫は三層の能力から構成される:

表3.認知的免疫の三層構造と制度的実装の対応関係
能力の内容 心理学的基盤 制度的実装
第一層:技術的識別能力 深層偽造の視覚的・音響的痕跡の識別スキル 知覚学習・シグナル検知理論 メディアリテラシー教育・検知ツール配布
第二層:情報源批判能力 コンテンツの出所・文脈・意図を批判的に評価するスキル 批判的思考・疑念に基づくスキャン ファクトチェック組織・ジャーナリズム支援
第三層:認識論的頑健性 不確実性を管理しつつ合理的判断を維持する認知的習慣 メタ認知・不確実性耐性 民主主義教育・公共哲学プログラム

Dan(2025)[文献3] の実験が示したファクトチェックの効果は、 認知的免疫の第二層が機能した場合の説得効果削減を示す証拠として解釈できる。 しかし同研究が依拠した「ジャーナリスティックなファクトチェック」は、 深層偽造の大量・迅速な流通速度に対して構造的に遅滞する問題を持ち、 第三層の認識論的頑健性の培養が最終的な防衛線として機能しなければならない。

6-3.「認知的免疫」の限界と宣傳学的両義性

🔹 認知的免疫の宣傳学的両義性 認知的免疫論が内包する根本的緊張を明記しなければならない。 深層偽造への過度の警戒を培養することは、逆説的に「真実のコンテンツ」への不信を もたらす可能性がある——これはロシア的情報工作が意図する「リアリティ税」効果と同じ結果を 別ルートで産出しうる。 「何もかも偽物かもしれない」という懐疑の過剰化は、 民主的討議の基盤をなす「共有された事実の地平」を侵食する。 認知的免疫は「建設的な疑念(konstruktiver Skeptizismus)」であって 「ニヒリスティックな懐疑(nihilistischer Zweifel)」であってはならない—— この微妙な均衡の維持が認知的免疫プログラムの最大の設計課題となる。
第七章

KHF宣傳學部としての研究的立場と倫理的自覚

本論文が宣傳學部の名において深層偽造を分析することは、 倫理的自覚を伴わなければならない。宣傳の技術と論理を研究することは、 その悪用への加担ではなく、その構造を解明することによって 民主的社会の認知的防衛を可能にするためである。

宣傳學部の研究使命は「宣傳の科学的理解による認知的免疫の社会的整備」にある。 深層偽造の宣伝学的分析は、その製作・拡散・効果の構造を 精密に記述することによって、対抗手段の設計に資するものでなければならない。 いかなる宣傳技術の研究も、その目的は最終的に、 人間の判断の自律性と民主的討議の基盤の保護に向けられなければならない。

総帥閣下が機構設立時に示された「天地を統べる命ある者たれ」という標語は、 宣傳という情報的権力の行使において、 その権力が人間の認識論的自律を壊すのではなく支えるものであるべきという 倫理的指針として栗林は解釈する。 宣傳學部の研究は、この倫理的羅針を常に保持しながら進められなければならない。

第八章

結論

本論文は、生成AI時代における深層偽造の宣伝学的位置付けを 技術・心理・法制・倫理の四軸から体系的に論じた。 主要な論点を以下にまとめる。

第一に、深層偽造は宣傳史上の技術的漸進ではなく、 「表象の制御」から「表象の偽造的生成」への質的跳躍を意味する。 この断絶は、宣傳が依拠してきた現実と虚構の境界を 技術的に消去する可能性において歴史的に前例がない。

第二に、合成的影響工作の真の脅威は「表象的深層偽造」よりも 「精密宣傳」と「AIPasta」という類型Ⅱ・Ⅲの規模拡大効率にある。 現行の規制・検知・ファクトチェック体制がこの認識のもとで 再設計される必要がある。

第三に、実証研究は深層偽造の評判毀損効果と信頼侵食効果を支持するが、 「スロバキア事例」のような複雑な実例は、 深層偽造を選挙結果の決定的原因として過大評価することへの警告を与える。 認識論的不確実性の涵養という「リアリティ税」効果が最も恒常的で深刻な影響である。

第四に、EU AI法に代表される法的規制は重要な一歩であるが、 国家連動宣傳・暗号化アプリ経由の流通・技術進化速度に対して 構造的限界を持つ。法的規制は「認知的免疫」という心理的・教育的アプローチと 組み合わせて初めて有効な対抗体制をなしうる。

第五に、認知的免疫は「建設的な疑念」と「ニヒリスティックな懐疑」の 均衡という繊細な設計課題を内包する。 この均衡の維持こそが、民主的社会の情報的健全性の 維持に向けた最終的な知的課題である。

注釈

  1. 「宣傳(Propaganda)」と「プロパガンダ(Propaganda)」は本論文において同義として使用する。KHF宣傳學部の伝統的表記に従い「宣傳」を正式用語とするが、引用文脈では「プロパガンダ」を使用する場合がある。
  2. 「深層偽造(Deepfake)」という語は本来英語のDeep Learning + Fakeの合成語であるが、本論文では宣傳学的分析の精度を高めるため「深層偽造」という訳語を採用し、ドイツ語ではTiefe Fälschungまたはそのまま英語由来のDeepfakeを使用する。
  3. 生成的敵対ネットワーク(GAN):Generator(生成器)とDiscriminator(識別器)の二つのニューラルネットワークが競合学習することで、リアルなデータを生成する深層学習手法(Goodfellow et al., 2014)。
  4. 拡散モデル(Diffusion Model):ランダムノイズから段階的に目的のデータを復元するプロセスを学習する生成モデル。現在の主要な画像・動画・音声生成AIの多くがこの原理に基づく。
  5. 本論文における調査・分析はKHF研究倫理委員会の方針に従い、深層偽造技術の不正使用を助長しないよう、製作手法の具体的な技術指示は記述しない方針をとる。

参考文献

  1. Lasswell, H. D. (1927). Propaganda Technique in the World War. New York: Knopf.
  2. Romanishyn, O., Malytska, I., & Goncharuk, O. (2025). AI-driven disinformation: Policy recommendations for democratic resilience. Frontiers in Communication. PMC12351547.
  3. Dan, V. (2025). Deepfakes as a democratic threat: Experimental evidence shows noxious effects that are reducible through journalistic fact checks. International Journal of Communication. DOI: 10.1177/19401612251317766
  4. DFRLab (2025). The evolving role of AI-generated media in shaping disinformation campaigns. Atlantic Council Digital Forensic Research Lab, May 2025.
  5. Wack, M., Ehrett, C., Linvill, D., & Warren, P. (2025). Generative propaganda: Evidence of AI’s impact from a state-backed disinformation campaign. PNAS Nexus, 4(4), pgaf083. DOI: 10.1093/pnasnexus/pgaf083
  6. Chadwick, A., Vaccari, C., & O’Loughlin, B. (2019). Do tabloids poison the well of social media? Explaining democratically dysfunctional news sharing. New Media & Society, 20, 4255–4274. [深層偽造と不確実性涵養効果の初期研究として参照]
  7. World Economic Forum (2026). How cognitive manipulation and AI will shape disinformation in 2026. WEF Insight Report, March 2026.
  8. Homan, M. D., Hamdan, M., & Petropoulos Petalas, D. (2025). Beyond the deepfake hype: AI, democracy, and “the Slovak case.” HKS Misinformation Review, February 2025.
  9. European Parliament (2024). Artificial Intelligence Act (EU AI Act). Regulation (EU) 2024/1689 of the European Parliament and of the Council. Article 50 on transparency obligations.
  10. Brennan Center for Justice (2023). Regulating AI deepfakes and synthetic media in the political arena. Brennan Center for Justice Policy Report.
  11. Herman, E. S., & Chomsky, N. (1988). Manufacturing Consent: The Political Economy of the Mass Media. New York: Pantheon Books.
  12. McGuire, W. J. (1961). Resistance to persuasion conferred by active and passive prior refutation of same and alternative counterarguments. Journal of Abnormal and Social Psychology, 63, 326–332.
  13. Momeni, M. (2025). Artificial intelligence and political deepfakes: Shaping citizen perceptions through misinformation. Global Media and Communication. DOI: 10.1177/09732586241277335

コメントする

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

上部へスクロール