Day 114 レイヤー1:個人の行動変容 Layer 1: Individual Behavior Transformation
[シリーズ構造] 柱D|脅威の現実
AI 時代のサイバーセキュリティにおいて 最も基礎となる「個人の行動変容」 の本質を解き明かします。単なる知識や座学ではなく、"感じる経験" によって初めて行動が変わることを示した研究事例を紹介。攻撃者の視点を疑似体験させることで、人々は 危険の本物性 と 自分でも対処できる確信 を得て、 自発的な防御行動が生まれます。これはルールやコンプライアンスの強制ではなく、経験から生まれる"確信"の力 です。AI によって社会工学的な攻撃が加速する今、この「確信の設計」が行動変容の鍵となります。
▶ シリーズ概要: シリーズ全体マップ:人間のしなやかさ ― サイバー判断力のために
▶ 柱E|脅威の現実 関連記事:
- Day 59 | 攻撃者をステークホルダーとしてデザインする
- Day 60 | セキュリティトレーニングが失敗する理由
- Day 61 | 経験の科学
- Day 61 | すべてを変えた数字
- Day 63 | AIが攻撃者になる時
- Day 63 | 攻撃を学ぶことの倫理
- Day 65 | 理論から実践へ
- Day 66 | 手法 1: レッドチェア・テクニック
- Day 67 | 手法2: ユースケースの隣に、アビューズケースを置く
- Day 68 | 手法3 : STRIDE
- Day 105 | 手法4:セキュリティ・チャンピオン・ネットワーク
- Day 106 | 手法5: ハンズオン攻撃トレーニング
- Day 107 | 手法 6: セキュリティのガードレールを「デフォルト」にする
- Day 108 | 手法7:セキュア設計・チェックリスト
- Day 109 | 手法8:セキュリティ設計レビュー・テンプレート
- Day 110 | 方法9:責めない事後検証
- Day 111 | 実装ロードマップ
- Day 112 | 敵対的思考が「本当に効いている」と分かる方法
- Day 113 | 三層変革
- Day 114 | レイヤー1:個人の行動変容
レイヤー1:個人の行動変容

経験が「理解」を「確信」に変える
防護動機理論が示すのは単純だ。「危険は本物だ」と感じ、「そして自分にも守れる」と信じたとき、人は初めて動く。
多くのセキュリティ啓発が外している点を、Dalgaardらの研究は正面から突いています。
人は、説明されたから変わるのではない。内側から「感じた」ときに変わる。
USECで発表された研究では、オフィスワーカーを「攻撃者の視点」に立たせるガイド付きシミュレーションを実施しました(Dalgaard et al., 2023)。実際のツールを使い、小さな"衛生のほころび"がどう侵害に連鎖していくのかを、自分の手で体験させたのです。
これは座学ではありません。"learning-by-doing"です。
何が実際に変わったのか(N = 34)
事前・事後評価で、単なる知識ではなく、行動変容に直結する心理指標が有意に変化しました。
- セキュリティポリシー遵守意図(中程度の効果)
- 侵害への懸念(大きな効果)
- 対応の有効性認知(大きな効果)
特に重要なのは三つ目。「推奨行動は本当に効く」と、参加者が"信じられる"ようになったことです。そして、参加者の言葉が、その理由を物語っています。
「思っていたより、ずっと簡単でショックだった...」
「危険が"見える"ようになった」
「パスワードのパターンが印象に残った。自分の行動を変えようと思う」
数字が動いた理由は、ここにあります。
そのメカニズム
防護動機理論が予測する通り、人が防御行動を取るためには、二つが同時に高まる必要があります。
- 脅威評価(Threat appraisal)
- 対処評価(Coping appraisal)
- 効くと信じられる
- 自分にもできると感じられる
"怖い"だけでは動かない。"できる"だけでも動かない。
「危険は本物だ」
「そして、自分は何かできる」
この組み合わせが、行動を生む。Dalgaardらは、それを"体験"で起こしたのです。
そして、AI時代へ
ここで、もう一段階進みます。
AIは単に能力を高めるのではありません。搾取の速度を加速させます。
研究では、生成AIが社会工学を三つの軸で増幅することが示されています(Schmitt & Flechais, 2023)。
- リアルなコンテンツ生成
- 超個別化
- 自動化
つまり、"説得"が工業化された。
FBIも、AIによるフィッシング高度化や音声・映像クローン詐欺の拡大を警告しています(FBI, 2024)。金融当局も、DeepfakeやGenAIを使った不正の増加を観測しています(FinCEN, 2024)。
そして企業内部では、利便性ゆえに機密情報がLLMへ貼り付けられているという実測データも報告されています(Cyberhaven, 2023)。
これは理論ではない。
すでに起きている現象です。
これは「コンプライアンス」ではない
Dalgaardらは、人を変えたのではありません。人が自分で変わる瞬間を設計しました。
講義で説得したのではない。攻撃者の優位を"感じさせた"。参加者はこう言いました。
「思ったより、ずっと簡単だった」
「危険が見えた」
そこにAIが加わるとどうなるか。
- 完璧な文法で書かれた説得メール
- 大量生成される信頼できそうなアイデンティティ
- 音声クローンによる緊急送金依頼
- 数分で完了する偵察
それを目の前で見た瞬間、理論は消える。現実になる。
そして、そのとき人は変わる。これは、ルールの話ではない。罰則の話でもない。
確信の話だ。
経験から生まれる確信。それが、Layer 1。
ここから、判断が変わり始める。
-----
[Series Structure] Pillar D | Threat Reality
The post distills the core insight that true security behavior change isn't driven by information alone, but by experience. Drawing on empirical research, it shows that when people viscerally feel an attacker's advantage, through immersive, adversarial-mindset simulations, they move from understanding risks to believing they can act effectively. This shift in conviction increases protective intentions and efficacy far beyond traditional awareness training. In the AI era, where social-engineering exploits are amplified, designing experiences that build internal conviction not just compliance is essential for real behavior change.
▶ Series overview: Series Map - Human Flexibility for Cyber Judgment
▶ Other posts in Pillar E (Pillar D | Threat Reality):
- Day 59 | Design with Attacker as Stakeholder
- Day 60 | Why Security Training Fails
- Day 61 | The Science of Experience
- Day 62 | The Numbers That Changed Everything
- Day 63 | When AI Becomes the Attacker
- Day 64 | The Ethics of Learning to Attack
- Day 65 | From Theory to Practice
- Day 66 | Method 1 :The Red Chair Technique
- Day 67 | Method 2: Abuse Cases Alongside Use Cases
- Day 68 | Method 3: STRIDE
- Day 105 | Method 4: Security Champions Network
- Day 106 | Method 5: Hands-On Attack Training
- Day 107 | Method 6: Security Guardrails as Defaults
- Day 108 | Method 7: The Secure Design Checklist
- Day 109 | Method 8: The Security Design Review Template
- Day 110 | Method 9: The Blameless Security Post‑Mortem
- Day 111 | The Implementation Roadmap
- Day 112 | Measuring Progress and Mindset Change
- Day 113 | The Three-Layered Transformation
- Day 114 | Layer 1: Individual Behavior Transformation
Layer 1: Individual Behavior Transformation
Experience turning into Conviction

Dalgaard and colleagues' experiential (learning-by-doing) security training makes a point most awareness programs miss: people don't change because they are informed they change because they felt the attack from the inside. In their USEC study, office workers were placed into a guided "adversarial mindset" simulation (using real-world tooling) so they could see how small hygiene failures cascade into compromise (Dalgaard et al., 2023).
What Dalgaard et al. (2023) actually measured (and what shifted)
In a pre/post evaluation (N = 34), the intervention produced statistically significant improvements in three Protection Motivation Theory (PMT) constructs tied to behavior change not just knowledge:
- Security policy compliance intention increased (moderate effect).
- Security breach concern increased (large effect).
- Response efficacy increased (large effect): participants more strongly believed that recommended actions actually work.
And the qualitative responses explain why numbers moved:
- "Pretty shocked how easy it was..."
- "...It makes you see the danger"
- "The patterns in passwords made an impression and will give cause to a change in my own behavior." (as shown in their USEC'23 slide deck)
That's the mechanism: visceral exposure raises threat appraisal and raises coping appraisal (efficacy + "I can do something about this"), which PMT predicts is the combination that actually drives protective action (Rogers, 1975; Herath & Rao, 2009).
Bringing it into the AI era: "AI doesn't just increase capability--it accelerates exploitation."
Your framing is strong. The one thing I would tighten for citation-accuracy is attribution: I could not find the exact "92% password managers / 87% MFA / 79% stopped pasting company data into public LLMs / 30+ day sustained percentages" in Dalgaard et al. (2023). That USEC paper reports pre/post motivation and efficacy shifts, and explicitly calls out that future work should measure behavior change directly.
What we can support with strong sources is the broader AI claim:
- Generative AI amplifies social engineering through realistic content, hyper-personalization, and automation--a three-pillar escalation that compresses attacker time-to-impact (Schmitt & Flechais, 2023).
- U.S. law enforcement has publicly warned that AI increases speed, scale, and believability of phishing/social engineering, including voice/video cloning for fraud (Federal Bureau of Investigation, 2024; Internet Crime Complaint Center, 2024).
- Financial regulators have observed growing suspicious activity involving deepfakes and GenAI-enabled fraud targeting institutions and customers (FinCEN, 2024).
- On the enterprise behavior side, telemetry-based reporting showed employees pasting sensitive data into ChatGPT--illustrating how "convenience leaks" become a real pipeline (Cyberhaven, 2023).
This isn't compliance.
This is conviction--born of experience.
Dalgaard et al. didn't win behavior change by lecturing people. They did it by letting people feel the adversary's advantage learning-by-doing, from the attacker's perspective. In their USEC study (N = 34), that experience produced significant increases in compliance intention, breach concern, and response efficacy the psychological ingredients that predict protective action.
And the participants' words tell the truth behind the stats:
"Pretty shocked how easy it was..."
"It makes you see the danger."
Now add AI.
Generative AI doesn't invent social engineering--it industrializes it: realistic content at will, targeting at scale, infrastructure on autopilot (Schmitt & Flechais, 2023).
The FBI has warned that criminals are already leveraging AI to sharpen phishing and to clone voice/video for fraud--faster, broader, and harder to spot (Federal Bureau of Investigation, 2024).
So when someone watches AI:
- write persuasive pretexts with perfect grammar,
- generate believable identities at scale,
- clone a voice to push an urgent payment request,
- and compress reconnaissance into minutes...
...it stops being theoretical.
It becomes real.
And that changes people.
References 出典・参照文献
Cyberhaven. (2023, June 18). 4.2% of workers have pasted company data into ChatGPT. https://www.cyberhaven.com/blog/4-2-of-workers-have-pasted-company-data-into-chatgpt
Dalgaard, J. C., Janssen, N. A., Kulyk, O., & Schürmann, C. (2023). Security awareness training through experiencing the adversarial mindset. Symposium on Usable Security and Privacy (USEC). https://doi.org/10.14722/usec.2023.237300
Federal Bureau of Investigation. (2024, May 8). FBI warns of increasing threat of cyber criminals utilizing artificial intelligence. https://www.fbi.gov/contact-us/field-offices/sanfrancisco/news/fbi-warns-of-increasing-threat-of-cyber-criminals-utilizing-artificial-intelligence
Financial Crimes Enforcement Network. (2024, November 13). FinCEN alert on fraud schemes involving deepfake media targeting financial institutions (FIN-2024-Alert004). https://www.fincen.gov/system/files/shared/FinCEN-Alert-DeepFakes-Alert508FINAL.pdf
Grassi, P. A., Fenton, J. L., Newton, E. M., Perlner, R. A., Regenscheid, A. R., Burr, W. E., Richer, J. P., Lefkovitz, N. B., Danker, J. M., Choong, Y.-Y., Greene, K. K., & Theofanos, M. F. (2017). Digital identity guidelines: Authentication and lifecycle management (NIST Special Publication 800-63B). National Institute of Standards and Technology. https://doi.org/10.6028/NIST.SP.800-63b
Herath, T., & Rao, H. R. (2009). Protection motivation and deterrence: A framework for security policy compliance in organisations. European Journal of Information Systems, 18(2), 106-125. https://doi.org/10.1057/ejis.2009.6
Internet Crime Complaint Center. (2024, December 3). Criminals use generative artificial intelligence to facilitate financial fraud (PSA241203). https://www.ic3.gov/PSA/2024/PSA241203
Rogers, R. W. (1975). A protection motivation theory of fear appeals and attitude change. The Journal of Psychology, 91(1), 93-114. https://doi.org/10.1080/00223980.1975.9915803
Schmitt, M., & Flechais, I. (2023). Digital deception: Generative artificial intelligence in social engineering and phishing (arXiv:2310.13715). arXiv. https://arxiv.org/pdf/2310.13715
Zhang-Kennedy, L., & Chiasson, S. (2021). A systematic review of multimedia tools for cybersecurity awareness and education. ACM Computing Surveys, 54(1), Article 18. https://doi.org/10.1145/3427920