Day 58 導くシステムをつくる - 環境デザインの実践 Building Systems That Guide - Environment Design in Practice
[シリーズ構造] 柱E|癖にする
個人レベルの工夫だけでは十分ではありません。組織全体のシステム設計が、環境そのものを安全に導く仕組みをつくることで、セキュリティ行動は「簡単」ではなく"必然"になります。本稿では、デフォルト設定や物理空間、社会的規範まで含めた実践的な環境デザインの考え方を紹介します。
▶ シリーズ概要: シリーズ全体マップ:人間のしなやかさ ― サイバー判断力のために
▶ 柱E|習慣と自律 関連記事:
- Day 47 | 良い判断を「癖」にする科学
- Day 48 | 「努力」ではなく「設計」でつくる
- Day 49 | 習慣の神経回路
- Day 50 | サイバーセキュリティにおける「習慣ループ」
- Day 51 | 戦略的に習慣を置き換えるという技
- Day 52 | 「もし〜なら」で動く脳
- Day 53 | 環境を設計する ― 良い習慣を「自然に」定着させる
- Day 54 | 良い習慣は、意志ではなく環境でつくられる
- Day 55 | 人が無理なく動けるセキュリティの構造
- Day 56 | デジタル環境の最適化
- Day 57 | 自動的セキュリティのアーキテクチャ
- Day 58 | 環境デザインの実践
導くシステムをつくる - 環境デザインの実践
昨日、私たちは個人レベルでセキュリティを自動化する5つの方法を探りました。視覚的確認レイヤー、ホバープレビュー、摩擦の反転、パスワードマネージャーの優先順位、そして送信遅延。
それぞれが、内なる交渉を取り除いてくれました。「すべき?すべきでない?」という、意志力を消耗させ、判断を遅らせる、あの疲れ果てる問いを。
けれども、環境デザインは個人のツールだけでは終わりません。
今日は、視野を広げます。
組織全体のシステム―デフォルト設定、物理的空間、社会的規範、学びの瞬間、そして個人の気づき。
それをどのように設計すれば、安全な行動が「簡単」なだけでなく、「必然」に感じられるようになるのでしょうか。

⑥ デフォルト拒否とAIインタラクションのためのインテリジェントプロンプト
設計のアイデア:
AIのデータ共有やコード実行は、デフォルトで無効にしておきます。けれども、誰かがそれを必要とするとき:
- システムが尋ねます:「このAIエージェントがあなたのデータにアクセス/コードを実行しようとしています。送信元:[ソース/作成者]。予期していましたか?[はい/いいえ/報告]」
- 未知のソースの場合:「初めてのソースからのAIリクエストです―リスクが高い可能性があります。要求されている権限:[具体的なアクセスをリスト表示]」疑わしいリクエストをその場でワンクリックで報告できるオプション
なぜこれがうまくいく可能性があるのか:
- 保護は自動的 ― 明示的な同意なしには、データ共有も実行も起こりません
- 許可は意識的で文脈的 ― ユーザーは、AIが何を求めているのか、なぜそれが必要なのかを見ることができます
- 全面禁止のフラストレーションがない ― 正当なAIツールも、安全に機能できます
- 透明性による設計 ― 何のデータ/機能が要求されているのかが明確に示されます
習慣ループ:
- きっかけ:AI実行/データアクセスの試み(環境からの割り込み、ユーザーが覚えておく責任ではありません)
- ルーチン:文脈的プロンプトを読む → 権限を確認する → 情報に基づいた選択をする
- 報酬:安全な実行、もしくはワンタップ報告―不確実性も後悔もありません
自動性:
システムがセキュリティルール(「未知のソースからのAIリクエストを検証する」)を記憶するので、個人が覚えておく必要はありません。
認知的負荷は、人間の記憶から環境のアーキテクチャへと移行します。
セキュリティ・ナッジに関する研究では、よく設計された許可インターフェイスが、本物のリスクを"見逃しにくく"しながら、意思決定疲労を減らし、結果としてユーザーの判断精度を大きく向上させることが示されています。(Acquisti et al., 2017; Bravo-Lillo et al., 2013)。
現実世界のAI例:
例1:AIブラウザ拡張機能
「ChatHelper AI」が以下を要求しています:
• すべてのウェブページコンテンツを読み取る
• クリップボードにアクセスする
• 外部サーバーにデータを送信する
送信元:未知の開発者(初回インストール)
[一度だけ許可] [常に許可] [拒否] [疑わしいものとして報告]
例2:AIコードアシスタント
GitHub Copilotが以下を実行するコードを提案しています:
• ファイルシステムにアクセスする
• ネットワークリクエストを送信する
• システム設定を変更する
このプロジェクトの文脈では通常と異なります。
[コードを確認] [許可] [拒否] [なぜこれがリスクなのか?]
例3:AIドキュメント共有
「AI履歴書ビルダー」が以下を要求しています:
• ドキュメントをクラウドにアップロードする
• サードパーティのAIモデルと共有する
• 90日間データを保存する
予期されていた操作:[求人応募ワークフロー]
[はい、続行] [いいえ] [プライバシーポリシーを見る] [報告]
主要原則:
- 安全がデフォルト ― 同意なしにAIアクションは起こりません
- 文脈的インテリジェンス ― システムは通常のパターンを学習し、異常を検知します
- 摩擦のない報告 ― 無視するより報告する方が簡単です
- 段階的信頼 ― 初めてのソースには、より厳しい精査が行われます
- 透明な権限 ― 何が要求されているのかを常に正確に表示します
このアプローチは、セキュリティとユーザーの自律性の両方を尊重しながら、絶えず警戒し続けるという精神的負担を取り除きます。
⑦ 物理的環境:戦略的配置
設計のアイデア:
オフィスでは、セキュリティのリマインダーを戦略的に配置します:
- 壁には置かない(人々が通り過ぎるだけの場所)
- モニターのすぐ上の小さなスペースに置く(考えているときに目が自然に休む場所)
なぜこれがうまくいく可能性があるのか:
それは、「急いでいる瞬間」ではなく、「立ち止まる瞬間」を捉えるからです。
誰かがクリックするかどうか考えている、まさにそのときに。
習慣ループ:
- きっかけ:不確実な瞬間に目が上がる(考えているときの自然な行動)
- ルーチン:視線が休む場所にリマインダーが見える
- 報酬:ガイダンスを探さなくても、素早く答えが得られる
自動性:
リマインダーは、意思決定環境の一部になります。ユーザーはアドバイスを覚えていません。必要なときに、ちょうどそこで出会うのです。
⑧ 会議室のデフォルト設定
設計のアイデア:
ビデオ会議のために、デフォルトを設定します:
- デフォルト:画面共有は、デスクトップ全体ではなく、1つのウィンドウのみを表示します
- デフォルト:会議の録画は、安全な内部ストレージに自動保存されます
- デフォルト:外部参加者の名前の横には「GUEST」バッジが表示されます
なぜこれがうまくいく可能性があるのか:
人々は、デフォルトを使います。セキュリティが、デフォルトになるのです。
Thaler & Sunstein(2008)の選択アーキテクチャに関する研究は、デフォルトが行動を強力に形作ることを実証しています―選択肢を取り除くのではなく、望ましい行動が最も簡単になるように選択環境を構造化することによって。
習慣ループ:
- きっかけ:画面共有や録画を開始する
- ルーチン:システムが安全なオプションにデフォルト設定される
- 報酬:会議はスムーズに進みます―余分な決定は必要ありません
自動性:
安全な行動は、受動的に起こります。システムが行動し、ユーザーが恩恵を受けます。
習慣形成は必要ありません―思慮深く設計されたデフォルトを受け入れるだけです(Mazar et al., 2021)。
⑨ モバイルファーストの報告
設計のアイデア:
企業のモバイルアプリでは:
- 「疑わしいメッセージを報告」ボタンを、親指が届きやすいゾーン(画面の下3分の1)に配置します
- ワンタップで完了―フォームも説明も不要です
- フィードバックはすぐに届きます:「ありがとうございます―これは脅威でした/脅威ではありませんでした」
なぜこれがうまくいく可能性があるのか:
報告することが、無視するより簡単になります。
即座のフィードバックが、行動を強化します。
習慣ループ:
- きっかけ:疑わしいメッセージが届く
- ルーチン:親指が報告ボタンをタップする(人間工学的に最も簡単な行動)
- 報酬:即座の確認 + 貢献感
自動性:
物理的な容易さ(親指ゾーン)と心理的報酬(素早いフィードバック)が組み合わさって、自己強化ループを生み出します。
報告は、義務のように感じるのをやめ、自然な反応のように感じ始めます(Wood & Neal, 2007)。
セキュリティ警告の慣れに関する研究は、ユーザーが繰り返しのアラートに鈍感になることを明らかにしており、持続的なエンゲージメントには、即座の、低摩擦の報告メカニズムが不可欠であることを示しています(Anderson et al., 2016)。ネガティブなセキュリティ体験が、簡単な解決経路なしに蓄積すると、ユーザーは組織のセキュリティを損なう回避行動を発達させます(Vaniea et al., 2014)。
⑩ 文脈的マイクロトレーニング
設計のアイデア:
年1回の長時間トレーニングの代わりに:
- 簡潔なヒント(たとえば30秒)が、関連する瞬間に現れます
- 右パネルのヒント:「組織外からです―リンクをクリックする前に送信者を確認してください」
- すぐに消えます―ブロックするのではなく、ただそこに在るだけです
なぜこれがうまくいく可能性があるのか:
トレーニングは、何週間も前の会議室ではなく、行動の時点で行動と出会います。
間隔反復と適時学習に関する研究(Kang, 2016)は、関連性のある瞬間に分散された実践が、集中的なトレーニングセッションよりも優れた記憶保持と転移を生み出すことを示しています。
リスクの瞬間にセキュリティ教育を提供する組み込み型トレーニング介入は、従来の意識向上プログラムよりも測定可能に優れた成果を実証しています。フィールド研究は、文脈的フィッシング教育―ユーザーが疑わしいリンクをクリックした直後に提供される―が持続的な行動変容を生み出すのに対し、一般的な年次トレーニングは最小限の長期的影響しか示さないことを明らかにしています(Caputo et al., 2014; Kumaraguru et al., 2010)。
習慣ループ:
- きっかけ:関連する状況がヒントをトリガーする(たとえば、外部メール)
- ルーチン:ヒントをちらっと見る → 情報に基づいた行動
- 報酬:ワークフローを中断しない、文脈的に関連性のあるガイダンス
自動性:
学習は、just-in-case(念のため)ではなく、just-in-time(まさにその時)になります。
知識は、必要な瞬間に埋め込まれ、文脈と正しい行動との結びつきを強化します(Gollwitzer & Sheeran, 2006)。
⑪ 可視性による社会的証明
設計のアイデア:
ダッシュボードには(匿名化して)以下を表示できます:
- 「今週、あなたのチームが47件の疑わしいメールを報告しました」
- 「あなたの部署の89%がパスワードマネージャーを使用しています」
なぜこれがうまくいく可能性があるのか:
人々は、他の人々がしていることをします。
セキュリティを、目に見える規範にするのです。
習慣ループ:
- きっかけ:ダッシュボードの可視性
- ルーチン:「他の人たちがこれをしている」→ グループ行動に合わせる
- 報酬:所属感 + チームの成功への貢献
自動性:
記述的規範(他者が何をしているか)は、命令的規範(あなたが何をすべきか)よりも、行動を形作る上でしばしば優れています(Cialdini, 2003)。
セキュリティが普通に見えることが、それを自動的にします。
導く組織システム
環境デザインは、個人への介入だけでは終わりません。
安全な行動が自然に―それどころか明白に―感じられるような、組織全体のシステムを設計できます:
- 検証済み連絡先ディレクトリ ― 高速な検証は、検証しないことに勝ります
- 摩擦のない安全な共有 ― セキュリティがメールよりも簡単なとき、コンプライアンスは自然についてきます
- MFAを備えたシングルサインオン ― 利便性とセキュリティが、ついに一致しました
- ガイド付きワークフロー ― 障害物ではなく、静かなガイドです
これらのアプローチは、環境の再構築が教育単独を一貫して上回ることを示す、増え続ける研究と一致しています(Szaszi et al., 2018)。最も持続可能な行動変容は、人々がより規律正しくなったときではなく、正しい行動が最も抵抗の少ない道になったときに起こります。
ぐるりと一周
そして、ここで会話が静かに一巡します。
過去数日間、私たちは道をたどってきました:
習慣ループ(Day 50-52)から、行動がどのように自動化されるかを見て...
機会の窓(Day 56)へと、変化がより簡単になるタイミングを明らかにし...
環境デザイン(Day 57-58)で、良い習慣を持続させる方法を示しました。
もし習慣が、私たちが誰であるかよりも、私たちがどこで行動するかによって形作られるのだとしたら(Carden & Wood, 2018)、持続的な変化は、人々にもっと努力するよう求めることから始まるのではありません。
それは、私たちが住まう、働く、生活する環境。デジタル、組織、そして個人的な。それについて、より良い質問をすることから始まります。
ですから、あなたが築きたい習慣について考えるとき。それがセキュリティ、健康、創造性、あるいはつながりについてであっても。
自分に問いかけてください:
私は、より強くなろうとしているのか、 それとも、より良い環境を設計しようとしているのか?
どちらも重要です。けれども、時間の経過とともに、まったく異なる振る舞いをします。
意志力は、消耗します。 環境デザインは、複利で増えていきます。
そしておそらく、最も解放的な気づきは、これです:
もし環境と戦うのではなく、あなた自身がその設計者になったとしたら?
その転換、努力から設計へ、こそが、良い習慣が仕事のように感じるのをやめ、自然な前進の道のように感じ始める場所です。
なぜなら結局のところ、最も人間的なセキュリティの形は、努力ではありません―それは設計です。
リミット
これらの設計原則は、行動科学の研究と組織的ケーススタディから引き出されたアイデアを反映しています。すべての環境介入が、あらゆる文脈で等しく成功するわけではありません。有効性に影響を与える要因には、組織文化、既存のセキュリティ成熟度、技術インフラ、ユーザー集団の特性、そして実装の忠実度が含まれます。継続的な測定、ユーザーフィードバック、そして反復的な改善が不可欠です。
----
[Series Structure] Pillar E | The Science of Making Good Judgment a Habit
Individual nudges are not enough -- system design that shapes the environment makes secure behavior not just easy, but inevitable. This article explores practical ways to design organizational systems -- defaults, spaces, norms, and prompts -- that guide people toward secure choices naturally
▶ Series overview: Series Map -- Human Flexibility for Cyber Judgment
▶ Other posts in Pillar E (Habit & Autonomy):
- Day 47 | The Science of Making Good Judgment a Habit
- Day 48 | Habits Are Built Not by Willpower, But by Design
- Day 49 | What Happens Inside the Brain -The Neural Circuits of Habit
- Day 50 | The Habit Loop in Cybersecurity Context
- Day 51 | The Art of Strategic Habit Replacement in Cybersecurity
- Day 52 | The Brain That Moves on "If-Then"
- Day 53 | How to Make Good Habits Stick Naturally
- Day 54 | Good Habits Are Built by Environment, Not Willpower
- Day 55 | The Architecture of Effortless Security
- Day 56 | Digital Environment Optimization
- Day 57 | Environment Design in Practice ①
- Day 58 | Environment Design in Practice ②
Building Systems That Guide - Environment Design in Practice
Yesterday, we explored five ways to make security automatic at the individual level: visual confirmation layers, hover previews, friction reversal, password manager priority, and send delays.
Each one eliminated the internal negotiation--the exhausting "Should I? Shouldn't I?" that drains willpower and slows decisions.
But environment design doesn't stop at individual tools.
Today, we expand our view.
How do we design entire organizational systems--defaults, physical spaces, social norms, learning moments, and personal awareness--so that secure behavior feels not just easy, but inevitable?

⑥ Default-Deny with Intelligent Prompts for AI Interactions
The Design Idea:
AI data sharing or code execution could be disabled by default, but when someone needs it:
- System asks: "This AI agent wants to access your data/execute code. From: [source/creator]. Expected? [Yes/No/Report]"
- If it's an unknown source: "AI request from first-time source--high risk. Permissions requested: [list specific access]"
- One-click reporting optionright there for suspicious requests
Why This Could Work:
- Protection is automatic- No data sharing or execution happens without explicit consent
Permission is conscious and contextual - Users see what the AI wants and why
No blanket ban frustration - Legitimate AI tools can still function, but safely - Transparency by design- Clear indication of what data/capabilities are being requested
The Habit Loop:
Cue: AI execution/data access attempt (environmental interrupt, not user's responsibility to remember)
Routine: Read contextual prompt → review permissions → make informed choice
Reward: Either safe execution or one-tap reporting--no uncertainty, no regret
Automaticity:
The system remembers the security rule ("verify AI requests from unknown sources") so individuals don't have to.
The cognitive burden transfers from human memory to environmental architecture.
Research on security nudges demonstrates that well-designed permission interfaces significantly improve user decision-making by making genuine risks harder to ignore while reducing decision fatigue (Acquisti et al., 2017; Bravo-Lillo et al., 2013).
Real-World AI Examples:
Example 1: AI Browser Extension
"ChatHelper AI" wants to:
- Read all webpage content
- Access your clipboard
- Send data to external server
From: Unknown developer (first install)
[Allow Once] [Allow Always] [Deny] [Report as Suspicious]
Example 2: AI Code Assistant
GitHub Copilot suggests running code that will:
- Access your file system
- Make network requests
- Modify system settings
This is unusual for this project context.
[Review Code] [Allow] [Deny] [Why is this risky?]
Example 3: AI Document Sharing
"AI Resume Builder" wants to:
- Upload your document to cloud
- Share with third-party AI model
- Store data for 90 days
Expected from: [Job application workflow][Yes, Continue] [No] [See Privacy Policy] [Report]
Key Principles:
- Default to safety- No AI action without consent
- Contextual intelligence- System learns normal patterns and flags anomalies
- Frictionless reporting- Make it easier to report than to ignore
- Progressive trust- First-time sources get more scrutiny
- Transparent permissions- Always show exactly what's being requested
This approach respects both security and user autonomy while removing the mental burden of constant vigilance.
⑦ Physical Environment: Strategic Placement
The design idea:
In offices, place security reminders strategically:
- NOT on walls where people walk by
- ON the small space right above monitors--where eyes naturally rest when thinking
Why this could work:
It catches the pause, not the rush.
Right when someone is considering whether to click.
The Habit Loop:
- Cue: Eyes lift during moment of uncertainty (natural behavior when thinking)
- Routine: Reminder visible in resting gaze zone
- Reward: Quick answer without searching for guidance
Automaticity:
The reminder becomes part of the decision environment. Users don't remember the advice--they encounter it exactly when needed.
⑧ Meeting Room Default Settings
The design idea:
For video conferencing, configure defaults:
- Default: Screen sharing shows only one window, not entire desktop
- Default: Meeting recordings auto-save to secure internal storage
- Default: External participants see "GUEST" badge next to their names
Why this could work:
People use defaults. Security becomes the default.
Thaler & Sunstein's (2008) work on choice architecture demonstrates that defaults shape behavior powerfully--not by removing options, but by structuring the choice environment so the desired action is easiest.
The Habit Loop:
- Cue: Start screen share or recording
- Routine: System defaults to secure option
- Reward: Meeting proceeds smoothly--no extra decisions needed
Automaticity:
Secure behavior happens passively. The system acts; users benefit.
No habit formation required--just acceptance of thoughtfully designed defaults (Mazar et al., 2021).
⑨ Mobile-First Reporting
The design idea:
On company mobile apps:
- "Report suspicious message" button positioned in thumb-reach zone (bottom third of screen)
- Takes one tap--no forms, no explanations required
- Feedback comes quickly: "Thanks--this was/wasn't a threat"
Why this could work:
Reporting becomes easier than ignoring.
Immediate feedback reinforces the behavior.
The Habit Loop:
- Cue: Suspicious message arrives
- Routine: Thumb taps report button (ergonomically easiest action)
- Reward: Immediate confirmation + sense of contribution
Automaticity:
The physical ease (thumb zone) combined with psychological reward (fast feedback) creates a self-reinforcing loop.
Reporting can stop feeling like duty and start feeling like the natural response (Wood & Neal, 2007).
Studies on security warning habituation reveal that users become desensitized to repetitive alerts, making immediate, low-friction reporting mechanisms essential for sustained engagement (Anderson et al., 2016). When negative security experiences accumulate without simple resolution pathways, users develop avoidance behaviors that undermine organizational security (Vaniea et al., 2014).
⑩ Contextual Micro-Training
The design idea:
Instead of annual hour-long training:
- Brief tips (e.g., 30 seconds) appear at relevant moments
- Right-panel hint: "From outside organization--verify sender before clicking links"
- Disappears quickly--not blocking, just ambient
Why this could work:
Training meets behavior at the point of action, not in a conference room weeks prior.
Research on spaced repetition and just-in-time learning (Kang, 2016) shows that distributed practice at the moment of relevance produces better retention and transfer than massed training sessions.
Embedded training interventions that deliver security education at the moment of risk have demonstrated measurably better outcomes than traditional awareness programs. Field studies show that contextual phishing education--delivered immediately after users click suspicious links--produces lasting behavioral change, while generic annual training shows minimal long-term impact (Caputo et al., 2014; Kumaraguru et al., 2010).
The Habit Loop:
- Cue: Relevant situation triggers tip (e.g., external email)
- Routine: Quick glance at tip → informed action
- Reward: Contextually relevant guidance without workflow disruption
Automaticity:
Learning becomes just-in-time rather than just-in-case.
Knowledge embeds into the moment of need, strengthening the association between context and correct action (Gollwitzer & Sheeran, 2006)
⑪ Social Proof Through Visibility
The design idea:
A dashboard could show (anonymized):
- "47 suspicious emails reported by your team this week"
- "89% of your department uses password manager"
Why this could work:
People do what they see others doing.
Makes security a visible norm.
The Habit Loop:
- Cue: Dashboard visibility
- Routine: "Others are doing this" → align with group behavior
- Reward: Sense of belonging + contribution to team success
Automaticity:
Descriptive norms (what others do) often outperform injunctive norms (what you should do) in shaping behavior (Cialdini, 2003).
Seeing security as normal makes it automatic.
Organizational Systems That Guide
Environmental design doesn't stop at individual interventions.
We can architect entire organizational systems that make secure behavior feel natural--even obvious:
- Verified Contact Directories-- fast verification beats no verification
- Frictionless Secure Sharing-- when security is easier than email, compliance follows
- Single Sign-On with MFA-- convenience and security finally aligned
- Guided Workflows-- not obstacles, but quiet guides
These approaches align with a growing body of research showing that environmental restructuring consistently outperforms education alone (Szaszi et al., 2018). The most sustainable behavior changes occur not when people become more disciplined, but when the right behavior becomes the path of least resistance.
Where the Circle Closes
And this is where the conversation quietly comes full circle.
Over the past days, we've traced a path:
From the habit loop (Days 50-52) that showed us how behaviors become automatic...
To windows of opportunity (Day 56) that revealed when change becomes easier...
To environment design (Days 57-58) that demonstrates how to make good habits last.
If habits are shaped less by who we are and more by where we act (Carden & Wood, 2018), then lasting change doesn't begin with asking people to try harder.
It begins with asking better questions about the environments we inhabit--digital, organizational, and personal.
So as you think about the habits you want to build--whether in security, health, creativity, or connection--ask yourself:
Am I trying to become stronger, or am I trying to design a better environment?
Both matter. But they behave very differently over time.
Willpower depletes. Environment design compounds.
And perhaps the most liberating realization is this:
What if, instead of fighting your environment, you became its architect?
That shift--from effort to design--is where good habits stop feeling like work, and start feeling like the natural way forward.
Because in the end, the most human form of security is not effort--it's design.
Limitations: These design principles reflect ideas drawn from behavioral science research and organizational case studies. Not all environmental interventions succeed equally across contexts. Factors affecting effectiveness include: organizational culture, existing security maturity, technical infrastructure, user population characteristics, and implementation fidelity. Continuous measurement, user feedback, and iterative refinement remain essential.
ーーーー
References 参照・出典
Acquisti, A., Adjerid, I., Balebako, R., Brandimarte, L., Cranor, L. F., Komanduri, S., Leon, P. G., Sadeh, N., Schaub, F., Sleeper, M., Wang, Y., & Wilson, S. (2017). Nudges for privacy and security: Understanding and assisting users' choices online. ACM Computing Surveys, 50(3), 1-41. https://doi.org/10.1145/3054926
Anderson, B. B., Vance, A., Kirwan, C. B., Jenkins, J. L., & Eargle, D. (2016). From warning to wallpaper: Why the brain habituates to security warnings and what can be done about it. Journal of Management Information Systems, 33(3), 713-743. https://doi.org/10.1080/07421222.2016.1243947
Bravo-Lillo, C., Komanduri, S., Cranor, L. F., Reeder, R. W., Sleeper, M., Downs, J., & Schechter, S. (2013). Your attention please: Designing security-decision UIs to make genuine risks harder to ignore. Proceedings of the Ninth Symposium on Usable Privacy and Security (Article 6). https://doi.org/10.1145/2501604.2501610
Caputo, D. D., Pfleeger, S. L., Freeman, J. D., & Johnson, M. E. (2014). Going spear phishing: Exploring embedded training and awareness. IEEE Security & Privacy, 12(1), 28-38. https://doi.org/10.1109/MSP.2013.106
Carden, L., & Wood, W. (2018). Habit formation and change. Current Opinion in Behavioral Sciences, 20, 117-122. https://doi.org/10.1016/j.cobeha.2017.12.009
Cialdini, R. B. (2003). Crafting normative messages to protect the environment. Current Directions in Psychological Science, 12(4), 105-109. https://doi.org/10.1111/1467-8721.01242
Gollwitzer, P. M., & Sheeran, P. (2006). Implementation intentions and goal achievement: A meta-analysis of effects and processes. Advances in Experimental Social Psychology, 38, 69-119. https://doi.org/10.1016/S0065-2601(06)38002-1
Kang, S. H. K. (2016). Spaced repetition promotes efficient and effective learning: Policy implications for instruction. Policy Insights from the Behavioral and Brain Sciences, 3(1), 12-19. https://doi.org/10.1177/2372732215624708
Kumaraguru, P., Sheng, S., Acquisti, A., Cranor, L. F., & Hong, J. (2010). Teaching Johnny not to fall for phish. ACM Transactions on Internet Technology, 10(2), Article 7. https://doi.org/10.1145/1754393.1754396
Mazar, A., Gutzweiler, R., & Wood, W. (2021). Habits and goals in human behavior: Separate but interacting systems. Trends in Cognitive Sciences, 25(7), 604-616. https://doi.org/10.1016/j.tics.2021.04.005
Szaszi, B., Palinkas, A., Palfi, B., Szollosi, A., & Aczel, B. (2018). A systematic scoping review of the choice architecture movement: Toward understanding when and why nudges work. Journal of Behavioral Decision Making, 31(3), 355-366. https://doi.org/10.1002/bdm.2035
Thaler, R. H., & Sunstein, C. R. (2008). Nudge: Improving decisions about health, wealth, and happiness. Yale University Press.
Vaniea, K. E., Rader, E., & Wash, R. (2014). Betrayed by updates: How negative experiences affect future security. Proceedings of the SIGCHI Conference on Human Factors in Computing Systems, 2671-2674. https://doi.org/10.1145/2556288.2557275
Wood, W., & Neal, D. T. (2007). A new look at habits and the habit-goal interface. Psychological Review, 114(4), 843-863. https://doi.org/10.1037/0033-295X.114.4.843