Day 11|AIは助けになる?判断の余白を取り戻す Can AI Help? Restoring Decision Bandwidth
AIは助けになる? 判断の余白を取り戻す

サイバーの現場で、あまり語られない疲れの原因があります。それは、仕事量ではありません。
判断のしすぎです。
現場の人たちは、ただアラートを処理しているわけではありません。ずっと判断しています。
- これは本物のインシデント?それともノイズ?
- エスカレーションする?しない?
- 今すぐ隔離する?様子を見る?
- この挙動は怪しい?
一つひとつは小さく見えても、どれも間違えられない判断です。
そしてそれは、静かに削っていきます。
判断する力の余白(Decision Bandwidth)を。
人は、繰り返し判断を求められると、その質が徐々に低下することが知られています(Baumeister et al., 1998; Kahneman, 2011)。
サイバーの現場では、アラートの多さや情報の分断によって、その負荷はさらに大きくなります(ENISA, 2022; CISA, 2023)。
AIは代わるものではなく「支えるもの」
AIはよく「自動化」として語られます。
でも、自動化だけでは、この疲れは減りません。
設計を間違えると、むしろアラートもツールも増えて、もっと苦しくなることもあります。
本当に大切なのはここです。
AIは、判断を代わるものではなく、判断を支えるもの。
例えば:
- インシデント分類の提案
- 対応手順の提示
- 過去の類似事例の提示
- 影響範囲の可視化
これらは「答え」ではありません。
判断するための土台です。
これは、人間中心AIの考え方とも一致しています(Shneiderman, 2022; Dellermann et al., 2019)。
判断を守るということ
人を外すことが目的ではありません。
むしろ逆です。
人が本来やるべき判断に集中できるようにすること。
- あいまいな状況をどう読むか
- 何を優先するか
- どこで止めるか
- 誰が責任を持つか
こういう判断を守ること。
ただし注意も必要です。
設計が悪いAIは、状況認識をむしろ下げてしまうこともあります(Parasuraman & Riley, 1997)。
だからこそ、AIは「判断を支える構造」として設計しなければいけない。
最後に
バーンアウトは、仕事が多すぎるからではありません。
支えのない判断が多すぎるから起きる。
AIは責任を代わることはできません。
でも、判断の余白を取り戻すことはできる。
そしてそれは、システムを守ることと同じ意味を持ちます。
―――
Can AI Help? Restoring Decision Bandwidth

One of the least visible, yet most damaging drivers of burnout in cybersecurity is not workload.
It is decision fatigue.
Security professionals are not simply processing alerts.
They are constantly deciding.
Hundreds of micro-decisions, every single day:
- Is this alert real or noise?
- Does this require escalation?
- Should this system be isolated now?
- Is this behavior suspicious enough to act on?
Each decision carries uncertainty.
Each decision carries consequence.
And over time, each decision consumes something finite: decision bandwidth.
Research has long shown that repeated decision-making under pressure depletes cognitive resources and degrades judgment over time (Baumeister et al., 1998; Kahneman, 2011).
In cybersecurity environments, where alert overload and fragmented visibility are the norm, this effect is amplified (ENISA, 2022; CISA, 2023).
AI as Decision Support Not Replacement
AI is often framed as a way to automate security work.
But automation alone does not solve decision fatigue.
In poorly designed systems, it can even make it worse--
more alerts, more tools, more complexity.
The real opportunity is different.
AI can restore decision bandwidth.
Not by replacing human judgment,
but by protecting it.
For example, AI can assist by:
- Suggesting likely incident classifications
- Recommending response playbooks
- Highlighting similar past incidents
- Mapping potential impact paths across systems
These are not decisions.
They are structured inputs into decisions.
This aligns with a growing body of work on human-centered AI, which emphasizes augmentation over replacement (Shneiderman, 2022; Dellermann et al., 2019).
Protecting Judgment Under Pressure
The goal is not to remove humans from the loop.
The goal is to reduce unnecessary cognitive load,
so that humans can focus on what truly requires judgment:
- ambiguity
- trade-offs
- responsibility
- timing under pressure
When AI is used this way, something important shifts.
Security work becomes less about reacting to noise,
and more about making meaningful decisions.
However, research on human-automation interaction warns that poorly designed automation can degrade situational awareness and increase risk (Parasuraman & Riley, 1997).
Which means:
AI does not automatically help.
It must be designed carefully to support judgment, not erode it.
Final Thought
Burnout is not just about too much work.
It is about too many decisions made under uncertainty, without support.
AI cannot eliminate responsibility.
But it can create space for better judgment.
And in cybersecurity, protecting human judgment is protecting the system itself.
References
Decision fatigue / human cognition
- Baumeister, R. F., Bratslavsky, E., Muraven, M., & Tice, D. M. (1998). Ego depletion: Is the active self a limited resource? Journal of Personality and Social Psychology, 74(5), 1252-1265. https://doi.org/10.1037/0022-3514.74.5.1252
- Kahneman, D. (2011). Thinking, fast and slow. Farrar, Straus and Giroux.
Cybersecurity workload / cognitive burden
- Cybersecurity and Infrastructure Security Agency (CISA). (2023). Defending against cyber threats: Enhancing organizational resilience. https://www.cisa.gov
- European Union Agency for Cybersecurity (ENISA). (2022). Cybersecurity skills development in the EU. https://www.enisa.europa.eu
AI as decision support / augmentation
- Dellermann, D., Ebel, P., Söllner, M., & Leimeister, J. M. (2019). Hybrid intelligence. Business & Information Systems Engineering, 61(5), 637-643. https://doi.org/10.1007/s12599-019-00595-2
- Shneiderman, B. (2022). Human-centered AI. Oxford University Press.
Automation risk / human factors
- Parasuraman, R., & Riley, V. (1997). Humans and automation: Use, misuse, disuse, abuse. Human Factors, 39(2), 230-253. https://doi.org/10.1518/001872097778543886
参考文献
判断疲労・人間の認知(Decision fatigue / human cognition)
- Baumeister, R. F., Bratslavsky, E., Muraven, M., & Tice, D. M.(1998).自我枯渇:自己は有限の資源なのか.Journal of Personality and Social Psychology, 74(5), 1252-1265.https://doi.org/10.1037/0022-3514.74.5.1252
- Kahneman, D.(2011).ファスト&スロー(上・下).Farrar, Straus and Giroux.
(※邦訳:村井章子訳『ファスト&スロー』早川書房)
サイバーセキュリティの業務負荷・認知的負担(Cybersecurity workload / cognitive burden)
- Cybersecurity and Infrastructure Security Agency(CISA)(2023).サイバー脅威への防御:組織レジリエンスの強化.https://www.cisa.gov
- European Union Agency for Cybersecurity(ENISA)(2022).EUにおけるサイバーセキュリティ人材育成.https://www.enisa.europa.eu
AIによる意思決定支援・拡張(AI as decision support / augmentation)
- Dellermann, D., Ebel, P., Söllner, M., & Leimeister, J. M.(2019).ハイブリッド・インテリジェンス.Business & Information Systems Engineering, 61(5), 637-643.https://doi.org/10.1007/s12599-019-00595-2
- Shneiderman, B.(2022).ヒューマンセンタードAI.Oxford University Press.
自動化リスク・ヒューマンファクター(Automation risk / human factors)
- Parasuraman, R., & Riley, V.(1997).人間と自動化:利用・誤用・不使用・乱用.Human Factors, 39(2), 230-253.https://doi.org/10.1518/001872097778543886