Day12|AIは速くするのではない。「読める仕事」に変える AI and the End of Chaos - Making Security Work Predictable
AIは速くするのではない。「読める仕事」に変える

不確実性は、慢性的なストレスの最大の原因のひとつです。
サイバーの現場は、不確実性だらけです。
見えない脅威。断片的なログ。あいまいなシグナル。次々と変わる優先順位。
守る側は、足場が不安定なまま判断を迫られ続ける。
これは、単なる技術の問題ではありません。
心理の問題です。
ストレス研究では、「予測できない」「コントロールできない」環境が、バーンアウトや認知負荷を強く引き起こすことが知られています(Karasek, 1979; Maslach & Leiter, 2016)。
つまり、人を疲弊させるのは、仕事量そのものだけではない。"読めなさ"そのものなのです。
ここで、AIが構造を変え始めます。
AIは、次のような形で「予測可能性」を生み出します。
- 攻撃パターンの兆候を横断的に捉える
- 異常を人より早く検知する
- ツールに分断されていた脆弱性を構造として浮かび上がらせる
これは、単に速くすることではありません。
見えるようにすることです。
パターンが見えると、不確実性が減る。
不確実性が減ると、優先順位がつけられる。
優先順位がつくと、人はコントロールを取り戻す。
この変化は、運用の変化であると同時に、心理環境の変化でもあります。
ずっと火消しに追われる状態から、「先を読める時間」が生まれる。
ただ反応するのではなく、考えられる瞬間が戻ってくる。判断が、削られるものではなく、
支えられるものになる。
ただし、ここには大きな前提があります。
設計を間違えたAIは、ノイズを増やし、アラートを増やし、かえって不確実性を増幅します。
だから大事なのは、これです。
- 曖昧さを減らすこと
- 意味のあるシグナルだけを出すこと
- 人の判断を支えること
AIの目的は、自動化ではありません。
人が働ける"予測可能な環境"をつくること。
サイバーセキュリティとは、脅威を見つけることだけではない。
プレッシャーの中で、人が判断し続けられる状態を守ること。
AIは、そこに効きます。
速さではなく、不確実性の構造を変えたときに。
---------
AI and the End of Chaos -- Making Security Work Predictable

Uncertainty is one of the strongest drivers of chronic stress.
In cybersecurity, uncertainty is everywhere.
Unknown threats, incomplete visibility, ambiguous signals, and constantly shifting priorities create an environment where defenders are forced to make decisions without stable ground.
This is not just a technical challenge.
It is a psychological one.
Research in occupational stress consistently shows that low predictability and low control are strongly associated with burnout and cognitive overload (Karasek, 1979; Maslach & Leiter, 2016).
In other words, it is not only the amount of work that exhausts people--it is the unpredictability of the work.
This is where AI has the potential to change the structure.
AI-driven analytics can improve predictability by identifying:
- emerging attack patterns across distributed environments
- anomalous behavior earlier than human detection alone
- systemic vulnerabilities that would otherwise remain fragmented across tools
These capabilities do not simply make work faster.
They make the environment more legible.
When patterns become visible, uncertainty is reduced.
When uncertainty is reduced, prioritization becomes possible.
And when prioritization becomes possible, people regain a sense of control.
This shift--from reactive firefighting to anticipatory defense--is not just operational.
It is psychological.
Instead of constant crisis response, teams begin to experience moments of stability.
Moments where they can think, not just react.
Moments where judgment is supported, not strained.
However, this outcome is not automatic.
Poorly implemented AI can do the opposite--increasing noise, generating more alerts, and amplifying uncertainty rather than reducing it.
For AI to genuinely help, it must be designed to:
- reduce ambiguity, not increase it
- surface meaningful signals, not just more data
- support decision-making, not replace it
The goal is not automation for its own sake.
The goal is predictability that humans can work within.
Because in the end, security is not just about detecting threats.
It is about enabling people to make decisions under pressure--and to keep making them, day after day, without breaking.
AI can help.
But only when it changes not the speed of work, but the structure of uncertainty itself.
References
- Karasek, R. A. (1979). Job demands, job decision latitude, and mental strain. Administrative Science Quarterly, 24(2), 285-308.
- Maslach, C., & Leiter, M. P. (2016). Understanding burnout. World Psychiatry, 15(2), 103-111.
- Sayegh, L., Anthony, W. P., & Perrewé, P. L. (2004). Managerial decision-making under crisis. Human Resource Management Review, 14(2), 179-199.
- Shneiderman, B. (2020). Human-centered artificial intelligence. International Journal of Human-Computer Interaction, 36(6), 495-504.
- ENISA. (2023). Cybersecurity and resilience in digital environments.
- NIST. (2023). AI Risk Management Framework (AI RMF 1.0).
- IBM Security. (2024). Cost of a Data Breach Report.