コーヒータイム -Learning Optimism-

本を読むということは、これまで自分のなかになかったものを取りこみ、育ててゆくこと。多読乱読、英語書や中国語書もときどき。

【おすすめ】社会生活のあらゆるものは「システム」の一部である〜C.クリアフィールド&A.ティルシック『巨大システム失敗の本質』

 

 

必読。システムというものがコンピュータの中だけではなく、電力、ガス、上下水道などのライフラインだけではなく、社会生活のすべてにわたって考えられなければならないことを明らかにする書。

だが副題「たった一つの方法」は言い過ぎかもしれない。本書ではいくつもの具体的方法を紹介している。ざっくりまとめるならば「複雑さを減らして結合を疎に(弱く)しよう」なのだけれど、それを試みるための方法は種々様々で、ひとつ試してみて合わなかったらもうひとつ、と、色々選択できるのも本書の良いところ。

 

以前、同じようなテーマを扱った『最悪の事故が起こるまで人は何をしていたのか』を読んだときに書いたことを、ここでもう一度思い出す。

失敗学について学ぶとき、私は昔読んだ雑誌掲載の素晴らしい短編小説をよく思い出す。たった数ページの小説だ。ある平穏な海域で沈没事故が起こり、乗員全員海に消えた。救助船は現場でガラス瓶を見つけた。中には33名の乗員全員の名前と短い書き付けがあった。「x月x日。私は⚫︎⚫︎港で電気スタンドを購入しました。」「x月x日。私は『その電気スタンドは重心が高くて倒れやすいね』と言いましたが、それ以上注意を払いませんでした。」から始まり、見回りで部屋の中まで確かめなかった、消防設備点検のためスイッチを切った、ブレーカーが落ちたがその意味を深く考えず上げた、と、小さな出来事を並べ、最後に船長の名前でこう書いてあった。「19時30分、事態を把握した時には、電気火災で船員部屋が二つ焼け落ちていた。我々は懸命に努力したが消火できず、ついには船全体に火がまわった。我々一人一人が犯した間違いは小さなものだった。だがそれが取り返しのつかない大きな間違いに発展してしまった。」

本書もそうだ。些細なこと、常習化したちょっとした例外、時間節約のために省いたほんのすこしの手続き、日常に紛れて気にならなくなったことが、やがて大事故にむすびつく。

「システム思考」という言葉をビジネス書のタイトルで目にしたことがある。ものごとを単独で考えるのではなく、つながり、因果関係をもつひとつなぎの巨大なシステムの一部として考える、くらいの意味だったと思う。結局のところ、システムがうまくまわっている間は、それがどうやって働いているのかだれも気にしない。トラブルが起こり、一見関係なさそうなことが深刻な打撃を受けたとき、「こういうつながりがあって、こういう影響が及ぶのか!」と、驚きとともに理解する。福島第一原発津波が襲ったとき、非常用電源自体は高所にあって一部被害を免れたものの、非常用電源から原発本体に電気を送る中継点が低所にあって海水をかぶってしまったために、全電源喪失となった、という例が本書に登場する。

新型コロナが公共衛生及びそれを支える社会システムに猛烈な一撃を加え、経済活動が停滞しているいま、いまある社会システムの脆弱性、因果関係について、じっくり考えてみるよい機会だと思う。

 

複雑なシステムで、ひとつのできごとが間をおかずにまわりに広まると、あっというまに深刻な状態に陥ることがある。逆にいうと、複雑で相互作用が強いシステムでは、大事故が起きるのは時間の問題、ということもできる。対策はシステムをシンプルにして、相互作用を弱めること。だが現代社会は真逆の道を突き進んでいる。ものごとはどんどん複雑になり、予算カットやスケジュール短縮などで余裕はどんどん削減され、それが賛美される。

ペローはこの種のメルトダウンを、「ノーマルアクシデント(起こるべくして起こる事故)」と名づけた。「ノーマルアクシデントとは、安全を期すためにどんなに力を尽くしても、(複雑な相互作用のせいで)複数の失敗の間の思いがけない相互作用が、(密結合のせいで)失敗の連鎖を招いてしまうような状況をいう」と彼は書いている。そうした事故を「ノーマル」と呼ぶのは、頻繁に起こるという意味ではなく、あたりまえで避けがたいという意味だ。

面白いことに、「密結合」ーーあるできごとがすぐに別のできごとを起こす状態ーーシステムとして、本書ではSNSがあげられている。いわゆる「炎上」だ。誰かの不注意な一言がツイートや動画としてあっという間に拡散され、コメント欄が批判や攻撃であふれ、当事者が謝罪に追いこまれる。ここまでたいてい数日間もかからない。

ではどうすればいいか。本書の7割はこのために割かれている。ようするに、複雑さを減らし、結合を疎にすればよい。だが現実としてシステム自体を変えることは不可能に近いーー銀行勘定系システム、電力インフラ、郵便局、農協、医療システム、税金体系、etc、etc、いずれも容易に手がつけられるものではない。

ゆえに本書ではシステムではなく、システムを相手取る人間がどうふるまえばいいかを考える。たとえば気象予報士のように意思決定の結果について頻繁なフィードバックが得られる(窓の外を見てみればよい)環境にある人は、適切な経験を積み、判断能力を鍛えるができる。だが、警察官や判事や医師のように、フィードバックを得るのが難しく、立場上間違いを認めづらい(誤認逮捕や冤罪判決や誤診は起こらないのが理想で、万が一起こったら当事者たちは徹底的に責めたてられる)人々は、判断能力がなかなか磨かれないかもしれない。ならば適切なフィードバックを得られるよう、なんらかのーー複雑すぎないーー仕組みが役に立つかもしれない。たとえば病院内部で日々のちょっとしたミスやミス未満を報告するなど。

面白いと感じたのは、本書で「死亡前死因分析」と呼んでいる手法だ。水晶玉をのぞきこんであるプロジェクトが2年後だか5年後だかに【失敗した】ことがわかったことにして、失敗原因、動向、出来事を【プロジェクト開始前に】考えるのである。いわば後知恵の先取りのようなもので、【失敗した】と想像することで想像力が刺激され、思いもかけないようなリスクをあぶり出すことができるという。プロジェクト開始前に【どうすれば成功できるか】と考えるのとは真逆に【もし失敗するならどういう原因が考えられるか】と考えるのだ。

実は、私たちはこういう想像を毎日行なっている。「スーパーを見たら子どもがアイスクリームを欲しがって泣きわめくから、スーパーを通らないようまわり道をして帰ろう」といったことだ。これを複雑なシステムにも応用できる、と説明するのが本書。ほかにもいくつか面白い方法が紹介されているが、どれもすぐにできることだ。だが、それをやらない組織のいかに多いことか。

組織が改善するのを待つのではなく、本書で紹介するさまざまな方法を個人で始めてみよう。習慣化すれば、思いがけないほどの効果があるだろう。中国の故事にあるように、最高の名医とは、ひとの生活習慣を改善させ、病気を未然に防ぐ医師だ。