Chapter.14「人は『わずかな骨を惜しむ』生き物である。」

 「○○のために骨を惜しまない」とか「骨身を惜しまず…」とか言う誉め言葉があります。
しかし同時に、人間は「わずかな骨を惜しむ」生き物でもあります。

 14-1「なるべく楽に仕事をしたい」
   「少しでも速く、効率的に、楽に仕事をおえて」ちょっと得をした気持ちになりたい、とつい手を抜くことがあります。
この「楽に仕事をしたい」という人間としての自然な気持ちが、人間をして道具や機械を開発させ、技術の発展の原動力になったことは誰もが認めることです。
しかしそれが、危険やミスを回避するために検討され、ルール化された合理的な日常の手順を省略したり手抜きをするようになったときどうなるでしょう。
そこには事故の落とし穴が開くことがあります。
とはいえ、単純に「マニュアルを頑なに守れ」「省略行為は一切許さない」とルールをいたずらに厳しくするだけでは職場がギスギス・イライラしてくるだけで、
事故につながるエラーは減らないでしょうし、仕事そのものへの内容的理解も深まらないでしょう。

「どこで、いつ、何故、どんな風に、省略したくなるのか、手を抜きたくなるのか」を考える事で事故につながるエラーを減らすことが出来るかもしれません。

 14-2 「ルールを破る心理」
 どんなときにルールが破られるのでしょうか。
その心理を元鉄道総研の心理学者芳賀繁立教大学助教授は以下の5つを上げています。
 
1)ルールを知らない
   何か起きたとき「知らなかった」と言ういいわけが当事者の弁として良く聞くことがあります。
「知らなかったのならしかたない」と大目に見られる傾向がよくありますが、 それは間違いです。知らないまま行っていた自分、させていた組織、マニュアルは教育されていたかどうか、が問題です。
(誤解されても困りますが、どちらかというとルール違反と知りながら、それなりにリスクを計算して、 「省略行動」「違反」をした方が「レベルが高い」かもしれません。考えているのですから…)
2)ルールを理解していない
  「ルールは知っている」しかし何故そうしなければならないのか、なぜそうしてはいけないのかを理解していなければ「違反」「省略行動」はおこります。
幸運な無事故期間」が続いて他の要因が加わると「これくらいいいじゃないか」とか「改善」という形で 組織的に「省略行動」を行ってしまうことがよくあります。
何度もでてくるJCOの事故が典型です。 「know howよりknow why教育」「バックグラウンド教育」が必要な理由はここにあります。
3)ルールに納得していない
  「知っている」「理解している」しかし納得していない、という場合の多くは理解の不足です。
これは次の項目の1)リスクの過小評価が加わったりすると「省略行動」「違反」が誘発されます。 たいていの場合はあなたよりも「ルール」「マニュアル」のほうが正しいのです。
4)みんなも守っていない
  「赤信号皆で渡れば怖くない」という気持ちでしょうが「皆で渡れば誰か死ぬ」です。
5)守らなくても罰せられない
  「エラー」に関しては原因の追及と責任の追及は別、という観点から「組織の不安全要因の情報」であるとか「その結果」と考えなければならないのですが 「違反」行為はそのままにしておくと組織のルールが無くなります。もちろん、守られないマニュアルの検討も必要ですが…。

 「危険なことをあえておこなう心理」
  もうひとつ、ルールはともかく、危険と知っていながらそれをするという心理があります。
 人間の行動には多かれ少なかれ何らかのリスクが伴います。ですからリスクのある行動をしたこと全てが悪いわけでなく、  冷静にリスクを見積もり最善の策としてそうしたのなら、  それはそれで評価の仕方が変わってくるのですが…。人はどういうときに「危険なことをあえて行う」あるいは  (何かすべきな時に)「おこなわない」のでしょうか?
 
1)リスクに気づかないか、主観的に小さいとき
2)リスクを犯しても得られる目標の価値が大きい
3)リスクを避けた場合のデメリットが大きい

ですから「骨を惜しむこと」「ルール違反」などが事故に結びつかないようにするには
上記5+3の8つの要因を少しでも減らすということを考えなければなりません。


 14-3 「組織的なプレッシャー」(危ない。でも急がなければ…)
 「省略行動」「手抜き」はそれ自体非難されるべきことですが、 その「判断」に組織的プレッシャーが影響していることがあります。
自身で明確に意識したかどうかは別としても、何らかの形で影響している可能性はないでしょうか。
その代表例が スペースシャトル・チャレンジャーの爆発事故です。 部品に問題があり、打ち上げの延期を部品メーカーから再三要請されていたにもかかわらず、 NASAの予算獲得の都合、数ヶ月打ち上げが遅れていた、レーガン大統領の演説にタイミングを合わせる必要があった、いままでなんともなかった、などから 「最悪の日に」打ち上げを強行してしまったのです。
JCOの臨界事故も(いろいろな理由の他に)他業者との価格競争のプレッシャーがあったそうです。その結果生産性向上に結びつくなら、と 裏マニュアルすら省略されるようになってしまったといいます。
この場合は「臨界」という最も基本の教育が現場の誰にもなされていなかった、という点が一番の問題なのですが。
不安全行動がどのように事故に結びつくか
  私達の現場でも(産業界で言う)「省略行動」はあります。
例えば、仕事が集中してしまったとき、ある仕事を中途のまま、「次のことをしたあとに…」などと考えているとき。
「これは今までの経験から、省略しても大丈夫」「どうせ変わらない」と考えている(思い込み)ときなど、本当は必要なことをつい「省略」してしまう可能性は十分あります。
確かにたった一つの「省略行動」では事故に結びつくことは極めてまれです。しかし、そこにヒューマンエラーが重なったら…。
図はヒューマンエラーと「省略行動」「違反」の関係です。常に事故になるわけではないことが問題です。
特に、すぐに「悪影響」が表れない場合はそれが常態化してしまいがちです。感染管理の分野で特に多く見られるような気がします。


 14-4 「幸運な無事故[1]」からルールが壊れる
 
○○をしても(あるいはしなくとも)大丈夫よ…」と同僚
ああ、あれ。ほうっておいても、いつもだいじょうぶよ」と3年先輩のナース
教科書にはああ書いてあるがな、俺が経験していないのだから、少しぐらい大丈夫だよ」と先輩の医師

仮に、明らかな事故が起こらなければ、このような発言(と行動)は徐々にエスカレートしていき、「自信」もついてきます。
その結果(実際の)ルールは変更(「改善」)されマニュアルはシンプルになっていきます。

しかし事故がおきなかった、というのは単に「幸運だった」だけかもしれません。 多重防御(スイスチーズ)の穴がたまたま重ならなかったという(自分の)経験だけなのです。

これを証明する事故の例はいくらでもあげることが出来ます。
最近の例では、1999年の東海村JCOの臨界事故です。(JCO事故に関してはヒュマンファクター的観点からいくつもの分析が発表されていますので参考にしてください)
一般に、産業界では「幸運な無事故」の期間が長く続くと、力を生産性の向上へシフトするように圧力がかかります。 そしてしばらくすると事故がおき、そして今度は安全対策へ力をシフト、この繰り返しです。

我々の現場でも同じです。「ある事故」が起きたときにはその予防対策を一生懸命おこない、危険を避けるルールをつくったりする (その結果マニュアルはだんだん厚くなる)のですが、「幸運な無事故」が続くと「事故の衝撃」は忘れられ、過去のものとなります。
(割と簡単に忘れます。「そんなこと、起こしたことないもの」と平気で言います。
人間は嫌な過去を忘れやすい[2]存在かもしれません。だから前へ進めるのかもしれませんが…) 「失敗学」の畑村洋太郎名誉教授は「失敗(情報)は隠れやすい[3]」「省略されやすい」と指摘しています) そうすると作ったルールが「何のためか知らない、わずらわしい無駄なこと」に見えてきます。
そんなときに「無駄を省く」とか「業務の改善」などという(委員になったり)「掛け声」、プレッシャーがあったら…。

「know howよりknow why」「バックグラウンド教育」が叫ばれる所以です。
「過去に作ったルールには何か理由がある(かもしれない)」
「今日安全だったのはたまたま幸運だった(のかもしれない)」
「貴方の提案する改善は「改善」なのか「省略」なのか」
「なぜ「改善」が必要なのか、「改善が目的」なのか」
「うまくいっているものをあえて変えるのは危険を伴う」

などを考えることが必要です。


 14-5 わずかな骨をおしまない、で
 とはいえ、「省略行動」や「骨を惜しむ」ことが常態化している、 ということはそこに何か本当の業務改善のかぎがあるかもしれません。もちろん教育も含めてですが…。

 14-5-1 仕事や仕事をする環境が省略行動を誘発していないか
   「SHELL」で考えてみましょう

  H器械・設備的に問題はないでしょうか?
 例えば、誤報の多い警報なら「切ってしまえ」という気持ちになります。
またICUの改造の際に、「どうしてもICU内に手洗いを」という筆者に対して設計者は「手は詰め所に戻って洗えます」と主張しました。
「看護婦さんはそんな状態なら絶対手を洗わない」と結局は内部に作ってもらったのですが…。 現場と管理者・設計者の感覚の違いはこんな事にも現れます。
人間は必要だと知っていても、その行為にいくぶんかの手間がかかり、すぐに結果が出ない(悪影響が見えない)と判断すると「省略」してしまうことが多いわけです。 ですからこの設計者は病院の設計に多くの経験があるかもしれませんが、ヒューマンファクターを考えない(「服に身体を合わせろ」的な)働きにくい施設になる可能性がありますね。 そういえば「bad design」に推薦したいようなサクション・酸素の配置もありました。

S特定の一人や二人が「省略行動」をするならともかく、 皆がそうなら、
   守りにくいマニュアルに問題はないのか?と考えなければなりません。

 もちろん、むやみに「ひと」にあわせる必要はないのですが。

E特にベテランの「省略行動」や「ルール違反」を甘く見たり、
   「ゆるしてしまう雰囲気」はないでしょうか。

 「エラーに厳しく」「違反に甘い」という日本人の悪い習慣 はないでしょうか?そして安全に対する改善の提案に対して管理者は「イエス」「ノー」でもきちんと答えているでしょうか。 「何を言ってもなしのつぶて」の環境では組織全体に最初から「あきらめ」ムードが漂ってきます。
Reasonは「意識の腐敗」と言っています。

L人間関係が「省略行動」「違反」を生むことがあります。
 他人や同僚に対する見栄、良いかっこしたい、という気持ちはだれにもあります。「他人の眼」がプレッシャーになることもあります。
逆に他の人の「不安全行動」「省略行動」を注意したりすると「気まずく」なったりする雰囲気はないでしょうか? (「Chapter.7 コミュニケーション」や 「Chapter.11 あなたは自分の上司や同僚の過ちをどう指摘しますか?」 も参考にして下さい)

  14-4-2 省略を見込んだシステム
  産業界の対策の一つに「省略を見込んだシステム」という考え方があります。
省略したい、と思ってもそういうバイパス経路には何らかのブロックをつくる、という考え方です。 例えば家庭の電子レンジです。使用中に何かを追加しようとして扉を開けようとすると止まってしまう、とか使用中は扉が開かない、というシステムです。
フールプルーフといいますが、シリンジポンプなども一度ストップしなければ 設定の変更は出来ないようになっていますけれども、シリンジの場合の間違いは、 設定変更後再度「開始」を押さなければ再開しない仕組みで、それを忘れることの方が多いわけです。
このような場合一方の対策がもう一方のエラーの原因を作っているような気がします。

結局のところ人間は(という言い方に問題があるなら、私や「貴方」のような凡人は)
「楽をして、うまいものを食いたい。いい思いをしたい」
「好んで苦労はしたくない」
と考えていることが多いのです。
ある意味では、そういう欲求を(わずかの)理性や知識で抑えつけながら日々生活しているのかもしれません。
その「力」がReason[4]のいう「安全エンジン」のひとつかもしれません。
「安全エンジン」はストップすると(「停止」ではなく)飛行機と同じで「墜落」してしまします。

-----------------------------------------------------
引用紹介と註解[2005.12.24追加]

今回は以下の文献を参考にしましたが、内容をじゅうぶんに理解できているわけではありません。ぜひご自分で原著に当たられることをお勧めします。
芳賀繁 失敗のメカニズム 日本出版サービス  2000


[1] J.Reason 「組織事故」1999
[2] 個人個人の心の中はわかりませんが、 組織として「忘れないように」「思い出させる」する工夫が必要と言われています。
一般の企業では「○○の日」という形で「結果としての教訓」ばかりでなく「デイーテル」を想起させるようにしているところがあります。
一方で、その部門の管理者にとって「事故のことなんかはやくわすれて…」とか「部門の恥なので記憶から消してしまいたい」という気持ちから 「語り継ぐ」ことが避けられる傾向もあります。
しかし、実際の失敗を語り継ぐことがもっともインパクトのある効果的な安全教育なのです。

[3] 畑村洋太郎「失敗学のすすめ」 「失敗学の法則」では、 「伝言ゲーム」と同じように、いやそれ以上に、「失敗情報は隠れやすい」と指摘しています。 時間の経過と共に「変質」したり、「減衰」したり、「単純化」していきます。「歪曲」されたり、「神話化」されることすらあります。
失敗を正確に伝える情報でなければ次の失敗を防ぐ役に立ちません。また、あまりきれいに(枝葉を切り取られ)「客観化」された情報よりも、 当事者の視点から記述したもの(つまり、その時どういう風に考えていたとか、プレッシャーがあったとか)しか本当の意味で正確に伝わらない、といいます。
このことは、「エラーを一般化する、知識化することが必要」と前に述べたこととは矛盾しません。
「一般化」「知識化」のなかにはヒューマンファクターですから、当然当事者としてのLの視点が入っています。
 畑村教授によると<失敗情報の特性>は以下のようなことだそうです

1.失敗情報は伝わりにくく、時間が経つと減衰する
一度経験した失敗がごく短期間に忘れられ、同じ失敗を繰り返しやすい。

2.失敗情報は隠れたがる
自分が犯した失敗を忌み嫌って無視してしまったり、販売提携先に失敗(製品の欠陥)を隠したりしてしまうと 取り返しのつかない事態を招来してしまうことがある(例えば三菱自動車リコール隠し)。

3.失敗情報は単純化したがる
失敗には複数の原因がからんでいることが多く、これをひとつのフレーズで単純化してしまうと(例えばIT不況、ネットバブルだから)、ここから得られものは限られる。

4.失敗原因は変わりたがる
失敗に関わった人たちの利害によって失敗が意図的に歪曲化される(例えば、販売提携先の営業怠慢にもかかわらず、製品の欠陥が販売不振の原因となっている)。

5.失敗は神話化しやすい
失敗が神話化してしまうと(例えばドーハの悲劇)、情報の本質のそのものが見えなくなる。

6.失敗はローカル化しやすい
ひとつの場所で発生した失敗が他には伝わらない。ひとつの部署で発生した失敗を組織で共有できないことで、同じ類の失敗が他の部署でも繰り返される。

7.失敗は知識化しなければ伝わらない
知識化とは、起こってしまった失敗を組織全体が将来使えるよう知識にまとまることで、失敗情報の正しい伝達には不可欠である。

[4] J.Reason イギリスの認知心理学者「組織事故」「ヒューマンエラー」で有名。よく引用される「スイスチーズ」は「組織事故」がオリジナル

 
[メインページへ]