私たちの生きている社会は一歩間違えれば重大な結果を引き起こしかねない産業・職業とそこで働く人々の存在なくしては成り立ちません。
そうした危険と隣り合わせの仕事に人間がかかわっている限り私たちはヒューマンエラーと無縁ではあり得ません。 ヒューマンエラーの問題を明らかにし取り組み始めたのはご存じのように、航空界、原子力発電業界でした。 多くの悲惨な事故を経験し、それに対して数々の有効な対策を積み重ねる中で最後に残ったのが「人間の問題」でした。 私たちの「業界」も規模こそ違いますが「危険と隣り合わせ」の仕事であることは間違いありません。 そして他の産業と比べても「人間がかかわる」場面が多いのです。 つまり、私たちの仕事はよりヒューマンエラーと関わりが深く、その認識と取り組みが必要といえます。 「ヒューマンエラーに取り組む」ということは何が何でもエラーを起こさないようにさせる、ということではありません。 人間の特性と限界を知り、人間を中心にしたシステムを考え、エラーが事故に直結しないようにしよう、というものです。 現在、医療機関は社会から厳しい眼で見られています。 その見方の全てが正しいとは言えませんが、エラーを最大限予知し、防ぐこと、エラーを事故につなげない対策を考えること、 エラーの結果とその影響を最小にすることが必要です。 また万一事故が起きたときにも正しい対応をしなければ組織自体を維持することは出来なくなります。組織ばかりではありません。 私たち自身が「生き生きと」「やりがいを持って」「明るく」働くことが出来なくなります。 存在しない「安全」、あるのは「危険」ばかり 私たちの現場はなによりもまず「安全であること」が求められています。 では「安全」とはどのような事でしょうか? 単に「事故がない事」をいうのでしょうか? そもそも「安全」というものがあるのでしょうか? いや、あるのは「危険」ばかりなのです。 英国の心理学者Reasonは「安全」を「組織が日常的に曝されている危険に対して抵抗力をもっていること」と定義しています。 つまり、エラーや事故についての知識をもつこと、人間の能力や限界について知ること、 それらについてどのような態度やふるまいをするかがその個人やチーム、組織の「危険に対する抵抗力」であり「安全」への態度である、というのです。 他にも安全の定義があります。ローレンスは「許容される危険」と定義しています。 どの定義をみても「安全」といわれるものは存在しません。あるのは「危険」だけなのです。 「危険」に立ち向かう人間、その特性 それでは、その「危険」にたちむかう人間はどんな特性を持っているのでしょうか。 スライドは人間のエラーにいたる特性を12カ条に表した言葉です。(web「安全の小窓」より)
しかし、この全てを「悪いこと 」[1]と否定することが出来るでしょうか。また逆に「だから仕方がないのだ」とあきらめるわけにもいきません。 まず、この特性をそのまま受け入れる必要があります。 論理的でない人間 しかし・・・ 自分自身のことを考えてもわかるように人間の特性・行動は常に論理的であるわけではありません。ある意味ではエラーの塊(かたまり)といえます。 しかし、スライドに挙げたエラーを起こしかねない人間の特性はほとんどの場合にすばらしい能力としてもあらわれています。 スライド
たとえば「注意の分散」は複数の仕事を効率よくこなしていく事に結び付きます。 「思い込み」は経験や理論からトップダウンの判断をし「大局的な判断」「論理的な判断」をすることができます。 「限られた情報から判断する」ということは逆に効率的で素早い対応ができます。 「行き当たりばったりの行動」ということは「柔軟性」の一面ともいえます。 つまり人間は思考と行動の特性としてこういった両方の面をもっているといえます。 人間の特性を他(ほか)の側から見てみるとこんな事も言えます。 私たちは 生物としてのヒトであり、心を持った感情豊かなひとでもあり、 本音も建て前もある社会的存在としての人間、という面を同時にもっています。 情報の入力系としての感覚器官はいろいろあるのですが情報の処理系としては単一チャンネルです。 おまけに簡単にそれが中断されたり、乗り換えられてしまうおそれがあります。 他にも、できれば楽をしたいと考えたり、本音とたてまえの両方を使い分けたりする特性をもっています。 また、生理学的にも夜は眠いし、遅くまで飲んだ翌日はあまり仕事をしたくありません。歳をとると身体がもたなくなることもあります。 私たちが毎日行動していく場合、こういう特性がいつも「あらわれたり、ひっこんだり」していると考えることが出来ます。 それを「情報処理資源」としての「注意力」や「意識」でコントロールしようとしていますが、これにも限界があります。 こんなこともエラーを避けることができない原因となります。 「夜は眠い」。「昼もねむい!?」 また、意識とは少し違いますが人間の覚醒度は、特別の疲労とは関係なく日内変動があるといわれています。 フリッカーテストやMSLTという検査を用いて行うのですが、 それによると人間の覚醒度は午前2時から6時ぐらいの大きな低下と午後2時から4時位までの小さな低下があります。 この二つの時間帯に産業事故、交通事故・違反が多いことがいろいろなところで証明されています。 有名な「大事故は夜明け前に起こる」(マーチン・ムア・イード著 講談社)では事故とサーカデイアンリズムの関係が明らかにされています。 当院でもこの時間帯に「ポカミス」ガ多いそうです。 ヒューマンエラーは「結果」である -「ヒューマンエラー」の定義- ヒューマンエラーの定義はいくつかありますがおおよそこのようなものです。 「人間が生まれながらに持っている特性と、人間を取り巻く広い意味での環境が、相互作用した結果、引き起こされたもの」(東京電力) 「意図した結果に至らなかった人間の行為や決定」(日本ヒューマンファクター研究所) 大事なことはヒューマンエラーは「人間の思考や行為に影響を与える要因」が私達の周りにたくさんあり、 それに影響され行動したその「結果」であるということなのです。 ですから、マスコミなどに何かあるたびに「ヒューマンエラーが原因」などとデカデカと見出しが出ますがこれは大きな間違いです。 注目されるヒューマンエラー 最近、医療に限らずヒューマンエラーが注目されています。 何故なのでしょうか?
人間の行動(情報処理過程)とSRKモデル 人間は何かの情報を得て行動を起こす場合、全て「同じように」に処理されるわけではありません。 行動の内容によりいくつかの段階に分かれて処理されています。それをわかりやすくしたのが有名なデンマークの認知学者ラスムッセンのSRKモデルです。 つまり人間の行動は3つのパタ−ンに分けて考える事ができます。
このように人間の行動を3つのパタ−ンに分けて考えると、日常発生する業務は内容によってそれぞれのレベルに従って処理されていることがわかります。 しかし本来知識レベルで処理されるべき作業が、規則レベル、あるいは反射操作レベルで行われる場合、 適切な判断による行動決定が行われず、結果としてエラーとなってしまいます。 本来規則レベルであるべき作業が反射操作レベルで行われたときも同様です。 このように情報が適切なレベルで処理されないときにもエラーが発生します。 「(本当は条件が違うのに)つい、いつものようにやってしまった」というような場合などです。 エラ−のタイプと認知行動の関係 またエラ−を発生の仕方から考えるとこんな風に分けられるようです。 (ホ−キンスの「ヒュ−マンファクタ−」などから)的に向かって弾を撃ったときを考えます。 左は初心者が的を狙った場合こうなります。弾がどこに行くかわからない。これをランダムエラーといいます。 真中の図は弾が片方に偏ってしまうような場合です。発生が一定の傾向を持っているのでこれをシステマチックエラーといいます。 右が経験者の場合ですがほとんどが中心にあたるのですがたまにとんでもないところに弾があたっています。これをスポラデイックエラーといいます。 これらはそれぞれ前の項で挙げたナレッジベース、ル−ルベース、スキルベースの行動に対応しています。 初心者に多いランダムエラーの原因は知識や技術が未熟なのですから、対策は人選、教育訓練、経験ということになります 。[2] システマチックエラーの原因は道具や方法、教育や経験、トレーニングにバイアスがかかっていたりすることが多いようです。 原因を明確にし本来の目的を納得させる事でエラーを低減する事ができます。 またエラーを誘発させる環境を改善したり、誤解しやすいマニュアルの改善も必要かもしれません。 スポラデイックエラーはベテランといわれる人でも突然、気が散ったり、欲がでたり、 プレッシャーなどで無意識に手が動いてしまって、というような場合です。 でも、このタイプのエラーにトレーニングを強化したり、教育を繰り返しても効果はありません。 なぜなら意識していない行動ですし、知識がないわけでも、やる気がないわけでもないからです。 また、このタイプのエラーに対して、「集中しなさい」とか「気をつけなさい」「真剣に!」 などと個人の精神力に頼る方法では一時的な対策にしかならないという事も理解する必要があります。 このタイプのエラーは極めて人間的なエラーで完全に無くすことは出来ないといいます。 スポラデイックエラーに対しては前2者に対するようにエラーの発生を防ごうという対策だけでなく、 エラーを早期に発見し、修正し、発生したエラーの影響をやわらげる、「エラーと共存し管理する」という発想がどうしても必要になります。 この辺のことについてはホーキンスの「ヒューマンエラー」(成山堂)やこの後の講座を参考にしてください。 結局、エラーの「タイプ」によって対策も異なります。 医療を安全にするためには、一言で言いますと @ルーチン作業がきちんとできるように技能を磨き、 Aルールおよびマニュアルを整備し、 B必要な知識を常に吸収し、 C問題解決能力を身につけること D(そして組織としては)エラーの発生を低減するだけでなく、エラーを事故 に直結させないような対策が重要になる、というわけです。 社会心理学的視点 「集団のなかの自分」がエラーを誘う?! 私たちは「ひとり」で仕事(や生活)をしているわけではありません。 「チーム」の一員として仕事にかかわり、「チーム」の外側にはもう一つ大きな「組織」(病院であったり会社や工場)があります。 その外側には、職業的集団(同業者?)や社会があります。こうした「集団」にはその集団特有の文化とか雰囲気といったものがあります。 良く言えば伝統や社風といってもいいでしょう。 そのなかにいる私たちが(意識的にも無意識的にも)集団の影響をうけ行動していることは間違いありません。 安全が最優先されている組織のなかにいると、誰に言われるともなく、きっと思考や行動もそのようになるでしょうし、 もし逆であれば(一人であればきっとおこさなかっただろう)不安全行動やエラーが誘発されてしまうこともあります。 そればかりではありません。「皆が気づいているエラー」が修正されずに放置され事故にいたってしまうことまであります。 また集団(含、社会)での意思決定(話し合い、会議)に関しても多くの問題点があることが指摘されています。 「集団」あえあるが故に、「チーム」であるが故にエラーが生じやすくなることもあるのです。 →「集団のなかの自分(個人)」の問題は、この後の「チームワーク」関連、「アサーテイブコミュニケーション」関連、 「組織の老化」関連、「安全文化」関連、「技術者の倫理」の記事をご覧下さい 医療現場はさらに雑然とした認知・情報処理環境である 人間の情報処理モデルはおおまかに考えるとこのようになっているようですが、
入力情報に比べて「中枢処理」の情報処理量が極めて小さく、「単一チャンネル」と言われ、 (それをなんとかしようとしているところから)多くの問題が発生しているようです。これに関しては認知科学のテキストをご覧ください。 (「信じられないミスはなぜ起こる」黒田勲、中災防新書など) 下の図は人間の情報処理モデルを医療現場に置き換えたものです。 これを見ると医療現場の特殊性が、より人間の行動にヒューマンエラーを生じさせやすくなっていることがわかります。 赤枠のところが情報処理のプロセスですが、まず外から情報を取り入れるところから始まります。 この時点ですでに情報を誤って認識してしまうことがあります。聞き違え、見間違いなどです。 また、情報が正しく与えられてさえいれば、間違うはずがない、ともいえません。 人間は与えられた情報の全てを取り入れているわけではないからです。 与えられた情報の一部だけしか利用せず、自分の持っている知識・経験を活用しながら、処理する情報を限定し、情報処理の効率を高めています。 極端な表現をすると人間は「都合の良いところしか聞いていない」「見ていない」ことがある、とも言えます。 殆どの場合それでうまくいっているのですが、そうではないこともあります。 曖昧(あいまい)で多様な情報、不完全な情報から経験や知識を利用してヒューリステイックな判断をしたりトップダウン的思考で判断した場合、 結果的に的確な判断に必要な、情報やリソースを活用できていなかった、ということが少なくありません。 またこれらの回路の精度維持は「意識水準」が保たれている事が前提です。 この意識水準の維持は難しく、疲労や時間(シフト勤務)などといった悪条件も加わります。 また「注意力」の維持は20分が限度ともいわれています(これについては別稿で)。 医療現場では「情報の曖昧さ」「多様性」とそれを補う人間やシステムの「補完機能」のバランスが他の産業と違い、 エラーがより誘発されやすくなっているのかもしれません。 例えば「鑑別性の悪い薬品」の代表例として、10%キシロカインと2%のそれとは、なんら特徴の違いがありません。 「先入観」として「アンプルはたいていの場合一回に1アンプル、または慎重に使用して半分」という「覚え方 」[3]、があります (本当は正しくありませんが、ほとんどのものはそれで間に合います)。ところがこの場合1アンプル使用すると少なくとも5-10倍量が入ってしまいます。 この事故が全国で頻発しています。そこに物理的・形態的違いはありません。まして多くは緊急時に使用することの多いものです。 その他に同じ様な名前の「薬剤」がたくさんあります。 また「同じ様な操作」ではチューブ類があります。 「ラインに注入」という操作などでは、ごく少し前まで点滴と胃管などへの注入は同じ「三活」「注射シリンジ」が使用されていました。 その為の事故が頻発したのです。こんな事はお役所が規格を決めておけば予防できたはずのことなのです。 東京電力河野氏はこんな医療現場の特徴を次のように挙げています。
医療現場ではこのように雑多な環境[4]のなかで、複数の患者さんに、複数の医療従事者が、断続的にかかわり、 あるいは関わり自体が頻繁に中断させられながら、24時間いつおわるともない、医療行為が続けられているのです。 以上、いわゆる「事故原因」の80%を占めるヒューマンエラーをどのように捉えるのかを考えてみました。 いかがでしたでしょうか? この連載にご意見、苦情、ご批判をお願いいたします。また、「こんなことなら私の方が・・」というかたはリレー連載の仲間にどうぞ。
| |||||||||||||||||||||||||||||||||
  | |||||||||||||||||||||||||||||||||
[メインページへ] |