最近の医療安全の話題
5月に国公私立大学附属病院医療安全セミナーが開催され、そのときにレジリエンスエンジニアリングで著名なエリック・ホルナゲル氏が講演を行った。Aiとは直接関係ないが、安全に関する先鋭的な理論家の最近の考えを少し紹介しておきたい。
レジリエンスとはいったん受けた外圧からもとに戻る力を示す物理学の用語であるが、組織の学習能力や適応能力等をたとえて言及されることが多くなった。
ホルナゲルの講演では安全の定義についての言及がなされていた。従来、安全は、受け入れがたい危険な状態が無いことと定義されてきた。医療現場で考えれば、完全な100%の安全というものは無いが、ある一定のリスクを容認しその範囲内であれば安全であると考えようということである。しかしこの考え方は実は事故というネガティブな側面から実態を眺めた問題の立て方である。
ホルナゲルはこの一面的な安全の定義を捨て去るべきだと考えている。彼は「いかなる状態からも目的を達成できる能力」として安全を定義すべきだと主張する。確かに医療現場では膨大な医療行為がかなりの確率で事故を起こすことなく施行されている。おそらく全医療行為のうち数%のみに有害事象が発生し、その中のされにわずかなものが重篤な結果となっているだけだといえる。であれば、うまくいっている膨大な医療行為が、なぜうまくいっているのかを考察することも重要ではないか、とホルナゲルはいうのである。
医療においては、患者の状態もそれぞれ違うし状況も日々刻々と変化していく。通常の工業製品の制作過程などとは異なり、多様な状況から安全に診療を施行する必要がある。従来型の安全の定義では、正しい過程がありそこから逸脱するから不安全な状況が発生すると考える。一方新しいホルナゲルが提起するような安全の定義では、様々な状況から適切な結果を導き出す創意工夫やアイデア、コミュニケーションなどの能力が問われることになる。
さて、Aiの諸問題にこういった新しい安全の概念は何か影響を及ぼすであろうか?
実はAiはその特性上、事後的な評価や判定に用いられることが多い。つまり放射線画像で把握できる人体内に発生した事象についての情報しか得ることができず、その情報をもって発生した有害事象の解釈に用いられる。これは従来型の安全の定義で発生した事象を検討する場合には、非常にネガティブな側面からの言及に陥る可能性がある。画像でこれが見えるから、これこれが原因かもしれないというロジックである。これは原因の究明という観点からは必要なことであるし、冤罪を防ぐという点でも重要であるだろう。
一方レジリエンスという観点からはこの情報はいかに利用可能なのだろうか。
兼児先生がAiのメディエーション機能と称し、また画像情報が対話を促進するという観点からは、いったん発生した関係を再構築するという社会的な視点でレジリエンスの機能を担っているという言い方もあるのかもしれない。また医療行為自体をレビューすることによって組織としての学習機能を高めるという言い方も可能だろう。だが、私としては、もう少し深化(進化)させた形でレジリエンスとAiの問題を考察してみたいと考えている。