病院で人間の介護看護師が下した判断を、AIが覆すようになった
病院で人間の介護看護師が下した判断を、AIが覆すようになった
2023年6月19日(月)
人工知能(AI)ロボットと引き換えに、実際の人間が医療から追い出されつつあります。このロボットは現在、病院の看護師を圧倒していると言われています。
長い間、医療施設で実際の人間が行ってきた生死の判断は、今や、患者に神のみぞ知ることをするようにプログラムされたコンピューターによって行われている。
メリッサ・ビービーという名のある腫瘍科の看護師は、緊急治療を必要とする患者を助けるために観察力を頼りにしているが、AIの浸透によってケアの方法に見られる変化について、ウォールストリートジャーナルの取材に答えた。
「私は15年間がん患者を診てきたので、敗血症の患者を見ればわかります」ビービーは、最近カリフォルニアのUC Davis Medical Centerの腫瘍科病棟で受け取った、間違っているとわかる警告についてこう語った。「この患者は敗血症ではないと、私は知っていました。
ビービーが受け取ったアラートは、AIが当該患者に観察された白血球数の上昇に基づき作成されたもので、敗血症感染と相関していました。AIシステムが認識できなかったのは、当該患者は白血病も患っており、同様の白血球数の上昇を引き起こす可能性があるということです。
"人工知能に基づくアルゴリズムは、敗血症の過去の患者と一致するパターンを検出すると、警告を発動する "とジャーナルは報告しています。"アルゴリズムは、その判断を説明しなかった。"
AIの時代に病院に入院することは、早死にするためのレシピである
ビービーの勤める病院の規則では、患者が敗血症のフラグを立てられた場合、彼女と他のすべての看護師は一定のプロトコルに従わなければならないと決められている-たとえフラグがAIの間違った仮定に基づく間違いであっても。
AIの判断を覆すには、医師の承認を得るしかない。しかし、修正された判断が結果的に間違っていた場合、看護師は懲戒処分を受ける可能性がある。しかし、もしその判断が誤っていた場合、看護師は懲戒処分を受ける可能性があるのです。
カリフォルニア看護協会の代表であるビービーは、「アルゴリズムが "あなたの患者は敗血症のようです "と言っても、その理由を知ることはできません」と言う。「ただ、それをやるしかないのです」。
"私はテクノロジーを悪者扱いしているわけではありません "と、前述のがん患者の場合、自分が正しくてAIが間違っていたことを指摘しつつ、こう付け加えた。"しかし、正しいことが分かっているのに、それができないとき、私は道徳的苦痛を感じる"。
AIがもしかしたら、人間よりもうまくできることがあるのは間違いないが、病院での医療やケアの方向性をAIシステムに依存することは危険なビジネスである。
ディストピア的な結末として、政府が作成した「扇動者」リストに名前が載った場合、AIマシンが突然、特定の患者をターゲットにして早期に排除するようにならないと誰が言い切れるのだろうか。AIマシンがただ単に間違っていて、病院スタッフがそれを覆そうとするあまりに疲れていたり、アンビバレントだったり、あるいは無気力だったり、その過程で自分のキャリアを危険にさらすような場合はどうでしょうか?
"AIは臨床判断支援として使用されるべきで、専門家に取って代わるものではありません。"と、ペンシルバニア大学の看護学教授で、フィラデルフィア小児病院の看護科学者であるケンリック・カトーは警告しています。
"病院管理者は、臨床の場ではアルゴリズムが見えないことがたくさんあることを理解する必要があります。"