ヘルスケアで生成 AI を使用する 5 つの方法

公開: 2023-09-26

PwC は、医療費が 2024 年に 7% 増加すると予測しています。この増加の主な原因は、医療従事者の燃え尽き症候群、それに伴う労働力不足、支払者と医療提供者の間の紛争、およびインフレです。 過剰な運用コストをかけずに効率的な患者ケアを確保するために、業界は医療における生成 AI などの革新的なテクノロジーを模索しています。

Accenture は、医療提供者の労働時間の 40% が AI によって改善できると報告しており、最近の Forbes の記事では、このテクノロジーにより米国の医療部門の年間支出が少なくとも 2,000 億ドル節約できることが示唆されています。

ヘルスケアにおける生成 AI は、機械学習アルゴリズムを使用して、患者の健康記録、医療画像、診察の音声記録などの非構造化データを分析し、トレーニングされたものと同様の新しいコンテンツを生成します。

この記事では、当社の生成 AI 開発会社が、このテクノロジーが医療機関をどのようにサポートできるかを説明します。

ヘルスケアにおける生成 AI のユースケース

  1. 医療トレーニングとシミュレーションの促進
  2. 臨床診断の補助
  3. 創薬への貢献
  4. 管理タスクの自動化
  5. 合成医療データの生成

医療トレーニングとシミュレーションの促進

医療における生成 AI は、さまざまな健康状態を再現する現実的なシミュレーションを思いつくことができ、医学生や専門家がリスクのない制御された環境で診療できるようになります。 AI は、さまざまな病気の患者モデルを生成したり、手術や別の医療処置のシミュレーションを支援したりできます。

従来のトレーニングには、事前にプログラムされたシナリオが含まれており、制限が限られています。 一方、AI は患者の症例を迅速に生成し、研修生の決定にリアルタイムで対応して適応できます。 これにより、より挑戦的で本格的な学習体験が生まれます。

実際の例

ミシガン大学は、敗血症治療をシミュレーションするためのさまざまなシナリオを生成できるヘルスケア モデルの生成 AI を構築しました。

ペンシルベニア大学は、生成 AI モデルをデプロイして、新型コロナウイルス感染症 (COVID-19) の蔓延をシミュレートし、さまざまな介入をテストしました。 これは、研究者らが社会的距離確保とワクチン接種がウイルスに及ぼす潜在的な影響を評価するのに役立った。

臨床診断の支援

ヘルスケア向けの生成 AI が診断にどのように貢献できるかは次のとおりです。

  • 高品質の医療画像を生成します。 病院は生成 AI ツールを採用して、従来の AI の診断能力を強化できます。 このテクノロジーは、低品質のスキャンを詳細な高解像度の医療画像に変換し、異常検出 AI アルゴリズムを適用して、その結果を放射線科医に提示することができます。
  • 病気の診断。 研究者は、医療画像、臨床検査、その他の患者データに基づいて生成 AI モデルをトレーニングし、さまざまな健康状態の早期発症を検出して診断できます。 これらのアルゴリズムは、皮膚がん、肺がん、隠れた骨折、アルツハイマー病の初期兆候、糖尿病性網膜症などを発見できます。 さらに、AI モデルは、特定の障害を引き起こし、病気の進行を予測する可能性があるバイオマーカーを明らかにすることができます。
  • 医学的な質問に答える。 診断者は、疑問がある場合、医学書で答えを探すのではなく、ヘルスケア分野の生成 AI に頼ることができます。 AI アルゴリズムは大量のデータを処理して迅速に回答を生成できるため、医師の貴重な時間を節約できます。

実際の例

研究者チームは、低品質の医療スキャンの特徴を抽出して強化し、高解像度の画像に変換するために敵対的生成ネットワーク (GAN) モデルを実験しました。 このアプローチは、脳 MRI スキャン、ダーモスコピー、網膜眼底検査、心臓超音波画像でテストされ、画像強調後の異常検出において優れた精度を示しました。

別の例では、Google の AI を活用した Med-Palm 2 は MedQA データセットでトレーニングされ、関連する医療質問に回答する際に 85% の正解率を達成しました。 Googleは、アルゴリズムにはまだ改善の必要があることを認めているが、診断アシスタントとしての生成AIにとっては好調なスタートとなった。

医薬品開発への貢献

議会予算局によると、新薬開発のプロセスには平均で10億ドルから20億ドルの費用がかかり、これには失敗した薬も含まれます。 幸いなことに、AI には新薬の設計とスクリーニングに必要な時間をほぼ半分に短縮する可能性があり、その過程で製薬業界は年間約 260 億ドルの経費を節約できるという証拠があります。 さらに、このテクノロジーにより、臨床試験に関連するコストを年間 280 億ドル削減できます。

製薬会社は、次の方法で生成 AI をヘルスケアに導入し、創薬をスピードアップできます。

  • 研究者が後で実験室環境で評価できる、望ましい特性を備えた新しい分子を設計および生成する
  • 新規薬剤候補およびタンパク質の特性の予測
  • ターゲットに対して高い結合親和性を持つ仮想化合物を生成し、コンピュータシミュレーションでテストしてコストを削減します。
  • 新薬の分子構造解析による副作用予測

創薬における AI の役割と、AI が臨床試験をどのように促進するかに関する詳細情報は、当社のブログでご覧いただけます。

実際の例

バイオテクノロジー企業と AI スタートアップ企業の間の戦略的パートナーシップの台頭は、生成 AI が製薬業界を引き継ぐ初期の兆候です。

つい最近、Recursion Pharmaceuticals はカナダの AI スタートアップ企業 2 社を 8,800 万ドルで買収しました。 そのうちの 1 つである Valence は、生成 AI 機能で知られており、従来の創薬手法には不十分な小規模でノイズの多いデータセットに基づいて薬剤候補の設計に取り組む予定です。

もう 1 つの興味深い例はトロント大学のものです。 研究チームは、既存のタンパク質構造の画像表現を研究した後、新しい現実的なタンパク質を生成できる生成 AI システム ProteinSGM を構築しました。 このツールはタンパク質を高速で生成することができ、別の AI モデルである OmegaFold をデプロイして、得られたタンパク質の可能性を評価します。 研究者らは、新規に生成された配列のほとんどが実際のタンパク質構造に折り畳まれることを報告しました。

管理タスクの自動化

これは、医療における最も顕著な生成 AI のユースケースの 1 つです。 研究によると、米国の医師の燃え尽き症候群率はなんと62%に達しています。 この症状に苦しむ医師は、患者を危険にさらす事件に巻き込まれる可能性が高く、アルコール乱用や自殺念慮に陥る傾向が高くなります。

幸いなことに、医療における生成 AI は、管理タスクを合理化することで医師の肩の負担を部分的に軽減できます。 HealthAffairs によれば、医療費全体の 15% ~ 30% を占める管理に関連するコストも同時に削減できます。 生成 AI でできることは次のとおりです。

  • 患者の医療記録からデータを抽出し、対応する健康登録にデータを入力します。 Microsoftは生成AIをEpicのEHRに統合することを計画している。 このツールは、患者メッセージへの返信など、さまざまな管理タスクを実行します。
  • 患者の診察を文字に起こして要約し、この情報を対応する EHR フィールドに入力して、臨床文書を作成します。 Microsoft の Nuance は、生成 AI 技術 GPT-4 を臨床転写ソフトウェアに統合しました。 医師はすでにベータ版をテストできる。
  • 病歴、検査結果、スキャンなどの患者情報を分析して、構造化された健康レポートを生成します。
  • 治療に関する推奨事項を作成する
  • 医師の質問に答える
  • 患者のニーズと医師の空き状況に基づいて、予約スケジュールに最適な時間枠を見つけます。
  • パーソナライズされた予定のリマインダーとフォローアップメールを生成する
  • 医療保険請求を確認し、どの請求が拒否される可能性が高いかを予測する
  • アンケートを作成してさまざまな処置や訪問に関する患者のフィードバックを収集し、分析して、ケア提供を改善するための実用的な洞察を生成します。

実際の例

医療 AI スタートアップの Navina は、医師がより効率的に管理業務に取り組むのを支援する生成 AI アシスタントを構築しました。 このツールは、EHR、保険請求、スキャンされた文書などの患者データにアクセスし、ステータスを更新し、治療オプションを推奨し、医師の質問に答えることができます。 紹介状や進捗メモなどの構造化文書も生成できます。

Navina はすでに 4,400 万ドルの資金を獲得しており、これは医学界からの強い関心を示しています。

合成医療データの生成

医学研究は、さまざまな健康状態に関する膨大な量のデータにアクセスすることに依存しています。 特に希少疾患に関しては、このデータが著しく不足しています。 また、そのようなデータの収集には費用がかかり、その使用と共有はプライバシー法によって規制されます。

医療における生成 AI は、実際の健康データセットを拡張できる合成データ サンプルを生成できます。また、医療データは特定の個人に属さないため、プライバシー規制の対象になりません。 人工知能は EHR データ、スキャンなどを生成できます。

実際の例

ドイツの研究者チームは、臨床試験用の合成患者データを生成するために AI を活用したモデル GANerAid を構築しました。 このモデルは GAN アプローチに基づいており、元のトレーニング データセットのサイズが制限されている場合でも、必要な特性を持つ医療データを生成できます。

別の科学者チームは、電子医療記録を合成するための生成 AI を実験しました。 研究者らは、データプライバシー規制が厳しく、病院間で患者データを効果的に共有できないことが動機となった。 彼らは、患者の軌跡を現実的に表す、異種混合タイプの EHR データ (連続値と離散値の両方が含まれることを意味する) を導出できる EHR-M-GAN モデルを構築しました。

医療における生成 AI の倫理的考慮事項と課題

テクノロジー企業やコンサルティング大手が AI への投資を続けているにもかかわらず、Tesla CEO のイーロン・マスク氏や OpenAI CEO のサム・アルトマン氏などの著名な AI 専門家がテクノロジーに関連するリスクについて警告していることもわかります。 それでは、生成 AI は医療にどのような課題をもたらすのでしょうか?

  • バイアス。 AI モデルのパフォーマンスは、トレーニングに使用されたデータセットと同じくらい優れています。 データが対象集団を正確に表していない場合、代表性の低いグループに対する偏見が生じる余地が残ります。 生成 AI ツールは膨大な量の患者記録データに基づいてトレーニングされるため、そこに存在する偏見を継承するため、偏見を根絶することはおろか、検出することも困難になります。
  • 規制の欠如。 AI にはかなりの倫理的懸念がありますが、このテクノロジーの使用を管理する正式な規制はまだありません。 米国とEUは関連政策の正式化に向けて取り組んでいるが、これは近い将来には実現しないだろう。
  • 精度の問題。 AI は間違いを犯しますが、医療分野ではそのような間違いの代償はかなり高くなります。 たとえば、大規模言語モデル (LLM) は幻覚を起こすことがあります。 つまり、事実としては正しくない、構文的にはありそうな結果が生成される可能性があります。 医療機関は、いつエラーを許容するか、いつ AI モデルに結論の説明を要求するかを決定する必要があります。 たとえば、がんの診断を支援するために生成 AI が使用されている場合、その推奨が正当化できない場合、医師はそのようなツールを採用する可能性は低いです。
  • 説明責任。 最終的な健康状態の責任は誰にありますか? それは医師でしょうか、AIベンダー、AI開発者でしょうか、それとも別の当事者でしょうか? 説明責任の欠如は、モチベーションやパフォーマンスに悪影響を与える可能性があります。

生成 AI を使用して医療業務を強化する準備はできていますか?

生成 AI アルゴリズムはますます強力になっています。 スタンフォード大学医学部の臨床教授ロバート・パール氏はこう語った。

「ChatGPT の能力は、半年から 1 年ごとに 2 倍になっています。 5 年後には現在の 30 倍の強力になるでしょう。 10年後には1000倍の威力になります。 今あるものはおもちゃのようなものです。 次世代ツールでは、1 兆個のパラメータがあると推定されていますが、興味深いことに、これは人間の脳内のおおよその接続数に相当します。」

AI は強力な味方ですが、使い方を誤ると重大な損害を引き起こす可能性があります。 医療機関はこのテクノロジーに慎重に取り組む必要があります。 医療向けに AI ベースのソリューションの導入を検討している場合は、始めるための 3 つのヒントを次に示します。

  • データを準備します。 事前にトレーニングされた既製の AI モデルを選択する場合でも、独自のデータセットで再トレーニングする必要がある場合があります。これは、高品質で対象集団を代表するものである必要があります。 医療データを常に安全に保ち、患者のプライバシーを保護します。 アルゴリズムがどのデータセットでトレーニングされたかを開示すると、アルゴリズムがどこでうまく機能し、どこで失敗する可能性があるかを理解するのに役立ちます。
  • AI モデルを制御します。 組織内で責任ある AI の概念を育みます。 ツールをいつ、どのように使用するか、最終結果に対して誰が責任を負うのかを人々に理解してもらいます。 より機密性の高いアプリケーションに拡張する前に、影響が限定的なユースケースで生成 AI モデルをテストします。 前述したように、生成 AI は間違いを犯す可能性があります。 小さな故障率が許容できる範囲と許容できない範囲を決定します。 たとえば、98% の精度は管理アプリケーションでは十分ですが、診断や患者と向き合う業務では許容できません。 病院の医療における生成 AI の使用を管理するフレームワークを考案します。
  • 従業員がテクノロジーを受け入れて使用できるように支援します。 特に厳しく規制されている医療分野では、AI には依然として人間の指導が必要です。 人間参加型は、テクノロジーが成功するために不可欠な要素であり続けます。 医療スタッフと管理スタッフは AI モデルを監督することが期待されるため、病院はこのタスクに対応する人材のトレーニングに重点を置く必要があります。 一方、従業員は、AI がその一部となった今、日常業務を再構築し、空いた時間を価値を生み出すために活用できるはずです。

生成 AI の恩恵を受けたいと考えていますが、どのように進めればよいかわかりませんか? ぜひご連絡ください。 データの準備、ツールの実装、運用への統合をお手伝いします。


オリジナルは2023 年 9 月 6 日にhttps://itrexgroup.comで公開されました