ChatGPTを超えた「ヘルスケアLLM」の実力 69億円の資金調達も

先日、医学界の有名専門誌「JAMA」に「医師とChatGPTを比較すると、医学的アドバイスの質・共感力ともにChatGPTが高評価」という論文が掲載された。
そんな中、注目を集めているのが、ヘルスケアに特化したLLM(大規模言語モデル)を開発している、米国のHippocratic AI(ヒポクラティックAI)というスタートアップ企業。CEOは連続起業家で、有名VC(ベンチャーキャピタル)であるa16z(アンドリーセン・ホロウィッツ)とGeneral Catalystが支援、出資している。5月16日にシードで$50M(約69億円)の資金調達を発表したことも話題となっている。医療においては、著しく不安な状況にある個人とのコミュニケーションが中心となることから、正確性や共感力が一層重視されるため、さまざまな医療専門職の意見をもとに独自開発を進めているとのこと。実際GPT-4と比べると、ヘルスケア特化型LLMは
・患者の状況に共感力を示す
・患者個人の背景に興味を持ち、個として関係性を構築する
・歯科、医療事務、医師、看護師、薬剤師などの資格試験の点数
といった点で優れた成績を残している。
特化型LLMが質・共感力を一層高めるとすれば、「大事な健康問題は生身の人間に相談したい」という感覚も徐々に変わってくる可能性がある。医療現場では、脅威との考え方があるのと同時に、スタッフ不足の解決策として期待する声も多くある。現場や患者側のニーズを捉えたAIが開発されると、一気に導入が進む可能性もあるだろう。

引用:ChatGPTを超えた「ヘルスケアLLM」の実力 69億円の資金調達も

─ YODOQの見方───────────────────────────

医師よりもAIの方が医学的アドバイスの質・共感力ともに上回っていたとのことだが、共感力に関して現実の医師よりもAIの方が上回ってることは驚きであった。なぜなら共感力とは

「他人の考えや意見を察したり、喜怒哀楽などの感情に寄り添ったりするスキル」

という人間らしいコミュニケーションスキルであり、AIが人間を上回る能力を持っているイメージがなかったからだ。

今回は「感情認識AI」について掘り下げていく。AIには人間の表情などの情報から感情を認識・分析する「感情認識AI」がある。感情認識・解析するデータの種類は下記4つ
・文章 
・声 
・表情
・生体データ 
このうち、声など外部に表出する情報を分類して感情を分析する方法はかなり発達し定着しつつある。
(例)
自動車ドライバーの顔の情報を使って事故防止に繋げる
お客さんの表情や声を分析して接客力の向上に繋げる

また、声や表情だけでなくSNSでの発言や「いいね」などのリアクションパターンも、感情的な反応として捉えて分析することが一つの潮流として多く行われている。その他には、脳波も感情を分析する手段として用いられている。
感情認識AIには課題もある。
1.ベースとなる感情理論が確立されきっていない
これまで、感情認識AIの開発のベースに用いられていたのは、アメリカの心理学者ポール・エクマンによって提唱された説で、感情は「怒り」「嫌悪」「恐怖」「喜び」「悲しみ」「驚き」という6つの基本感情から成り立っている、というものだったが、2010年代の後半から「人間の感情はそんなに単純ではない」という議論が立ち上がっておりベースを再考する必要がある。

2.個人情報の観点
感情はある種、最大の個人情報。感情などのデータを日常的に取られてデータとして蓄積されて使われていくという社会に私たちがどこまで受容していけるか、また、同意をどのようにとっていくかが課題

これからますますAIが人間の感情を把握し、様々な感情に沿った対応をとれるようになっていくと考えられる。今回の記事のように、気持ちに寄り添う対応をAIが行ってくれることで生身の人間と話すよりもこちらの方が気分がよい、と思うようになる日が自分にもくるかもしれないと思うとかなり違和感があるが、日々進化しているAI分野に関心をもって情報をキャッチアップしていく必要があると思う。

参考:AIと感情
参考:感情認識AIとは?音声や表情から感情を読み取る分析の仕組み
引用:共感力とは?共感力を身に付けるメリットや高めるための方法を解説