見出し画像

AI化で「製造」される問題、「発見」される問題。

医療の分野でも、AIモデルが考えられないスピードで開発され、精度も高くなり、応用の範囲も広くなっています。

そこから様々な恩恵を受ける一方、課題も生まれてきます。ABEJAで医療AIのプロジェクトに関わる木下正文はこう言います。

「1つは、今まで隠れていた問題が発見される、もしくは今まで存在していた問題がよりシビアになるというケース。もう1つはAIを導入したことで新たな問題が発生するケース」

どういうことなのでしょうか。解説をまとめました。

木下:医療を国という視点で見ると、ある特徴が浮かび上がってきます。

現在、日本のGDPにおける国債の比率がとても高くなっています。一般的に、国債の比率は戦争の前後に上がるとされています。戦費を調達するために、国債を大量に発行するからです。

ところが日本は第二次大戦以降も急激に上がり続けています。その理由は社会保障費が増大し続けているためです。その中で一番大きいのが医療費と年金です。

これまでは負債が増えると、経済をインフレにすることや人口増加によるGDPの増加で何とか返せていました。しかし近年はインフレどころかデフレで、かつ、人口も減少の一途をたどっています。

そうなると、国の経済を健全にする手立ては、AIを活用した生産性の向上と医療費の削減しかありません。実現できなければ医療費と年金が削られ、国民が困ってしまいます。だからこそ今、AIに熱い視線が注がれているのです。

眼科AIを支える装置の進歩

AIはどのように医療に活用されているのか、ABEJAが協業している医療機器メーカー、トプコンの事例をご紹介します。

画像2

目は脳とつながっていることもあり、眼底に体の状態が色濃く出ることが分かっています。つまり、眼底検査で目の病気以外の病気を早く見つけられる可能性ががあるのです。

その診断にAIを活用する研究が進められています。ディープラーニングによる画像解析技術を用いて、検査機器で撮影した眼の画像から病変などの異常を検出するAIモデルを構築しています=下図

画像3

Topcon提供。事例の詳細はこちら

アルゴリズムとデータ。どっちも大事

次に、AIモデルを開発する上で欠かせないデータの重要性について解説します。

画像4

AIはアルゴリズムとデータがセットになっています。注目されるのはいつもアルゴリズムなのですが、実はデータも重要です。

アルゴリズムをより賢くするためにはデータは必要不可欠です。アルゴリズムはデータ以上に賢くなることはないからです。

良質なデータは集めるのがとても大変です。アルゴリズムは年々新しいものが開発され、アップデートされていきますが、データは過去にさかのぼって取得することはできません。一度取得されたデータはアップデートが難しいのです。

苦労して良質なデータを大量に集められても、それで万事OKというわけではありません。AIにそのデータが何であるかを教える必要があるので、例えば犬の画像には「犬」、猫の画像には「猫」とラベリングをしなければなりません。この作業をアノテーションといいます。

このラベリングを間違えると、AIも間違って学習することになるので非常に重要な作業です。

画像5


病変の学習データづくりは医師が担う



医療の場合、アノテーションの実施がさらに難しくなります。

例えば肺がんの病変が写っている画像を間違ってアノテーションすると人の命に関わります。ゆえに、その作業は医師にしかできないのです。しかし医師はただでさえ多忙を極めているので、その時間を確保するのは至難の技です。

さらに医師でもミスの可能性はゼロではありません。こういうことも含め、AIに与えるデータの質と量を高めていくことが必要不可欠なのですが、困難を極めるわけです。

さらに、個人情報保護の視点で言えば、医療データはかなりコアな個人情報です。もし肺がんの写真から患者が特定されて広まってしまうと大変なことになります。ゆえに取り扱いには、さらなる注意が必要になるのです。

だからといって、医療データを慎重かつ厳重に管理しようとすればするほど、データの蓄積がすすまなくなり、AIのアルゴリズムが作れなくなってしまいます。


そのため日本では2018年5月からデータを本人が拒否しない限りは集めて分析してもいいという「次世代医療基盤法」が施行されました。しかし、思うようにデータの収集、アノテーションが進んでいるとは言えないのが現状です。

データは中国、アルゴリズムは米国


海外に目を転じると、今、中国がものすごい勢いでデータを集めています。例えば、中国国内でインターネットの医療サービスを展開している「WeDoctor」という企業があります。

国や地方自治体との協業で、河南省で無料の健康診断を行い、得た大量のデータをAIに学習させてモデルを開発しています。現在、データベースには2000種類の疾患と5000以上の症状が記録され、AIの診断の精度が90%といわれています。

私の知り合いの何社かの医療機器メーカーのエンジニアは、「中国には周回遅れどころかすでに勝てる見込みすらない。だから、別の方法で勝負しなきゃいけない」と差別化を考えています。

しかし、AIのもう一方の重要な要素であるアルゴリズム、ソフトウェアに関してはアメリカが圧倒的な優位性を誇っています。といいつつ、最近では論文数で中国がアメリカに追いつきつつある状態でもあります。

画像6


いずれにせよ、データは中国、ソフトウェアはアメリカが握っているとしたら、日本はどこに光明を見いだせばいいのでしょうか。この問題に関しては今、医療を支えるAI業界として戦略性が問われており、非常にシビアに考えなければならなくなっているのです。

新たな問題が「製造」され、埋もれていた問題が「発見」される

ここからは医療×AIというテーマでお話します。このまま医療AIが発展したら、どのような問題が起こるのでしょうか。

大きく2つのパターンがあります。1つは、今まで隠れていた問題が発見される、もしくは今まで存在していた問題がよりシビアになるというケース、もう1つはAIを導入したことで新たな問題が発生するケースです。

正確にはきっかりと2つに分かれるわけではないのですが、内容を単純化するため、ここでは2つに分けてお話します。
問題の製造と発見。私個人の見解としては前者よりも後者のケースの方が多くなると思っています。

画像7

まず、後者の具体的事例では、例えば尊厳死や安楽死を望む人の増加が考えられます。AIによって「将来、あなたは確実に不治の病になる」と診断を下されることで、この先、生きる希望を失って自ら命を断ってしまおうと思う人が増えるかもしれません。

AIが誤診する可能性も出てきます。その際の責任の所在は誰が取るのかという問題が生じるでしょう。

すでに近年問題になっているのが出生前診断です。最近ではゲノム調査で頭のよしあしまで予測可能になるという論文が出ています。本当にそうなった時、親としてどのような判断を下すのか。その倫理面がより問われるでしょう。

健康と幸福の格差も広がります。例えば低所得者が糖尿病になる確率は中・高所得者人に比べて1.2~1.5倍も高いという調査結果があります=下図グラフ参照。

さらに人はお金がない時とある時でIQの値が約10程度違うと言われています。また、お金がなくなるとやりくりに追われるために判断能力が低下し、薬の飲み忘れが増える、という報告もあります。

貧困状態が続くと健康に気を使う余裕がなくなり、ひいては健康を損ねてしまいかねないのです。

AIの普及で診断のレベルは上がるかもしれない。ですが、貧困層は診断後の健康改善といったメリットを受けられません。経済格差がそのまま健康格差になっているわけです。

画像8

さらに、最近ではIoTで取得したデータを分析した研究から、幸福感の予測が可能になっています=上図。幸福感が測定できるようになると、幸福度を最適化する行動の傾向も見えてくるでしょう。

富裕層がそうしたことにお金を使い、幸せになっていく一方で、その余裕のない貧困層は不幸のままという可能性もある。こうして、幸福格差も広がっていくかもしれません。

新しく発生する可能性のある倫理問題

画像9

後者のAIが普及することによって新しく発生する倫理問題としては、1つは止まらないAI誤診があります。AIの場合、一度学習したモデルで誤診が出た場合、もう一度モデルを作り直すのはかなり大変で、リスクも増します。

例えば前のモデルでデータを蓄積するのに10年かかったとしたら、新しいモデルを作るためのデータの収集にまた10年を要するかもしれません。誤診に気づくまでの間、さらには新しいデータを貯めてモデルが改良するまで間、誤診が続く可能性があります。

誤診が発見され次第、AI の活用を止めればいいかもしれませんが、仮に誤診を考慮に入れてもAIの方が人より精度が高い場合はどうすればいいのでしょうか?

また、診断を人からAIにスイッチしたタイミングでトロッコ問題が発生します。

トロッコ問題とは、有名な倫理問題で、トロッコが今走っている線路をそのまま走ると5人が死ぬ。スイッチを切り替えて進路を別のレールに変えると1人死ぬ。どちらを選ぶべきか? という問いです。

それと同じで、このまま人が診断をすると誤診の確率は20%だけど、AIに切り替えると5%に減る。ただ、AIに切り替えたことで新たに誤診されてしまう人が出てくる可能性がある。そうした問題があらかじめわかっていればいいけれど、後から判明した場合、その倫理責任は誰が取るのか、という問題です。

これに関しては、100年以上前の小説家が今につながる視点を提起しています。なので「製造」というよりは「発見」のほうに近い問題かもしれまんせ。具体的には、中国の小説家、魯迅です。

初期の作品集「吶喊(とっかん)」(1923年)の原序の中で、彼は「鉄の部屋」というたとえを記しました=下資料

画像10


彼が述べている視点は、医療AIがもたらすものへの倫理的な視点と同じです。

AIによって、数年後に健康状態が損なわれる、もしくは死んでしまうことがわかっているとして、それを本人にあえて伝える必要があるのか。現状では対処の方法もわかっていない。知らなければ数年間は幸せに過ごせるのに、知ってしまったことでずっと不安に苛まれるかもしれない。

具体的なお話はできませんが、実際にそれが実現される可能性がある疾患がいくつかあります。現状の医療でも、末期がんなど同じ問題が発生していますが、その領域がAIによって拡大していく可能性は高いでしょう。

このような問題にどう対処するかが、人々を幸せにする上で重要な点になると思います。

この問題はAIでは解決できません。私達で考え、道を探っていく必要があるのです。

画像11

木下正文(きのした・まさふみ)株式会社ABEJA Use Case 事業部。名古屋大学理学部卒業後、レバレジーズ株式会社に入社。新卒採用、マーケティング、データサイエンス、新規事業の立ち上げ、経営企画に従事。2019年から ABEJA にジョイン。主にマーケティングや医療に関連するプロジェクトを担当している。

文・写真:山下久猛    編集:錦光山雅子

ABEJAは2019年春から「ABEJAコロキアム」を始めました。識者や実務家を講師に招き、記者や編集者たちが社会とテクノロジーの交差点にあるテーマを議論する「学びの場」です。第3回(2019年10月25日)のテーマは「すすむ医療のAI化、社会システムをどう再定義する?」。本記事はその模様を編集しています。

Torusバナー

Torus(トーラス)は、AIのスタートアップ、株式会社ABEJAのメディアです。テクノロジーに深くかかわりながら「人らしさとは何か」という問いを立て、さまざまな「物語」を紡いでいきます。

Torus(トーラス)はTwitterFacebookでも配信しています。ぜひフォローしてみてください。

この記事が参加している募集

この記事が気に入ったら、サポートをしてみませんか?気軽にクリエイターを支援できます。

14
Torus(トーラス)は、AIの社会実装を手がける、株式会社ABEJA(アベジャ)のオウンドメディアです。「テクノロジー化する時代に、あえて人をみる」というコンセプトで、人間らしさと向き合う物語を紡いでいきます。
コメントを投稿するには、 ログイン または 会員登録 をする必要があります。