緑内障とAIGlaucomaandArti.cialIntelligence朝岡亮*IAIとは人工知能(arti.cialintelligence:AI)は,一般的には「人間のように考えるコンピューター」と定義されている.無論この定義を完全に達成したものはまだ存在せず,実際には「人間の知的な活動の一面を真似している技術」が,AIとよばれ,研究者ごとにあいまいに定義されているのが現状である1).松尾は,このAIを4レベルに分類する方法を提唱している1).この分類によれば,レベル3の機械学習とレベル4の深層学習が,真の意味でのAIととらえることが可能で,緑内障診療への応用が可能になるのもこれらのAIである.レベル3の機械学習の最大の特徴は,サンプルデータを元に,ルールや知識を自ら学習し,他のデータでも活用可能な点である.代表的なものには,ベイズ法,ランダムフォレスト,サポートベクターマシン,ニューラルネットワークなどがある.筆者らはこれまでに機械学習法の緑内障への応用の可能性を提唱してきた.II代表的なAIベイズ法は,与えられた情報を用いて事前確率を更新することで,正しい診断・予測を行う方法である.通常の統計手法では,データに定まった分布を仮定し,それに基づいて判定や予測を行う.たとえば視野のトレンド解析などで用いられている線形回帰では,データの分布に正規分布を仮定し,回帰線を定めるところからすべてが始まる.しかしながら視野経過がこのような単純な仮定に沿わず,とくに視野回数が少ない場合に視野進行速度が正しく算出されないことは古くから広く知られている.筆者らは,通常の時間に対する線形回帰(トレンド解析)を用いた場合に何回程度の視野記録があれば正確な予測ができるのかを系統的に解析した.この結果,測定点ごとに予測を行った場合,わずか半年,1年,1年半後の視野を予測するのにも概ね10回程度の視野蓄積が必要で,meandeviation(MD)を用いたトレンド解析でも5~8回程度の視野記録の蓄積が必要なことを報告した2).この研究では通常臨床と同程度と思われる,概ね半年に1回のペースでの視野計測を行っており,このような数の視野が蓄積するには長い時間を待たなければならない.筆者らはもっと少ない数の視野でも正しく視野予測ができないかと考え,ベイズ法を用いた線形回帰モデル(変分近似ベイズ線形回帰法,VariationalBayesLinearRegression:VBLR)を構築した.VBLRでは,とくに近傍の視野測定点の感度同士の強い関連を勘案しつつ,視野障害の時系列的・空間的パターンを組み込んだベイズ線形回帰法を利用している.この結果,予測精度は飛躍的に向上した(図1)3).VBLRは筆者らの自施設内で得られた検証データのみならず,国内他施設ならびに米国カリフォルニア大学で得られた検証データでもほぼ同様の予測精度を得ており,施設・人種を問わずに精度よ*RyoAsaoka:東京大学大学院医学系研究科外科学専攻感覚・運動機能講座眼科学〔別刷請求先〕朝岡亮:〒113-8655東京都文京区本郷7-3-1東京大学大学院医学系研究科外科学専攻感覚・運動機能講座眼科学0910-1810/19/\100/頁/JCOPY(35)457(dB)35302520151050RMSEVF2-2VF2-3VF2-4VF2-5VF2-6VF2-7VF2-8VF2-9VF2-10図1ベイズ法視野予測による予測精度縦軸はC10回目の視野を先行する視野で予測した際の予測誤差を,横軸は予測に使用した視野の回数を示す.通常の線形回帰(黒)に比べ,ベイズ法を使用したCvariationalCBayesClinearregression法(赤)では飛躍的に予測精度がよかった.東京大学医学部附属病院眼科で収集された2,858例C5,049眼を訓練データ,547例C911眼を検証データとして解析した.RMSE:rootmeansquarederror.(文献C4より引用)Ca(dB)b(dB)351510530252015RMSE10500図2多施設データによるベイズ法視野予測による予測精度a:JapaneseArchiveofMulticentralDatabasesinGlaucoma(JAMDIG):177例C271眼によるCvariationalBayeslinearregressionの予測精度検証結果.Cb:DiagnosticCInnovationsCinCGlaucomaStudy(DIGS)データ:173例C248眼によるCvariationalCBayesClinearregressionの予測精度検証結果.通常の線形回帰(黒)に比べ,ベイズ法を使用したCvariationalBayeslinearregression法(赤)で予測精度がよかった.RMSE:rootmeansquarederror.(文献C5より引用)VF2-2VF2-3VF2-4VF2-5VF2-6VF2-7VF2-8VF2-9VF2-10VF2-2VF2-3VF2-4VF2-5VF2-6VF2-7VF2-8VF2-9VF2-10とが,光干渉断層計(opticalCcoherencetomography:OCT)データからの緑内障診断や5~7),HeidelbergCReti-naTomograph(HRT)データからの緑内障診断や8),視野・視力から患者の生活不自由度を正確に推測することや9,10),視野を用いた前視野期緑内障の診断などに有用なこと11),などを報告してきた.一方,サポートベクターマシンでは,まずカーネル空間へデータを射像してから診断や予測を行うことで正しく診断・予測を行う方法である.筆者らはこの方法が視野・視力・運転態度を用いて交通事故確率を予測することに有用であることを報告した12).なお,この研究では後述するサポートベクターマシンに正則化を付与することが有用であることも示されている.ニューラルネットワークは,神経回路に似た情報ネットワークを人工的に構築し,診断・予測を行う方法で,旧来からある技術であるが,中間層を深くすると上流から下流に上手く情報が流れてくれず,結果正しい予測ができないという致命的な欠点のため最近ではやや廃れている.この他に,最近ではCSparse推定とよばれる方法も発展が著しい.これはCleastCabsoluteCshrinkageCandCselectionoperator(LASSO)回帰のように,あるモデル式に正則化項(誤差項)をあらかじめ組み込んでおくことでモデルに異なるデータに対する汎用性をもたせ,その診断・予測精度を向上させるものである.筆者らは通常の(ordinaryCleastCsquaredClinearregression:OLSLR)でなくCLASSO回帰を使用して視野をトレンド解析することで視野の進行を圧倒的に正しく予測できるようになることなどを示した13~15).この手法は回帰モデルだけでなく,上述のサポートベクターマシンや次に述べる深層学習などにも広く応用されている.CIII深層学習一般的には深層学習(deeplearning)も機械学習の中の一種法であるが,松尾らは機械学習法のなかでも深層学習を独立してレベルC4と扱っている1).これは深層学習がこれまでの機械学習法よりも圧倒的に精度よく診断できる能力があるためと思われる.深層学習は,典型的には,内部の隠れ層(中間層)を各段に深くした(多層にした)ニューラルネットワークである.生のデータの「特徴量」を抽出してからネットワークに流す点が旧来のニューラルネットとの大きな相違点であるが,このことにより中間層を深くしても上流から下流に情報がきちんと流れ,結果深い中間層を内包したニューラルネットワークが組めるようになったことが非常に重要である.深い中間層を組めるということは,与えられた課題に対して柔軟に対応し,異データに対しても汎用性高く診断・予測ができるということである.筆者らはこの深層学習を用いて,前視野期緑内障の視野を正常眼の視野と判別することが可能であるかを検証してみた.この結果,受信者動作特性曲線下面積(areaCunderCthecurve:AUC)はC90%を超え,その診断精度は前述のランダムフォレスト法を用いた場合よりもさらによいものであった16).最近になってこの深層学習による眼底写真を用いた緑内障自動診断への応用の可能性を示す報告が後を絶たない17~19).また,筆者らも最近,眼底写真を用いた緑内障自動診断モデルの構築を行った20).この研究では,CResidualNetworkという,畳み込み(特願C2017-196870)ニューラルネットワーク亜系の深層学習モデルを構築し,約C3,000枚の眼底写真で緑内障診断を行う訓練を行わせた.この結果,独立した検証データにおいて,95%程度のCAUCを得ることに成功した.筆者らが驚かされたのは,この診断精度がいわゆる正視の眼だけでなく,一般には診断がむずしいとされている高度近視眼でも得られたことであった(図3)19).また,眼底カメラには各機種による解像度やセンサーの違いがあるが,筆者らの構築したアルゴリズムはこれらの違いや撮影施設の違いに診断精度が左右されない,汎用化可能なものであることを最近報告した20).このようにみるとよいことだらけの深層学習と思えてしまうが,最大の泣き所は,正確な診断や予測を行うのに大量のデータを必要とする点である.一般的には最低数万~数百万の訓練データが必要とされる.緑内障では一般のスナップ写真での物体認知などと違って,特徴的なパターンのバリエーションが限られているせいか,筆者らの眼底写真を用いた研究ではこれよりもはるかに少ない数のデータでもよい診断精度を得ることができた(37)あたらしい眼科Vol.36,No.4,2019C459ab1.01.00.80.8SensitivitySensitivity0.20.2ResNet:97.1[93.3~100.0]%ResNet:96.4[92.0~100.0]%ResidentA:77.4[67.0~87.9]%,p<0.0014ResidentA:66.6[53.4~79.7]%,p<0.001ResidentB:84.9[76.9~92.8]%,p=0.0026ResidentB:91.2[83.9~98.3]%,p=0.100.0ResidentC:93.7[86.8~99.8]%,p=0.290.0ResidentC:88.8[80.3~97.3]%,p=0.0721.00.80.60.40.20.01.00.80.60.40.20.0Speci.citySpeci.city図3受信者動作特性曲線下面積a:非高度近視眼を使用した場合.ResNetを使用した場合はC97.1%(信頼区間C93.3~100.0%)であった.眼科専修医による判定結果も記載.Cb:高度近視眼を使用した場合.ResNetを使用した場合はC96.4%(信頼区間C92.0~100.0%)であった.(文献C19より)C1.00.80.60.41.00.80.20.00.60.60.40.4Sensitivity(**:p<0.01)0.60.4Speci.city図4転移学習併用深層学習による光干渉断層計測定結果を用いた早期緑内障診断の受信者動作特性曲線下面積転移学習併用深層学習(DLtransformmodel)ではC93.7%で他のどの方法よりも診断精度が有意によかった.(文献C20より引用)ことはかなり困難で,通常通りに深層学習を適用することはできない.そこで他社製のCOCTを用いてスキャンされた約C4,000枚の緑内障(早期から末期まで含む)と正常眼のデータを用いて深層学習モデル(畳み込みニューラルネットワーク)を事前訓練してから,このC178眼の訓練データで本訓練を行ってみた.この結果,ランダムフォレスト始め他のいかなる方法よりも精度よく診断を行うことができた(図4)4).上述のように,事前訓練に用いるデータは,本訓練のデータとまったく異質なものでも構わない.筆者らはまた,VGG16という畳み込みニューラルネットワークをあらかじめ大量の一般の日常写真(スナップ写真)で事前訓練してから,約C500枚という比較的小規模のCOCT測定結果から視野感度を推測するよう本訓練したところ,予測精度は既存のどの方法よりも有意によいものであった21).このような,医療とは無関係のデータを活用して緑内障研究を行うというアプローチは,これまでにはなかったものであり,興味深い.CIVAIと緑内障診断の現状,未来これまで述べてきたように,AIを応用することは緑内障診断の未来を切り開く可能性を秘めている.しかし,そもそもこれまでにもこのようにCAIを臨床応用することは行われてきている.たとえば,Humphrey視野計では最近はCSwedishCinteractiveCthresholdingCalgo-rithm(SITA)プログラムを用いることが標準と思われるが,同プログラムは,あらかじめ得られた緑内障眼データベースからベイズ法を用いて事前確率を得ることで視野測定を短縮する技術である.また,HRTやCnerveC.beranalyzer(GDx)には各々サポートベクターマシンの類似の方法により算出された緑内障スコア(glaucomaprobabilityscore,nerveC.berindicator)が算出され,表示されていた.そもそも,その定義から,機械学習には本稿で紹介したような複雑なモデルだけでなく,単回帰や多変量回帰も含まれる.したがって,たとえば従来の視野のCMDトレンド解析もCAI技術の一種といえる.AIと緑内障診断のかかわりは,何もごく最近始まった話ではなく,すでにわれわれ馴染みのある事柄なのである.今後は深層学習の臨床応用が進み,今以上に臨床上有用な診断・予測ツールが出てくることは恐らく間違いないと思われる.CVAIは万能か眼底写真自動読影のような画像認識は深層学習がもっとも得意とする分野の一つである.実際,糖尿病網膜症の自動スクリーニングアルゴリズムは米国医薬品食品局(FoodCandCDrugAdministration:FDA)の認可をすでに取得している.今後は緑内障もそのような時代に突入していくと思われる.しかしながら深層学習による緑内障自動診断は,もっと根源的な問題をはらんでいる.深層学習は,当然であるが,与えられた訓練データに対してのみ訓練される.したがって,筆者らの報告を含むこれまでの研究のように,臨床医があらかじめラベル(診断)づけした眼底写真を深層学習モデルに与えれば,精度よくそれを再現することは可能である.ここで問題にしたいのは,「緑内障という診断が正しい」と定義するのに,多くの研究では臨床医間の判定の一致を用いていることについてである.緑内障早期例や疑い例ではその時点で正しく診断をつけることが困難である場合も多い.当然ながらこのような症例では専門家の間でも意見の一致をみない場合多く,実際には長い時間経過を観察し,視野や視神経乳頭形状に進行が出るかを観察しないと正しい診断に到達できない場合も多い.この点において,AlphaGoやCAlphaGoZeroが強化学習という,仮想的に無数に対局を繰り返し,学習させるプロセスを経てこそ強くなれたこととは大きく事情が異なる.また,糖尿病網膜症では専門医でもうっかり見落とすことはあっても,一枚の眼底写真を長い時間をかけて注意深く判定すれば,糖尿病網膜症の所見があるかないかで意見が一致しないことはかなり少ないと考えられ,この点が緑内障自動診断と大きく異なるものと思われる.むしろ,臨床医が真に知りたいのは,このように専門医間で意見の分かれるような緑内障疑い例のうち,その後進展していくのはどの症例かということであり,そのためには,大量の,長期経過観察した症例の眼底写真データを構築することが必要と思われる.もしこのようなデータが構築されれば,これまでの教科書に書かれていなかったような新しい緑内障(39)あたらしい眼科Vol.36,No.4,2019C461のサインが発見されることだってあるかもしれない.チェスの世界では人間がCAIに打ち負かされて久しい.しかし,チェスのプロの間ではCAIの打ち筋を勉強することによって自分の技量をあげ,強くなることが常識となっているようである.結果として,チェスのプロのレベルは,AI登場以前に比べ格段に向上したといわれている.同様に,前述のような解析が試みられ,新しい緑内障サインのようなものが提唱されれば,臨床医がそれを元に知識をアップデートし,診療の質を上げていくことが可能である.したがって,ややもするとCAIの参入によって臨床医の立場がなくなるというような危惧の声を聴くこともあるが,いくら深層学習とはいっても単なる道具であり,われわれ人類はその道具をうまく使いこなしていくことこそが重要と思われる.手術にしても最近のロボティクスの発展を考えると同じような未来が待っていると思われる.前述のようにCAIによる成果はいわば単なる道具であり,その道具自体が発展するのは脅威でもなんでもない.しかし,昨今CGoogleなどのCIT系の会社が医療に参入しようとしている.彼らには蓄積されたノウハウと膨大な資金があり,大きな成果は出るであろう.無論彼らは医療がビジネスになると踏んで参入しているのであり,下手をすると診断や治療の際に彼らに対価を払わないと成り立たない,というようなところを狙っているのではないかと危惧している.このようなシナリオを防ぐためには,臨床医がCAIのもたらす新しい知見を常にアップデートしていくとともに,われわれ臨床医自身もAI応用の研究に踏み込み,臨床医ならではの見方で,臨床現場で本当に何が必要なのかを考えながら,独自に解析,開発を続けて行くことが何よりも肝要ではないだろうか.その戦いは蟻と巨像の戦いかもしれないが,眼科医の最大の強みである臨床知識をフル活用することでみえてくる戦略もまた存在するものと信じている.そのためにはこれまで通り臨床的知識を深めていくと同時に,臨床研究者自身もCAIについて,医師が自らの研究を進めたり,あるいは医師主導での共同研究を進めていけるかどうかが重要であると思われる.文献1)松尾豊:人工知能は人間を超えるか.角川CEPUB選書,KADOKAWA/中経出版,20152)TaketaniCY,CMurataCH,CFujinoCYCetal:HowCmanyCvisualC.eldsarerequiredtopreciselypredictfuturetestresultsinglaucomapatientswhenusingdi.erenttrendanalyses?InvestOphthalmolVisSci56:4076-4082,C20153)MurataCH,CAraieCM,CAsaokaR:ACnewCapproachCtoCmea-sureCvisualC.eldCprogressionCinCglaucomaCpatientsCusingCvariationalCbayesClinearCregression.CInvestCOphthalmolCVisCSci55:8386-8392,C20144)AsaokaR,MurataH,HirasawaKetal:Usingdeeplearn-ingCandCtransformClearningCtoCaccuratelyCdiagnoseCearly-onsetCglaucomaCfromCmacularCopticalCcoherenceCtomogra-phyimages.AmJOphthalmol198:136-145,C20185)YoshidaCT,CIwaseCA,CHirasawaCHCetal:DiscriminatingCbetweenCglaucomaCandCnormalCeyesCusingCopticalCcoher-enceCtomographyCandCthe‘RandomCForests’Cclassi.er.CPLoSOneC9:e106117,C20146)AokiCS,CMurataCH,CFujinoCYCetal:InvestigatingCtheCuse-fulnessCofCaCcluster-basedCtrendCanalysisCtoCdetectCvisualC.eldprogressioninpatientswithopen-angleglaucoma.BrJOphthalmolC101:1658-1665,C20177)SugimotoK,MurataH,HirasawaHetal:Cross-sectionalstudy:DoesCcombiningCopticalCcoherenceCtomographyCmeasurementsCusingCthe‘RandomCForest’CdecisionCtreeCclassi.erCimproveCtheCpredictionCofCtheCpresenceCofCperi-metricdeteriorationinglaucomasuspects?BMJOpen3:Ce003114,C20138)AsaokaCR,CIwaseCA,CTsutsumiCTCetal:CombiningCmulti-pleHRTparametersusingthe‘RandomForests’methodimprovesCtheCdiagnosticCaccuracyCofCglaucomaCinCemme-tropicCandChighlyCmyopicCeyes.CInvestCOphthalmolCVisCSciC55:2482-2490,C20149)HirasawaCH,CMurataCH,CMayamaCCCetal:EvaluationCofCvariousCmachineClearningCmethodsCtoCpredictCvision-relat-edqualityoflifefromvisual.elddataandvisualacuityinpatientsCwithCglaucoma.CBrCJCOphthalmolC98:1230-1235,C201410)MurataH,HirasawaH,AoyamaYetal:IdentifyingareasofCtheCvisualC.eldCimportantCforCqualityCofClifeCinCpatientsCwithglaucoma.PLoSOneC8:e58695,C201311)AsaokaCR,CIwaseCA,CHirasawaCKCetal:Identifying“pre-perimetric”glaucomaCinCstandardCautomatedCperimetryCvisualC.elds.CInvestCOphthalmolCVisCSciC55:7814-7820,C201412)YukiCK,CAsaokaCR,CAwano-TanabeCSCetal:PredictingCfutureCself-reportedCmotorCvehicleCcollisionsCinCsubjectsCwithCprimaryCopen-angleCglaucomaCusingCtheCpenalizedCsupportCvectorCmachineCmethod.CTranslCVisCSciCTechnolC6:14,C201713)FujinoCY,CMurataCH,CMayamaCCCetal:Applying“Lasso”462あたらしい眼科Vol.36,No.4,2019(40)’C-