第7回:AIの未来がコワすぎる5つの理由(後編) レアケースへの対応やバイアスの除去などに課題

様々なシチュエーションが考えられる医療で、AIによる一般化した判断は危険です(出典:写真AC)

■私のかかりつけの医師はAI?

前回は、米国のメディアCNBCがAIの未来について専門家から意見を聞いてまとめた「5つの脅威」のうち2つの脅威をご紹介しました。今回はその後半、3つの脅威について考えてみましょう。

歴史学者ユヴァル・ノア・ハラリ は「ホモデウス」という著書で「世の中データがすべて」という未来の社会を描いています。中には「世の中データがすべてで何が悪い」と考える人もいるでしょう。しかし、医療のように人の命を預かる分野ではいろいろと問題視されることが少なくないのです。

AIが医療に貢献していることは日々のニュースの話題でも事欠きません。過去のさまざまな病気の兆候や発症パターンをデータとして保持し、がんその他の病気を早期に発見する。とてもすばらしいことです。しかしその一方で、ともするとすぐにデータに頼ってしまうような医療慣行は、2つの点で危惧すべき問題を抱えているとCNBCは伝えています。

その一つは、あまりにAIに頼りすぎるとそれを一般化して幅広いケースに応用できると思い込んでしまうという問題です。「今日のAIの成功事例はきわめて限られた範囲のものだ。あるAIアプリが心臓疾患に有効だからといって、それをレアケースの心臓疾患を抱えるがん患者に応用したりすれば、深刻な結果を招きかねない」と専門家は指摘します。また、あるスーパーコンピュータががん治療に関して複数の危険かつ不正確な方法を提示したという問題についても触れています。なんでもこのソフトウェアが学習に使用した数少ない症例は実際の患者のものではなく、仮説ベースのものだったとのこと。

もう一つは、患者のプライバシーが守られるのかどうかという問題があります。多種多様な病気に対処できるようにAIの精度を向上させるには、可能な限り多くの患者の実例をデータとして蓄積しなければなりません。しかしそうなると、患者一人ひとりの(他人に知られたくない)情報が本人の知らないところで不特定多数の医師や看護師に共有されるだけでなく、いつどこでどのようにそのデータが活用されるのか、だれもあずかり知らぬことになってしまうわけです。

■AIが生む偏見や差別

AIを使ったディープフェイクビデオ(「第4回:証拠映像ですら「証拠」と見なされなくなる時代」を参照)が、個人だけでなく国家にも脅威を与える可能性があることを以前この連載で書きましたが、AIを使えばSNSでも何やらインパクトのあることができてしまうようです。

マイクロソフトが考案したAIプログラムがその好例です。このプログラム(ボットと呼ばれている)にツイッターのアカウントを与えたところ、ヒトラーや白人至上主義の支持者による不快な投稿を学習するのに1日もかからなかったというのです。もっとも寛容な目で見れば、AIならこんなこともできてしまうんだ…とちょっとしたエピソードで終わってしまう話ではありますが。

しかし研究者や開発者たちから見れば、AIが偏見を持つようにふるまうことがわかった以上、これは看過できない問題でしょう。とりわけ顔認証や言語理解などを目的としたAI技術のクオリティに大きく関わることでもあるからです。黒人や東洋人よりも白人の顔の方をより好ましいと判断したり、日本語よりも英語を話す市民の方がサービスを受けやすくなるといったこと。考えればきりがありませんが、とても不快なことではあります。

AIを、偏見を持たない客観的で理性的な存在にするにはどうすればよいのでしょうか。専門家は、それは特定の人種や性別やセクシュアリティを支持するバイアスをなくすことだと指摘します。大手IT企業の中には、AIによる差別や偏見を取り除く研究をしているところもあります。AIベースの顔認証システムにおける肌その他の顔の属性をできる限りたくさん集めたデータセットを実装してバイアス(偏見)を低減するのだそうですが、果たしてどこまで可能になるのでしょうか。

■政府による大規模な市民の監視

防犯カメラと言えば犯罪の抑止に役立つものと考えることが多く、私たちはあまりネガティブな印象は持つことはありません。しかし度を超すと、つまり個人を特定できるAIと連動した監視カメラが社会の隅々にまで行き渡ってしまうと、私たちにとって大きな脅威となってしまう可能性があります。

例えば中国当局は、犯罪を抑え込むために大規模なAIベースの顔認証技術による監視体制を敷いているというのです。CNBCはニューヨーク・タイムズの記事(下記参照)を引用し、現在中国には約2億台の監視カメラが設置されていると述べています。しかも世界で初めて「社会信用システム」という仕組みを考案し、市民の言動を追跡して格付けし、飛行機の搭乗その他のサービスへのアクセスを許可したり禁止したりしようとしている。中国という国はすでにディストピア社会に移行しつつあるのでしょうか。

■ニューヨーク・タイムズの記事
https://www.nytimes.com/2018/07/08/business/china-surveillance-technology.html

中国は経済における世界のリーダーを目指していますが、それはAI部門についても言えることです。AIと顔認証技術を使ったテクノロジーを開発したのはアリババが出資するベンチャー企業のSenseTimeで、広州市と雲南省の自治体にAIベースの顔認証システムを提供しています。同社のウェブサイトによると、2017年以降、広州市の公安当局では2000人以上の犯罪者を特定するのにこのシステムが役立ったと伝えています。

こうした状況を懸念する声があることは言うまでもありません。ニューサウスウェールズ大学のAI学部教授トビー・ウォルシ氏は「監視は、AIが予期しない恐るべき結果をもたらす対象として最も上位にランク付けされていたものだ」と述べた。CNBCはこう結んでいます。

(了)

© 株式会社新建新聞社