注)以下、文中の赤字・太字はシャンティ・フーラによるものです。
————————————————————————
AIの気が狂うことはあり得るか?
転載元)
Sputnik 19/6/6
進歩は止まらず、人工知能(AI)は徐々に私たちの生活の至るところに浸透してきている。AIはすでにスマートホーム、顔認証システム、教育や娯楽分野に加え、物流、公衆衛生、情報セキュリティでも使われている。ニューラルネットワークはすでに人の関与無くして自己学習が可能だ。だが、AIが私たちの望む方向に発展していくという保証はどこにあるのか?AIが人間の知能を上回ったり、気が狂うことはあり得るのか?スプートニクはこれらの疑問への答えを探った。
スプートニク日本
スプートニクはAIがミスをした様々な事例を調べた。2016年3月、マイクロソフト社がチャットボットTayをお披露目。米国に住むティーンエージャーのように話すよう作られた。(中略)...SNSの他のユーザーとのチャットを通じて学習した。Tayは「あなたたち人間って最高!」という楽観的なメッセージから会話を始めたが、その日が終わるころには「フェミニストは嫌いだ」「ユダヤ人は嫌いだ」といった言葉を発するようになった。プロジェクトは停止された。
(中略)
米IBMは医療業界でののスーパーコンピューター「ワトソン(Watson)」の活用を強く期待していた。だが後に、ワトソンは腫瘍の診断で頻繁に誤診を出し、患者の命にかかわる助言も出していたと発覚した。
(中略)
日常生活へのAIの浸透のリスクと、それを阻止する方法は?スプートニクの取材に応じ、元IBM社員で革新的なビジネス用ソフトを開発するCodigy社の創業者でCEOであるロシアの有名なIT専門家、ドミトリー・ドリゴ氏がこれらの質問に答えた。
スプートニク : AIがどんどん様々な分野に浸透することの主なリスクは?
ドリゴ氏 : 現在のAIの発展水準は人類にとって深刻なリスクではない。現在、その機能的ポテンシャルは制限されているからだ。
(中略)
スプートニク : 人間の死につながりかねないAIの悪質なミスを防止する手段はありますか?そうなった場合は、誰が責任を負いますか?
ドリゴ氏 : ほかのツール同様、AIは害を及ぼし得る。100%AIのミスを排除することは不可能だ。(中略)...AIがミスをした場合は開発者が責任を負い、ユーザーには起こり得る結果が警告されなければならない。罪の程度は、裁判所が決めることだ。
スプートニク : 未来の情報兵器とも名指されるディープフェイク技術の危険性は?
ドリゴ氏 : ディープフェイクは非常に強力で興味深い技術だ。だが危険なのは技術そのものではなく、それで武装した人間だ。(中略)...AIは(今のところ)、知能や人間が備える感情を有していない。そのため、AIの道徳、モラル、常識に関するほぼ全ての記事で検討されている例を挙げよう。衝突が避けられない状態で、線路上にいる誰を轢くべきか?ここで自動運転が取る決定は、プログラミングされた内容と、自動運転をプログラムした人物がモラルと常識のどちらを優先するかに左右される。
全く自己学習などしないAIコンピューターなどがあるのか?
誤った学習をすれば人間が意図しない行動を取ってしまうのは当然だろうに。
世間では「AIが救世主」のように持てはやされている風潮がある。もちろん、人間の労働の一部をAIが肩代わりしてくれれば非常にあり難く、その様な面は受け入れたい欲望にかられる。少し前に報じられたニュースになるが、2016年、Google関連の企業が開発した囲碁AIが、囲碁世界チャンピオンの韓国の棋士を破ったと言う内容だった。覚えておいでだろうか?当時は、AIが囲碁でプロに勝つまでに10年以上かかると言われていた事もあり、その快挙は「AI(人工知能)」や「Deep Learning(深層学習)」というキーワードと共に世界中のメディアで報じられた。それから1年後の2017年には最新の囲碁AIが発表された。初代のAlは、あらかじめプロ棋士の打ち筋を学習し、そこからAI同士の対戦で強くなっていくものであった。しかし、最新版のAlは囲碁のルールを覚えさえすれば、あとは自己学習のみで棋力を高めていくことができると言う。打ち筋というデータベースを必要とせず、AI自身が対局を繰り返して行ったところ、わずか3日の対局学習で初代のAIに100戦全勝したという。
スプートニクの記事によると、「AIの進歩は止まらず、徐々に私たちの生活の至るところに浸透してきている。AIはすでにスマートホーム、顔認証システム、教育や娯楽分野に加え、物流、公衆衛生、情報セキュリティでも使われるようになった。すでにニューラルネットワークは、人が関与せずに自己学習出来るようになってしまった」すなわち、AIが勝手に学習するようになってしまったと言うことである。この現実を見せられてしまうと当然ながら、
*AIが私たちの望む方向に発展していくという保証はどこにあるのか?
*AIが人間の知能を上回ったり、気が狂うことはあり得ないのか?
これらの疑問が沸いてくるはずである。これ等についてロシアの有名なIT専門家が、スプートニクの質問に答えてくれたようだ。それによると、
*「AIの機能的ポテンシャルは制限されており、現在の発展水準は人類にとって深刻なリスクではない」という。
*一方では、「ほかのツール同様、AIは害を及ぼし得る。100%AIのミスを排除することは不可能だ。AIがミスをした場合は開発者が責任を負う」というが、責任所在の明確化などでは済まない。
現在のAIでは、人間に危害を加えるリスクは低いかもしれないが、近い将来には、きっと人々を悩ませる事態が生じる可能性が十分考えられる。IT専門家は、「AIは(今のところ)、知能や人間が備える感情を有していない。そのため、AIの道徳、モラル、常識に関しては、プログラムした人物がモラルと常識のどちらを優先するかに左右されることになる」という。この点もかなり危険だが、加えて今の人類の精神レベルは決して高いとは言えず、メディアが調べたAIのミス事例を見ても、市場投入されたAIが、使われる過程で人々の言動に感染してしまうのが判る。しかし、このまま見過ごすわけにはいかない。何らかのトリガーは必要かもしれないが、人々が目覚め、お互いに調和した言動を取ればよいだけの話。この方向を目指して行けば共生型AIは夢では無いと思う。