進歩は止まらず、人工知能(AI)は徐々に私たちの生活の至るところに浸透してきている。AIはすでにスマートホーム、顔認証システム、教育や娯楽分野に加え、物流、公衆衛生、情報セキュリティでも使われている。ニューラルネットワークはすでに人の関与無くして自己学習が可能だ。だが、AIが私たちの望む方向に発展していくという保証はどこにあるのか?AIが人間の知能を上回ったり、気が狂うことはあり得るのか?スプートニクはこれらの疑問への答えを探った。
スプートニク日本
スプートニクは
AIがミスをした様々な
事例を調べた。2016年3月、
マイクロソフト社が
チャットボットTayをお披露目。米国に住むティーンエージャーのように話すよう作られた。
(中略)...SNSの他のユーザーとのチャットを通じて学習した。Tayは「あなたたち人間って最高!」という
楽観的なメッセージから会話を始めたが、その日が終わるころには「
フェミニストは嫌いだ」「
ユダヤ人は嫌いだ」
といった
言葉を発するようになった。プロジェクトは停止された。
(中略)
米IBMは医療業界でののスーパーコンピューター「
ワトソン(Watson)」の
活用を強く期待していた。
だが後に、ワトソンは
腫瘍の診断で頻繁に誤診を出し、患者の命にかかわる助言も出していたと発覚した。
(中略)
日常生活へのAIの浸透のリスクと、それを阻止する方法は?スプートニクの取材に応じ、元IBM社員で革新的なビジネス用ソフトを開発するCodigy社の創業者でCEOである
ロシアの有名なIT専門家、ドミトリー・ドリゴ氏がこれらの
質問に答えた。
スプートニク : AIがどんどん様々な分野に浸透することの主なリスクは?
ドリゴ氏 : 現在のAIの発展水準は人類にとって
深刻なリスクではない。現在、その機能的ポテンシャルは制限されているからだ。
(中略)
スプートニク : 人間の死につながりかねないAIの悪質なミスを防止する手段はありますか?そうなった場合は、誰が責任を負いますか?
ドリゴ氏 : ほかのツール同様、
AIは害を及ぼし得る。100%AIのミスを排除することは不可能だ。
(中略)...AIがミスをした場合は開発者が責任を負い、ユーザーには起こり得る結果が警告されなければならない。罪の程度は、裁判所が決めることだ。
スプートニク : 未来の情報兵器とも名指されるディープフェイク技術の危険性は?
ドリゴ氏 : ディープフェイクは非常に強力で興味深い技術だ。だが危険なのは技術そのものではなく、それで武装した人間だ。
(中略)...AIは(今のところ)、知能や人間が備える感情を有していない。そのため、
AIの道徳、モラル、常識に関するほぼ全ての記事で検討されている例を挙げよう。衝突が避けられない状態で、線路上にいる誰を轢くべきか?ここで自動運転が取る決定は、プログラミングされた内容と、自動運転を
プログラムした人物がモラルと常識のどちらを優先するかに左右される。
あの頃は外国人実習生・留学生の悲惨な現状が、私たちの知るところとなりましたが、あれから良い方向に向かっているのでしょうか。
選挙では、こういう弱い立場の人たちに目を向ける国会議員を選びたいものです。
最後の、オマケも読んでね!