AIの脅威についての意見表明

2015.7.29ブエノスアイレスで開かれた「AIに関する国際会議」に”自律ロボット兵器の禁止」を訴える書簡をイーロン・マスク、スティーブン・ホーキング博士、エリック・ホロヴィッツなどの知識人が提出したことは知られている。これはAIの開発が進み、”思考の自律化”が可能になると、ある程度の”意思”を持つロボット兵器の製造・展開が可能になることの脅威を懸念しての意見表明である。

福島原発廃炉作業に向けての危険作業などに対応した”自律ロボット作業員(装置)”というのなら、それなりに意味があり、ぜひとも開発・応用して欲しいと思う。しかし、廃炉作業向けのAIと兵器向けのAIでは何が違うのであろうか?その目的は異なるにしても、AI自体の能力は恐らく殆ど同じであろう。原子爆弾原子力発電の比喩を持ち出さなくても理解できよう。だから、私は心配なのだ。技術開発というものは、一度走り出したら技術の追求という名の下に、どんどん進展していく。特に、現在のように開発ツールが豊富に身の回りにあり、利用できる時代では。

私は”自律型アンドロイド”の開発が10年以内に十分可能という見通しの下に、第4回日経新聞主催の”星新一賞”に複数のSF小説を応募した。2月24日発表では見事に落選したが、書いている内容は未来社会に対する啓蒙である。即ち、"AIの脅威を今から予測して対応を図らないと我々の存在しているアイデンティティが喪失する”と。

そのためには、先にも書いたように、歯止めを先に考えて、規制をかけてから許される範囲に限定したAI利用開発研究・応用展開を行うべきだという事である。

何か、今は熱病に浮かされたように殆どの国及び企業等の研究開発部門が”AI”に走っているのは心底から恐ろしい。

次回に、星新一落選小説を掲載しよう。ご笑覧頂ければ幸いである。

dosankojj

AIが許される範囲(3)

自動車の自動運転についてレベル3,4は止めるべきであるというのが私の主張である。その最も大きな背景は、他の複雑なシステム製品に対しても同様であるが、システムが複雑になるほど、トラブル発生の確立が指数的に大きくなり、自動車のように一般人を乗せて走行する場合、人身事故に直結するからである。先に例としてJAXAの小型ロケットの通信システムトラブルを上げたが、システムを構成する機器、部品、材料の品質保証をコストを抑えてどこまで下げ得るかである。正直、民生用の製品、部品、材料を使用する限り無理である。 最近のもう一つの事例としてタカタのエアバッグがある。正確な技術的責任が何処にあるかは判明していないとされるが、実際に死亡事故は起きているのである。事故時に人命を救うために開発した製品が人命を奪っているのである。

自動車の自動運転へのAI適用はレベル1,2で十分であろう。

 

今日(平成29年1月23日)日経新聞のコラム「月曜経済観測」で日立製作所のCEOが語っている言葉に注目した。(記者が勝手に書いたものかも知れないが・・・)

ー「AIはあるゆるデータを網羅的に解析するので『予想外』というものがない。不確実性を産まないような結論を出してくれる」

ー「重要なのは固定観念で切り捨てられたデータかもしれない。そこに着目したら、より客観的な判断、意思決定ができるようになる。」

ー「企業は先入観や経営アドバイザーの意見にとらわれずに、事実関係だけで意思決定ができる」

cont'd

 

これを読んでの意見、感想は個人によって違うであろうが、私は正直驚いた。

1)競合関係にある大手企業数社が仮にすべてIBMの”ワトソン”を購入し、経営判断に利用したとしよう。解析結果が同じとなると、どのような経営方針が競合に勝つのであろうか?経営者は何をするのであろうか?

2)”先入観や固定観念が意思決定の邪魔をする”という事はありうる。しかし、多くの先輩が経験的に学んできた一種の"勘”のようなもの、失敗とか、思わぬ事故などに遭遇して必死に掴んだ”何か”、更に言うなれば、”固執したために花開く何か”等が経営の妙なのではなかろうか? AIに経営判断の基礎を頼るようなCEOはお払い下げである。

3)全ての東大生がそうではないが、傾向として、「東大生は賢すぎて答えが面白くない」、「いち早く結論を出して、諦めてしまう」という事実がある。一方、地方大学卒業生は「答えが分からないので、動いてみて、失敗をして、その結果、予想外の結論を出す」、「馬鹿馬鹿しい会話をしながら、何か面白い予想外の製品を開発したり、顧客の魂を掴んでくる」という傾向がある。AIは典型的な”東大生”である。(確か、このCEOは徳島大卒業だったと思うが?)

ここにも、AIが許される範囲をきちんと考えない経営者がいる。AIは飽くまでも補助手段であり経営判断の真ん中に据えてはならない。”ワトソン”がいても”シャーロックホームズ”が不可欠であり、そこに”人の知恵”が必要であることを肝に銘ずるべきであろう。

 

論理的思考方法として演繹的方法と帰納的方法がある。私の判断ではAIは演繹的手段の域を最後まで出れないのではないかと思う。

AIが許される範囲(2)

AIについては、恐らくプラスの面だけが強調されて研究開発・普及が進むであろう。それはそれで良いことである、

下表は「官民 ITS 構想・ロードマップ 2016 」~2020 年までの高速道路での自動走行及び限定地域での無人自動走行移動サービスの実現に向けて~ (平成 28 年 5 月 20 日 高度情報通信ネットワーク社会推進戦略本部 )からの引用である。

私の考え方では”良い面”はレベル1とレベル2の半分程度までで、レベル3&4は”悪い面”となる。

即ち、人身事故の絶滅、衝突や自損事故の軽減、高齢者の判断能力補完、自動車本体のメンテナンス支援、車内の快適性維持、省エネ運転支援、そしてドライバーの肉体的トラブルへの警告・自動停止、などは是非ともAI技術によって対応を図って欲しい項目である。本来の目的である”ドライバー自身の安全を確保し、かつ、平行して、または対向して走行中の車両との走行中の事故を防ぎ、交差点等における歩行者との事故を絶滅する”ことを第一義として対応することが絶対条件である。それ以上は望まないし、望む必要はない。

それなのに、業界及び国はレベル3,4と、より高度化、複雑化しょうとして、競争に膨大な資源(人、資金、時間)を投入している。何故と聞きたい。

私自身が某大手電機会社に40年余を過ごして分かるのであるが、システムというものは

複雑になればなるほど、達成感が大きく、開発者として満足度が高いものである。しかし、システムが複雑という事は部品点数が指数的に増加するため、品質保証の要求度も指数的に高くなってくるのが常識である。上の表で、レベル3,4となると責任は”システム側”になると明記されており、ドライバーの生命は元より他のドライバーや歩行者の生命までも”システム”に責任を持たせるという考え方になっている。私は、一品だけの特別注文品であればいかなる複雑なシステムでもお金に糸目をつけずに設計・製造する自信がある。しかし、少なくとも何万台という”ライン”で製造される”走る凶器”とも称される自動車がレベル3,4の複雑なシステムで自動走行を許可するという事には断固として反対である。技術的に出来るという事と、その技術を一般化するという事は別のものである。AIの”悪い面”である。

そのような事を考えていたら、先日、ミニロケットが発射に成功したものの、情報通信で問題が発生し、2段目の着火を断念したとの記事があった。コストを低減するために、民生用のシステム、部品を採用したことが原因らしいとある。このミニロケットを打ち上げるために、”民生用のシステム、部品”と言っても、相当な品質管理の製品を選らび、かつ、種々の耐久性などの実験を行い、採用したものであって、秋葉原へ行って適当に購入したものではない筈である。それでも、一品だけの特別仕様システム、部品とは異なるのである。自動運転のレベル3,4ではドライバーや歩行者などの生命が担保になっているので、故障しましたでは済まないのである。

私は問いたい。何のためにこのようなレベル3,4が必要なのか?と。

想像するに、レベル3,4に対応する自動車が市販されると、その価格はとんでもない価格であり、一部の富裕層向けだけになるであろう。そのドライバーはハンドルを操作することなく、携帯でゲームをしたり、お茶を飲んだりしていて、並走している旧型自動車の運転席には高齢者が必死にハンドルにしがみついて運転している光景は見たくないものである。

cont'd

AIが許される範囲(1)

先に、AIの普及が人間を駄目にするのでは?という最も基本的な懸念と、危険度について述べた。しかし、AIの開発、導入はバブルの状態にあり、殆どの企業や研究機関が競ってAIに走っていて、私のように、AIの開発、導入に疑問を大ぴらに話す人は稀であるようだ。

私も、ある範囲まではAIが許容されるし、また、導入すべきだと思っている。原子核の研究が原子爆弾につながったように、技術には良い面と悪い面が同居していることは言うまでもない。良い面だけに限定して研究開発していたつもりだと、開発者は後になって釈明するが、その時は既に遅いことは幾つかの研究開発歴史が物語っている。

医療分野で陽の眼を浴びている”再生医療”も、クローン人間の出現などが絶対に行われないように、法律的な禁忌事項を研究のかなり上流時点で考えている。それは容易にクローン人間という者の存在が何を引き起こすか想像可能だからである。

ではAIはどうだろうか?現在ジャーナリストが謳っている事は、”AIが人間生活にとって良い”、何故ならばAI導入により、人間の能力の不足分を補い、更に便利な社会を提供させる唯一の技術手段であるという金看板と思い込んでいるからである。確かに、人間の能力の不足分を補ってくれるし、より便利な社会にもなろう。”しかし”である。

星新一”ではないが、規制の無いままでの2、30年先の社会を想定すると、”AI自身が相互にネットワークでconnectedされており、しかも自律的に考える能力を持つAI”が出現しており、人間はAI社会の中で、三次産業の一部だけに生きがいを見つけていると思われる。

                               cont'd

AI の危険度

今朝の日経にAIに関する”規制”の記事あり、読みましたか?

これを読む限り、真の危険性について理解が進んでいないことが分かります。

AIが一度走り出すと(そのようなプログラムがあると)、”ヒト”が緊急停止ボタンを先に押さない限り、または、電源を抜かない限り誰もその暴走を止めることが出来ません。仮に「暴走するようなプログラムを採用しては駄目」と規定しても、誰がそれをチェックして、安全なプログラムに変更できるのでしょうか?モラルしか頼りになりません。私はAIの開発を否定しているのではありません。先ず、AIを制御する(暴走しない)方法を開発し、それが確実に機能することを確認してから、全てのAI搭載機器にその機能を必ず付与することを条件に開発を認めるべきだと考えています。許認可という役所の発想では絶対にダメです。

2016.12.31

dosankojj

AI って人を駄目にするのでは?

毎日、嫌になるほどAIの記事が多いが、本当にAIが人類をどれだけ豊かにしてくれるか疑問に思っています。何も考えない、調査能力、運動能力、知識を組み合わせる能力等が次第になくなり、遂には”考える葦”でなくなることが心配です。CPUが発達したために計算が出来なくなり、数字という本質(例:有効数字の考え方)を知らないで数字を振り回す人間が多くなっているのと同じ現象が出てくるでしょうね。

次回からもう少し詳しく議論していきます。

2016.12.30

DosankoJJ