AIが許される範囲(3)

自動車の自動運転についてレベル3,4は止めるべきであるというのが私の主張である。その最も大きな背景は、他の複雑なシステム製品に対しても同様であるが、システムが複雑になるほど、トラブル発生の確立が指数的に大きくなり、自動車のように一般人を乗せて走行する場合、人身事故に直結するからである。先に例としてJAXAの小型ロケットの通信システムトラブルを上げたが、システムを構成する機器、部品、材料の品質保証をコストを抑えてどこまで下げ得るかである。正直、民生用の製品、部品、材料を使用する限り無理である。 最近のもう一つの事例としてタカタのエアバッグがある。正確な技術的責任が何処にあるかは判明していないとされるが、実際に死亡事故は起きているのである。事故時に人命を救うために開発した製品が人命を奪っているのである。

自動車の自動運転へのAI適用はレベル1,2で十分であろう。

 

今日(平成29年1月23日)日経新聞のコラム「月曜経済観測」で日立製作所のCEOが語っている言葉に注目した。(記者が勝手に書いたものかも知れないが・・・)

ー「AIはあるゆるデータを網羅的に解析するので『予想外』というものがない。不確実性を産まないような結論を出してくれる」

ー「重要なのは固定観念で切り捨てられたデータかもしれない。そこに着目したら、より客観的な判断、意思決定ができるようになる。」

ー「企業は先入観や経営アドバイザーの意見にとらわれずに、事実関係だけで意思決定ができる」

cont'd

 

これを読んでの意見、感想は個人によって違うであろうが、私は正直驚いた。

1)競合関係にある大手企業数社が仮にすべてIBMの”ワトソン”を購入し、経営判断に利用したとしよう。解析結果が同じとなると、どのような経営方針が競合に勝つのであろうか?経営者は何をするのであろうか?

2)”先入観や固定観念が意思決定の邪魔をする”という事はありうる。しかし、多くの先輩が経験的に学んできた一種の"勘”のようなもの、失敗とか、思わぬ事故などに遭遇して必死に掴んだ”何か”、更に言うなれば、”固執したために花開く何か”等が経営の妙なのではなかろうか? AIに経営判断の基礎を頼るようなCEOはお払い下げである。

3)全ての東大生がそうではないが、傾向として、「東大生は賢すぎて答えが面白くない」、「いち早く結論を出して、諦めてしまう」という事実がある。一方、地方大学卒業生は「答えが分からないので、動いてみて、失敗をして、その結果、予想外の結論を出す」、「馬鹿馬鹿しい会話をしながら、何か面白い予想外の製品を開発したり、顧客の魂を掴んでくる」という傾向がある。AIは典型的な”東大生”である。(確か、このCEOは徳島大卒業だったと思うが?)

ここにも、AIが許される範囲をきちんと考えない経営者がいる。AIは飽くまでも補助手段であり経営判断の真ん中に据えてはならない。”ワトソン”がいても”シャーロックホームズ”が不可欠であり、そこに”人の知恵”が必要であることを肝に銘ずるべきであろう。

 

論理的思考方法として演繹的方法と帰納的方法がある。私の判断ではAIは演繹的手段の域を最後まで出れないのではないかと思う。