AI(人口知能)は何でもできて人のあらゆる仕事を奪ってしまうという危惧を訴える人もいる。知識だけでなく人が経験から学ぶ知恵も吸収し、そこから最適な解を見つけて判断もする。
嗜好や感動などの人の反応や評価をもパターン化して答えを出す。定理、定義付けなどパターン化できる仕事は任せるしかない。イレギュラーの多い仕事、予測不能な出来事の処理、間や空気を読む仕事、これを選ぶしか無いのかもしれない。
ただ、面白いことにAIは最適解を即座に見つけることはできるのだが、なぜその解に至ったのかの理由は答えられない。
ここで2つ考えることがでてくる。
一つは、今これが最適解だとしてもそれを実行(行動)に起こせばタイムラグが生まれる。時間が経てば状況が変わることもある。そうすると改めて最適解が上書きされる。つまり常に最適解を得られたとしても最適結果とはならないこともあるということだ。
もう一つは、人は必ずしも最適解を選ぶとは限らない。そういった辻褄の合わない、理不尽な判断や行動をとることも多々ある。そこでAIはその非合理的行為行動の結果も情報として取り入れて新たな最適解を出し、誤差を修正してくるかもしれない。しかし、最適解は絶対解ではないし、そもそもAI自身は結果責任を取ることはできない。
人は、非合理であろうと理不尽であろうとやった行為に対する結果について責任を取らなければならない。つまり、「因果応報」を受け入れて生きている。99.9%の確率よりも0.01%に賭けることもある。
AIには終わりはないが、人には「死(終わり)」がある。いつ訪れるかもしれないが必ず来る「死(絶対解)」を受け入れて選択することもあるし、その他者の死を受け入れながら解釈(ストーリー)を説いていく。結果としての「死」について最適解を追求するAIはどう解釈するであろうか?「死」を意識しながら生きていく人や人の集まりに最適解ではない価値を見出せないものだろうか?