機械的正当性

2017年11月14日

10代の頃、人工知能(AI)が数年以内に素晴らしいことをしてくれるだろうと聞かされたのを覚えています。今や数十年が経ち、その一部が実現しつつあるようです。最近の最も目覚ましい成果は、コンピュータ同士が対戦して互いに教え合うことで、人間よりも急速に熟達し、人間の専門家がほとんど理解できない戦略を用いるようになった、囲碁の学習でした。今後数年で何が起こるのか、コンピュータはすぐに人類よりも高い知能を持つようになるのだろうか、と疑問に思うのは自然なことです。(最近の選挙結果を考えると、それはそれほど難しいことではないかもしれません。)

しかし、これらの話を聞くにつけ、私は何十年も前のパブロ・ピカソのコンピュータに関するコメントを思い出します。「コンピュータは役に立たない。答えしかくれないから。」機械学習のような技術がもたらす推論は、結果として非常に印象的であり、ソフトウェアのユーザーや開発者として私たちにとって役に立つでしょう。しかし、答えは便利ではありますが、必ずしも全体像を示すものではありません。私は学校の初期の頃にこれを学びました。数学の問題の答えを提供するだけでは数点しか得られず、満点を得るためには、どのように答えを得たかを示す必要がありました。答えにたどり着いた推論は、結果そのものよりも価値がありました。これは、独学で学んだ囲碁AIの限界の一つです。彼らは勝つことはできますが、戦略を説明することはできません。

この世界において、AIに対する大きな課題の一つは、機械学習によって答えを得る方法を解明できたとしても、その答えに対して機械が正当性を示す(Machine Justification)システムをまだ持っていないということです。AIが私たちに代わってより多くの判断を下すようになると、答えだけでは不十分な状況にますます遭遇するでしょう。AIは法的な事例を判断するように訓練されるかもしれませんが、AIがその推論を説明できない判決を受け入れることができるでしょうか?

このことから、将来的には新しいタイプの「プログラマー」が必要になる可能性が高いと思われます。その仕事は、AIがなぜそのような答えを出すのかを解明し、AIのスキルを支える推論を推測することです。AIが優れた判断を下していることがわかるものの、その決定の根底にある理論を本当に理解するために別のアプローチが必要になる多くの分野が見られるでしょう。

この問題は特に深刻です。なぜなら、これらの機械が訓練データから望ましくない行動、例えば、信用格付けを判断する際に人種的少数派を差別するような行動を学ぶのが非常に簡単であることがわかっているからです。

多くの人と同じように、私はコンピュータの機会の多くは人間との協調にあると考えています。コンピュータの優れた活用とは、コンピュータが強いところ(制約された作業を迅速に行う)と人間が優れているところを理解し、それらを組み合わせて使用することです。コンピュータは、最も知的な意味で、心の道具です。プログラミングでは、若いプログラマーの頃は叱られたものですが、コンパイラーにエラーを見つけたり、代替案を提案してもらったりすることに抵抗はありません。両者が最も強い場所の境界線は流動的であり、将来の魅力の一つは、その動きをどのように最大限に活用できるかということです。

参考資料

MIT Technology Reviewは、AIの説明可能性という幅広いトピックを考察しています。

The AtlanticNPRTech Republicの記事には、機械学習の危険性や望ましくない偏見に関するものがいくつかあります。

謝辞

Brandon Byars、Chris Ford、Christoph Windheuser、Danilo Sato、Dave Elliman、Ian Cartwright、Kent Rahman、Saleem Siddiqui、Sallie Walecka、Tito Sarrionandia、Vishal Bardoloiが社内メーリングリストでこの投稿の草稿について議論しました。