https://spaceplace.hatenablog.jp/

本やらなんやらの感想置き場

ネタバレ感想やらなんやらを気ままに書いています。

MENU

AI裁判官は生まれ得ないのではないか

f:id:spaceplace:20180920154819j:plain

はじめに

 AIは、なんでもできると思われていたりする。NHKですらAIは「天使か悪魔か」と言う現状である*1。そんな中、AI裁判官が生まれるのではないかという言説を時たま見かける*2

 果たして、そんなAI裁判官は生まれうるのだろうか。本稿では、それについて少し考えてみたい。

憲法上の問題

 そもそも、日本国憲法上、AI裁判官は生まれ得ないではないかと思われる。例えば、日本国憲法79条第5項は、「最高裁判所の裁判官は、法律の定める年齢に達した時に退官する」と定めている。また、第80条但書は、下級裁判所の裁判官が「法律の定める年齢に達した時には退官する」と定めている。これらの条文は裁判官に年齢があることを前提として書かれている以上、裁判官は人間である必要があると解される。また、そもそも国民でないAIに司法を任せるのは、国民主権の観点からも問題があることからすれば、AIが裁判官になり得るという解釈は厳しいと考えられる。

 これらの点に加え、日本国憲法が戦後70年以上も経っているにも関わらず、一度も改正されていないことからすれば、AI裁判官を認めるような憲法改正がなされることはないと考えられる。

 したがって、AI裁判官は生まれ得ないと私は考える。ただ、あくまでAIそれ自体が裁判官になることが許されないのであって、AIが裁判官をサポートすること自体は、おそらく許されるだろう。

技術上の問題

バグ

 まず、根本的な問題として、AI裁判官はプログラムによって作られるわけであるから、そこには常にバグが生じる恐れがある。裁判官の判断は間違ってはならないものであるが、その判断が間違えないようにバグのないAI裁判官を開発する事は、至極骨の折れる作業であろう。

 一度自分でプログラムのコードを書いてみればわかるが、プログラミングはバグとの戦いであり、システムが複雑になればなるほどバグをなくすのは難しい。そのようなバグをなくす困難さは、色々なソフトウェアがバグをなくすために頻繁にアップデートを繰り返していることからもわかる。多様な判断をなさなければならないAI裁判官は、おそらく複雑なプログラムであってバグをなくすのは困難だと考えられるところ、バグによって判断を間違え得るAIに裁判官を任せていいのかという問題がまずある。

 人間の裁判官だって間違えるのであるから、バグがあっても人間と同程度の判断ができるAI裁判官であれば良いという考え方もある。しかし、その考え方をとって、そのような判断を下せるまでバグを減らすことができると仮定しても、まだ問題は残っている。

法の解釈や事実認定

 裁判官の重要な仕事として、法の解釈や事実認定がある。そもそも、AIが「正しい」法の解釈や事実認定ができるのかが問題となる。

 法の解釈について言えば、AIが解釈ができるかが問題となる。AIに法の解釈をさせる方法として、人間が法の解釈をコード化することと、AIに自ら解釈を学習させる方法が考えられる。前者については非現実的である。法の条文は莫大な数があり、頻繁に改正されるものであるから、それらの解釈を、バグが生じないように一々人間がコード化するのは事実上不可能であろう。

 そのため、おそらく判例等を読み込んで学習することになるだろうが、新しい法などについては既存の文献に全く解釈が掲載されていないものが存在するだろう。それらについてAIが学習するのは難しい。そのような法について、AIにどうやれば解釈させられるのか、私には想像もつかない。例えば、「窃盗」という言葉を解釈するにしても、多種多様な解釈がなしうることは、言葉の意味が辞書によってまちまちであることからもわかる。そのような多数な解釈を許す言葉が集まって構成される条文について、どうやって解釈を考えさせれれば良いというのか。

 また、既存の判例がある分野については、判例に沿った解釈しかできないことになるが、裁判官は判例に常に従っていれば良いという訳ではないだろう。時には、既存の判例から離れて新たな解釈を示す必要があることもある。

 さらに、事実認定についてはいちいちコード化するのは不可能だろう。よって、機械学習を用いることになろうが、時には従来の判例が扱ってこなかった事件が生じることもある。既存の判例がない状況において、AIにどうやれば事実認定させられるかについても、私には想像がつかない。

「正しい」解釈・事実認定の基準を作れるかという問題

 また、解釈・事実認定できるAI裁判官を作ると言う事は、このように解釈・事実認定をすることがある種の「正解」であることを認めることになる。そもそも、解釈や事実認定について、そのような「正解」を作り出すことはできるのか。そもそも、日本の法曹界はそのような「正解」について合意できるかというと、難しいのではないかと考えられる。世の中には数多くの解釈すべき条文や事実認定がなされる状況があるから、その1つ1つについて法曹界でコンセンサスを取るのは非現実的だからだ。

 そして、そのような合意が得られないで作られたAI裁判官が、実務で受け入れられるかというと厳しいだろう。 

開発費用の問題

 また、そもそもAI裁判官を作る際の開発費用が問題となる。複雑なシステムであるAI裁判官を作るには、多額のコストがかかることが容易に想像できるが、そのような多額の予算をそもそも裁判所が用意できるのかという問題がある。IT化すら進んでいない裁判所*3が、AI裁判官の開発のためだけに多額の予算を確保することは難しいに違いない。

まとめ

 結局のところ、日本国憲法がある以上AI裁判官は生まれ得ないだろう。裁判官をサポートするAIのシステムは生まれ得るかもしれないが、それにしろ問題は山積みである。特に、判例がないような事件を取り扱えるAIを開発する事は困難であろうから、将来的にも、判例のある分野について裁判官をサポートするシステムができるのが関の山ではないかと考える。