https://spaceplace.hatenablog.jp/

本やらなんやらの感想置き場

ネタバレ感想やらなんやらを気ままに書いています。

MENU

村上春樹「カンガルー日和」日和

  • 作品情報
  • 評価
  • ネタバレ感想

作品情報

カンガルー日和 (講談社文庫)

カンガルー日和 (講談社文庫)

評価

☆☆☆(最高評価は☆5つ)  

※以下は作品のネタバレを含むので、注意してください。

続きを読む

円城塔の短編「シャッフル航法」の考察及び52枚のアウトシャッフルの表

はじめに

 本稿では、円城塔さんの短編「シャッフル航法」の考察をしていきます。

シャッフル航法 (河出文庫)

シャッフル航法 (河出文庫)

 シャッフル航法は、序文と00~08のパートにより構成されています。冒頭はシャッフル航法の解説、実際にシャッフル航法を行なっているのが00~08の部分です。

 00の冒頭を見てみると、「ある朝に、その夜に、(中略)シャッフル航法。」という一節があります。「ある朝に、」や「シャッフル航法。」のような句読点までの一節が、1つのまとまりとなります。このようなまとまりは、各段落13個ずつあり、計52個のまとまりになります。トランプの数と一緒ですね。これを並び替えていくのがシャッフル航法という訳です。例えるなら、「ある朝に、」や「シャッフル航法。」等々と書かれた52枚のカードを並べ替えていくようなものですね。

 このシャッフル航法は、文章をランダムにかき混ぜたものではありません。実際、円城塔さんはインタビューでこう語っています。

「シャッフル航法」で書いたのは、プログラムと一章分の文章です。先に書いておいたプログラムで、文章の順番を規則的にかき混ぜていきました。やろうと思えば手動でもできましたが大変なので、プログラムに助けてもらったんです。順番をかき混ぜて、8回で元の文章に戻るというプログラムですね。
円城塔さんインタビュー | BOOK SHORTS

 この規則的なかき混ぜ方が、物語の冒頭にあったアウトシャッフルになるという訳です。00の最初の「ある朝に、」と書かれたカードが一番目、最後の「支離滅裂に。」と書かれたカードが52番目になる、52枚のカードがあるイメージですね。これをアウトシャッフルするので、8回で元の文章に戻ります。そのため、00と08は同一の文章になると言う訳です。

 論より証拠という事で、本稿の末尾にアウトシャッフルの表を掲載してみます。一番左の列が物語の00、左から2番目が物語の01に対応します。例えば、00で二番目に出てくる「その夜に、」は、それぞれ2 3 5 9 17 33 14 27 2番目に出てきます。こう言う風に並べ替えられていた訳ですね。

 最後の「[Finished in 0.1s]」とは、円城塔さんが並び替えるプログラムを書いて、それを実行して並べ替え終わるまでに0.1秒かかったという事を表しているということでしょうね。

52枚のアウトシャッフルの表

 

00 01 02 03 04 05 06 07 08
1 1 1 1 1 1 1 1 1
2 3 5 9 17 33 14 27 2
3 5 9 17 33 14 27 2 3
4 7 13 25 49 46 40 28 4
5 9 17 33 14 27 2 3 5
6 11 21 41 30 8 15 29 6
7 13 25 49 46 40 28 4 7
8 15 29 6 11 21 41 30 8
9 17 33 14 27 2 3 5 9
10 19 37 22 43 34 16 31 10
11 21 41 30 8 15 29 6 11
12 23 45 38 24 47 42 32 12
13 25 49 46 40 28 4 7 13
14 27 2 3 5 9 17 33 14
15 29 6 11 21 41 30 8 15
16 31 10 19 37 22 43 34 16
17 33 14 27 2 3 5 9 17
18 35 18 35 18 35 18 35 18
19 37 22 43 34 16 31 10 19
20 39 26 51 50 48 44 36 20
21 41 30 8 15 29 6 11 21
22 43 34 16 31 10 19 37 22
23 45 38 24 47 42 32 12 23
24 47 42 32 12 23 45 38 24
25 49 46 40 28 4 7 13 25
26 51 50 48 44 36 20 39 26
27 2 3 5 9 17 33 14 27
28 4 7 13 25 49 46 40 28
29 6 11 21 41 30 8 15 29
30 8 15 29 6 11 21 41 30
31 10 19 37 22 43 34 16 31
32 12 23 45 38 24 47 42 32
33 14 27 2 3 5 9 17 33
34 16 31 10 19 37 22 43 34
35 18 35 18 35 18 35 18 35
36 20 39 26 51 50 48 44 36
37 22 43 34 16 31 10 19 37
38 24 47 42 32 12 23 45 38
39 26 51 50 48 44 36 20 39
40 28 4 7 13 25 49 46 40
41 30 8 15 29 6 11 21 41
42 32 12 23 45 38 24 47 42
43 34 16 31 10 19 37 22 43
44 36 20 39 26 51 50 48 44
45 38 24 47 42 32 12 23 45
46 40 28 4 7 13 25 49 46
47 42 32 12 23 45 38 24 47
48 44 36 20 39 26 51 50 48
49 46 40 28 4 7 13 25 49
50 48 44 36 20 39 26 51 50
51 50 48 44 36 20 39 26 51
52 52 52 52 52 52 52 52 52

関連記事>>>円城塔のおすすめ作品6選

AI裁判官は生まれ得ないのではないか

f:id:spaceplace:20180920154819j:plain

はじめに

 AIは、なんでもできると思われていたりする。NHKですらAIは「天使か悪魔か」と言う現状である*1。そんな中、AI裁判官が生まれるのではないかという言説を時たま見かける*2

 果たして、そんなAI裁判官は生まれうるのだろうか。本稿では、それについて少し考えてみたい。

憲法上の問題

 そもそも、日本国憲法上、AI裁判官は生まれ得ないではないかと思われる。例えば、日本国憲法79条第5項は、「最高裁判所の裁判官は、法律の定める年齢に達した時に退官する」と定めている。また、第80条但書は、下級裁判所の裁判官が「法律の定める年齢に達した時には退官する」と定めている。これらの条文は裁判官に年齢があることを前提として書かれている以上、裁判官は人間である必要があると解される。また、そもそも国民でないAIに司法を任せるのは、国民主権の観点からも問題があることからすれば、AIが裁判官になり得るという解釈は厳しいと考えられる。

 これらの点に加え、日本国憲法が戦後70年以上も経っているにも関わらず、一度も改正されていないことからすれば、AI裁判官を認めるような憲法改正がなされることはないと考えられる。

 したがって、AI裁判官は生まれ得ないと私は考える。ただ、あくまでAIそれ自体が裁判官になることが許されないのであって、AIが裁判官をサポートすること自体は、おそらく許されるだろう。

技術上の問題

バグ

 まず、根本的な問題として、AI裁判官はプログラムによって作られるわけであるから、そこには常にバグが生じる恐れがある。裁判官の判断は間違ってはならないものであるが、その判断が間違えないようにバグのないAI裁判官を開発する事は、至極骨の折れる作業であろう。

 一度自分でプログラムのコードを書いてみればわかるが、プログラミングはバグとの戦いであり、システムが複雑になればなるほどバグをなくすのは難しい。そのようなバグをなくす困難さは、色々なソフトウェアがバグをなくすために頻繁にアップデートを繰り返していることからもわかる。多様な判断をなさなければならないAI裁判官は、おそらく複雑なプログラムであってバグをなくすのは困難だと考えられるところ、バグによって判断を間違え得るAIに裁判官を任せていいのかという問題がまずある。

 人間の裁判官だって間違えるのであるから、バグがあっても人間と同程度の判断ができるAI裁判官であれば良いという考え方もある。しかし、その考え方をとって、そのような判断を下せるまでバグを減らすことができると仮定しても、まだ問題は残っている。

法の解釈や事実認定

 裁判官の重要な仕事として、法の解釈や事実認定がある。そもそも、AIが「正しい」法の解釈や事実認定ができるのかが問題となる。

 法の解釈について言えば、AIが解釈ができるかが問題となる。AIに法の解釈をさせる方法として、人間が法の解釈をコード化することと、AIに自ら解釈を学習させる方法が考えられる。前者については非現実的である。法の条文は莫大な数があり、頻繁に改正されるものであるから、それらの解釈を、バグが生じないように一々人間がコード化するのは事実上不可能であろう。

 後者について言えば、おそらく判例等を読み込んで学習することになるだろうが、新しい法などについては既存の文献に全く解釈が掲載されていないものが存在するだろう。それらについてAIが学習するのは難しい。そのような法について、AIにどうやれば解釈させられるのか、私には想像もつかない。また、既存の判例がある分野については、判例に沿った解釈しかできないことになるが、裁判官は判例に常に従っていれば良いという訳ではないだろう。時には、既存の判例から離れて新たな解釈を示す必要があることもある。

 また、事実認定についてはいちいちコード化するのは不可能だろう。よって、機械学習を用いることになろうが、時には従来の判例が扱ってこなかった事件が生じることもある。既存の判例がない状況において、AIにどうやれば事実認定させられるかについても、私には想像がつかない。

「正しい」解釈・事実認定の基準を作れるかという問題

 また、解釈・事実認定できるAI裁判官を作ると言う事は、このように解釈・事実認定をすることがある種の「正解」であることを認めることになる。そもそも、解釈や事実認定について、そのような「正解」を作り出すことはできるのか。そもそも、日本の法曹界はそのような「正解」について合意できるかというと、難しいのではないかと考えられる。世の中には数多くの解釈すべき条文や事実認定がなされる状況があるから、その1つ1つについて法曹界でコンセンサスを取るのは非現実的だからだ。

 そして、そのような合意が得られないで作られたAI裁判官が、実務で受け入れられるかというと厳しいだろう。 

開発費用の問題

 また、そもそもAI裁判官を作る際の開発費用が問題となる。複雑なシステムであるAI裁判官を作るには、多額のコストがかかることが容易に想像できるが、そのような多額の予算をそもそも裁判所が用意できるのかという問題がある。IT化すら進んでいない裁判所*3が、AI裁判官の開発のためだけに多額の予算を確保することは難しいに違いない。

まとめ

 結局のところ、日本国憲法がある以上AI裁判官は生まれ得ないだろう。裁判官をサポートするAIのシステムは生まれ得るかもしれないが、それにしろ問題は山積みである。特に、判例がないような事件を取り扱えるAIを開発する事は困難であろうから、将来的にも、判例のある分野について裁判官をサポートするシステムができるのが関の山ではないかと考える。