AIとブロックチェーンは、法の支配においてどんな意味を持つのか?

徹底的な対立ではないとしても、デジタルサービスは頻繁に法の支配と衝突しあっている。ディープラーニングソフトウェアや自動実行型のコードといったテクノロジーが法的判断を主導するようになったら、一体どんなことが起こるだろう?

次世代の「リーガルテック」システムが、特定の集団や個人に対し不当なバイアスをかけることなどない、と確証できるだろうか?データドリブンで決められた正義の質を弁護士が適切に評価するには、どのようなスキルが求められるだろうか?

アントレプレナーたちが従来のリーガルプロセスに注目しはじめ、コスト削減を目論み、「合理化(streamline)」という言葉を口にしだしてから 数年が経過した。しかし、変革の可能性を秘めたAI技術が、既にそのアルゴリズム的手法をリーガルプロセスにもたらしつつあり、その過程で恐らく法律自体の形を変えている一方で、この初期段階のリーガルイノベーションは重要性を失いだしている。

もし、個々のデータセットを学習させたアルゴリズムモデルによって判断が自動化されたり、ブロックチェーンに埋め込まれて執行されるポリシーから判断が生じるようになったら、法的保護は意味をなすのだろうか?

弁護士であり哲学家でもある Mireille Hildebrandt氏(ブリュッセル自由大学の 法律、科学、技術及び社会を対象とする研究グループに在籍する教授)は、5年間にわたり、自身が「computational law(計算法律学)」と呼ぶものの意義について研究するなかで、このような疑問を抱いた。

先月、 欧州研究会議(European Research Council はHildebrandt氏の行った 基礎研究 を表彰し250万ユーロを授与した。この研究は、リーガルAI、そして、法律の世界へのブロックチェーンの応用という2つのテクノロジーにフォーカスしたものである。

Hildebrandt氏がTechCrunchと彼女の研究プランについて談話した際、彼女は、弁護士とコンピューターサイエンティストという両方の立場で、極めて抽象的な側面と極めて実用的な側面の双方からプロジェクトを説明した。彼女は、新たな法解釈学を提案することを目指していると語った。つまり、計算法律学のアーキテクチャへ適切にアプローチして、その限界と意義を理解し、いよいよ私たちを評価するためにも利用されるであろうテクノロジーに対し、的確な問いを投げかけ、適切な評価を行うための弁護士に向けた枠組みである。

「弁護士がコンピューターサイエンティストと一緒に、今、直面していることを理解する、という発想です。」と彼女は説明した。「ずっとこの話をしたいと思っていました…私は、弁護士には、鋭い分析力を備え、哲学的な興味のもとにコンピューターサイエンティストとともに活動し、お互いの言語を本当の意味で理解する人であってほしいと思っています。」

「私たちは共通言語を作ろうとしているのではないのです。そんな試みはうまくいかないと私は確信しています。ですが、ある用語の意味が別の分野ではどのような意味になるか理解する必要があります。そして双方の分野に触れて学び、認め、それぞれの複雑さを知ったうえで、全てをシンプルにしようとすることは避けるべきです。」

「複雑さを知った次は、実際にこれに関係する人々、つまり私たち市民が、政治的レベルにおいても、そして毎日の生活の中でも意思決定できるように、これを説明できるようにならなければなりません。」

Hildebrandt氏は、「大きく異なる2つのタイプの計算法律学」を提示するために、AIとブロックチェーン技術の両方をプロジェクトの検討対象に取り入れたと言う。

もちろん、2つを併せて応用することで、リーガルテックの場で「全く新しいリスクと機会」を創出する可能性もある。

ブロックチェーンは「未来を硬化させる」とHildebrandt氏は主張する。2つのテクノロジーを認めながらも、この文脈では少し懐疑的だ。「一度ブロックチェーンを使いだすと、考え方を変えることが難しくなりますし、こういった習慣が自己強化されてしまうと、それを変えようと思ったときに、金銭面だけでなく、努力や時間、混乱、不安といった面でも非常に負担が大きくなってしまいます。」

「私たちなら、ブロックチェーンをフォーク(分岐)させても問題ありませんが、政府が関与する場合にはそうはいかないと思います。政府の場合には、簡単にフォークさせるわけにはいきません。」

とはいえ、将来的にはいつか、例えば、国際税法上の義務を定めるにあたってもっとシンプルなシステムが求められるときに、ブロックチェーンが国や企業にとって魅力的な代替メカニズムであることに気づかれだすだろうと彼女は結論づけている(実際にそうした協定に至ったと仮定した場合の話であるが)。

インターネットプラットフォームが、国境を超え、異なる司法と政治的期待の交わる場所で運用される場合に、コンプライアンスの問題がいかに複雑なものとなりうるかを考えると、ルールを適用するには新しいシステムが必要だと考えられるようになるだろう。そしてポリシーをブロックチェーンに載せることは、この混沌とした重複状態に対応するための一つの方法となりうるのだ。

しかし、Hildebrandt氏はコンプライアンスのためのブロックチェーン型システムには慎重である。

リーガルAIはプロジェクトのもう一つの焦点であるが、リーガルAIについては、彼女はもちろんリスクも踏まえた上で、はっきりと高いポテンシャルを見出している。「リーガルAIを用いるということはすなわち、機械学習を用いて議論マイニング(argumentation mining)を行うということを意味しています。つまり、多くの法律文書に自然言語処理を行い、議論の傾向を検知しようとするのです。」彼女は説明の中で、例として、ある者が請負人なのかそれとも被雇用者なのかを判断する必要がある場合を挙げた。

「アメリカやカナダでは、この問題は雇用者にとっても、そして被雇用者にとっても極めて重要です。もし判断を誤ったら、税務署がやってきて巨額の罰金が課されるうえに、支払えないかもしれないほどの額の増税を被ってしまいます。」

この分野の判例法が混迷を極めているため、トロント大学の研究チームはこの判断を手助けするAIを作り出した。関連する膨大な法律文書をマイニングし、特定状況下での特性群を生成することで、被雇用者に該当するか否かを判断できるというものだ。

「基本的には、入力データつまり大量の法律文書と、出力データ、この事例では被雇用者なのかそれとも請負人なのかを結びつける数学的関数を求めているのです。もしその関数が常に、もしくはほとんどの場合において、自己のデータセットから正しい判断を導きだすのであれば、高い正確性を有すると言ってよいでしょう。そうしたら次に、新しいデータ、または別にしておいたデータでテストをし、これらでも正確性が保たれるかどうか調べるのです。」

AIは与えられたデータセットを頼りにアルゴリズムモデルを獲得し、自動的に判定を導き出す。弁護士は、こうしたテクノロジー構造へのアプローチ方法を理解してうえでデータの照会を行い、AIが法律に則しているかを判断する必要がある。

高い正確性はバイアスのかかったデータセットからは得られないが、人々に対して法的判断を下すのにAIが関与するのであれば、高い正確性はただ「あれば望ましい」という程度のものではない。

「使われようとしているテクノロジーや今投資されているリーガルテックに関して、弁護士たちは、これらが導く最終結果を解釈する必要があるでしょう。つまり、『すごい、これは98%もの正確性を誇っているし、トップ弁護士よりもいい仕事をしてくれる!』と言う代わりにこう言うべきです。『なるほど、わかった。じゃあ、テストした性能測定基準を見せてくれる?やぁ、ありがとう。なぜこの4つを引き出しにしまったのかな?正確性が低いから?…データセットを見せて。仮説空間に何が起きたの?なぜこの議論にフィルターをかけたの?』」

「弁護士がテクノロジーやリーガルテックに興味を持ち、そして多少は楽しむためにも、このような会話ができなければいけません。法的判断は人々の人生に大きな影響を与えるからこそ非常に重要な仕事ではあるのですが、弁護士はリーガルAIの成果を解釈することに楽しみも見出すべきです。そして、プロジェクトのもう一つの焦点である自動実行型のコードの限界(例えば、ブロックチェーン技術の法律世界での応用など)についても、しっかりと会話ができるようになるべきです。

「もし、誰かがブロックチェーンの『不変性』を持ち上げるのなら、それは、全てをブロックチェーンに載せたあとで急に間違いを発見したとしても、その間違いは自動化され、その修正には巨額のお金と膨大な努力を要するということを意味するのだ、と説明するべきです。もしくは、『トラストレス(trustless)』が引き合いに出されるなら、それは、第三者機関など信用できないと言う一方で、よく分からないソフトウェアだけど信頼すべき、それに、あらゆる中間者、許認可を受けているわけでもないマイナー(採掘者)や、分散台帳にいるその他の中間者…どんな中間者であっても信頼すべきだと言っているようなものです。」

「私は弁護士たちに、有力な情報を持ったうえで堅実な議論を行ってほしいのです。そして、機械学習において、バイアスがどういう意味を持つのかを実際に理解してほしい。」彼女はこう続け、その参考例として、ニューヨークの AI Now Instituteで行われている、AIシステムに関連した差別的効果及び差別的取扱いについての研究を挙げた。

「これはある一つの特定の問題ですが、私はもっと多くの問題が存在すると思います。」彼女はこう述べ、その一つとしてアルゴリズム上の差別を付け加えた。「つまり、このプロジェクトの目的は、実際に一緒に活動して、こういったことを理解することなのです。」

「コンピューターサイエンティストや統計学者になれというのではありません。ただ、弁護士にとって、起きていることの裏側を理解し、それを共有できるようになること、そして、テキスト重視型の法的手法に実際に貢献することは極めて重要だと思うのです。私はテキスト型に大賛成ですが、テキストによらない規則が用いられる可能性が出てきたときには、私たちはある程度覚悟しなければなりません。私ならきっと、それは法ではないと言うでしょう。」

「私たちがきちんと理解できるもの、つまりテキストによる手法と、弁護士が理解するための訓練を受けていない、そして当然市民も理解できないその他の手法との間で、どのようにバランスをとるべきなのか、ということです。」

Hildebrandt氏は、リーガルAIの議論マイニングが「善良な人々のために利用される」ようになる可能性を探っている。例えばAIは、ある裁判所が下した判決を評価する目的で利用することができる。

ただし彼女は、これは同時に、そうしたシステムを設計するにあたって、多くの見解を考慮する必要があると警告する。

「単純に、アルゴリズムにたくさんのデータを入れて訓練し、『それは公平ではありません。許されないことです。』と言わせるのは、まったく愚かなことです。そうではなく、どのようなベクトルで検討する必要があるか、どのようにデータを分類するべきなのかといったことを深く考えることもできるはずです。そうすれば、例えば、次のようなことに気づくでしょう――簡単な案件については、警察が裁判所に持ち込まずに裁判外で解決するようになり、裁判所はより厳しい判決ばかりを下すようになる。つまり、とても悪いことをしたのでなければ、法を適用せずに別の方法で解決しようとする。その結果、このある特定の裁判所では重い案件ばかりを扱うことになり、ゆえに、警察や検察から日常的な案件を受ける他の裁判所よりもかなり重い判決ばかりを下すことになってしまう。

こういったことを理解するには、もちろん法律文書ばかりを検討していてはいけません。警察からのデータにも目を通す必要があります。こんなことをしないで済めば、高い正確性を得られるでしょう。しかし、そこから得られる結果は全く無意味ですし、自分がまだ知らないことなど何も教えてくれません。一方、別の方法をとれば、人々の偏見に対して関心を持って向き合い、特定の行為に対して異議を唱えることができるのです。しかし、このことはまだ、当たり前のことにはなっていません。これをうまく作用させる唯一の方法は、システムの設計段階――すなわち、どのデータで訓練をするのかを決めるときや、機械学習において「仮説空間」と呼ばれるものを開発するとき、試行・実行しようとしている種類のモデリングを行う段階で、多くのさまざまな人々を集めることだと思いす。そしてもちろん、5~7種の性能判定基準を用いてテストすべきです。

「これもまた、人々が――データサイエンティストだけでなく、例えば弁護士や、法律世界の出来事により影響を受ける一般市民もが話し合うべきことです。私は、賢明な方法をとれば、より堅牢なアプリケーションができるとはっきり確信しています。ですが、それにより得られるインセンティブが明確ではないかもしれません。というのも、思うに、リーガルテックがコスト削減のためばかりに用いられようとしているからです。」

彼女は、研究プロジェクトの鍵となるコンセプトの1つに、設計による法的保護があると言う。そこからは、AIが「犯罪予備軍」を検知する世界において無罪が推定されるときには何が起こるのか、といったような興味深い(そして少なからず気掛かりな)その他の疑問も湧いてくるのだ。

「市場に出た瞬間から法的保護を提供できるシステムなど設計できるのでしょうか?アドオンやプラグインではない方法によって、です。これはデータ保護だけの問題ではなく、もちろん差別対策や特定の消費者の権利にも関わることなのです。」と彼女は言う。

「私はいつも、設計によって、無罪の推定と法的保護を連係させるべきだと考えています。これはどちらかというと警察や情報機関側に向けたものです。情報機関や警察がICTを購入したり開発したりする際に、どのような手助けが可能でしょうか?ここでのICTとは、無罪推定の原則に従うという制約を持つものですが、無罪を推定するには、無罪推定とは何かを再定義する必要があるため、全くもって容易なことではないのです。」

研究は、ある程度抽象的且つ基礎的なものであるが、一方で、Hildebrandt氏は、調査中のテクノロジー、つまり、AIとブロックチェーンは、たとえ「実験段階」であるとしても、すでに法律上のコンテキストにおいて応用されていると指摘する。

これは、偏在させてはならない、テクノロジーが支える未来の一つである。リスクははっきりしている。

「EUや国家政府はいずれも進んで実験を行っています。実験が終われば、システムは現実に導入されて、いずれ私やあなたの人生に関わる判断に影響を及ぼすのだということは、必ずしも簡単に想像できることではありません。」と彼女は付け加える。

彼女のもう1つの望みは、弁護士や法律事務所 がリーガルテックの売り文句を見極める際に、プロジェクトを通して発達した解釈法がその手助けとなることだ。

「市場がたくさんのゴミのようなもので溢れることは明らかでしょう。」と彼女は言う。「それは避けられないことです。リーガルテックは競争の激しい市場になります。ですから良いものも悪いものも生まれます。そして、どれが良いものでどれがそうでないかを判断するのは簡単ではないでしょう。ですから、私はこの根本的な視点を持つことで、判断時にどこに注目すべきかがより分かりやすくなると信じています。これは考え方の問題、つまり、その重要性を分かったうえでの考え方の問題です。

「アジャイルにもリーンにも賛成です。どうか無意味なことはしないでください。私はこのプロジェクトが、実質的に無意味な方法論をスキップできるよう、競争利益へ貢献することを望んでいます。」

SourceTechCrunch
Author: Natasha Lomas
Original Article: 原文

Tags: