AIと社会の公正:法と技術環境について

 ChatGPTの登場と爆発的な社会普及に伴って、LLM技術の成功が何をもたらすのか、関心が世界的に高まっています。そのなかで、社会公正の観点から、AIがもたらすであろう、またすでにもたらしつつある、社会的な課題に対しての、法の対応に関する体系的な考察に取り組んでおられる方より、問題の分析内容を教えていただく機会がありました。
 学ぶところが多く、特にAIに限らずとも、法の支配 rule of law という自由・民主主義と一体化した基本原理(統治される側だけでなく統治するものも法に支配される:権力の法的制約)が脅かされる今日の情勢において、法の力そのものを問い直すことは、まことに時宜を得たものと思います。
 さて一方、ことをAI技術に限るとすれば、現時点で様々な視点から取り組まれている考察に、前提として加えるべきことがある、そう考え続けている問題があります。浅学ながら、そのことについてコメントしました。その内容について、ここで共有したいと思います:
 
 それは、この数年、LLM-AIの技術的成功と突然の社会実装に、私たちの意識は、“AI” という一種の存在者との関係へと向かっていますが、この考察対象自体が、間もなく、背後に隠れてゆくであろうとみられることです。
 ChatGPTという技術産物のように、基礎技術製品であるGPTを、ほとんどそのままにユーザー開放することは、現実にその能力を引き出して利用している人がごくわずかにすぎないことにもみられるように、商品化・製品化という意味では、過渡的なかたちでしかないとみられます。
 今後は、この基礎技術を核として開発されたアプリケーション製品が、急速に社会化してゆくことでしょう。そしてそれはむしろ、AIという“他者”的なもの影を消してゆくものでしょう。(生徒や学生に、あるいは職業人にとって、ChatGPTをどう使うか、のような問題は意味をなくし、学習や仕事の課題や進めようの現実のうちに、様々なものごとのうちに分散して、隠れるように内蔵化されてゆくでしょう)
 私はそれを、「技術環境化」という現代技術の一般的傾向のうちに捉えるべきであると考えています。それは別言すれば、「生活環境への知性の埋め込み」、と呼ぶべきものです。
 
 機械学習-ニューラルネット技術以降のAI技術は、その歩みを高速化し、そしてLLM-AIは、それを新たに段階に押し進めつつある、そう考えられます。
 人間にとって環境とは、その生物的次元では、向かい合う「存在」ではなくて、適応すべき「こと」です。その意味での自明性、すなわち、それが何であるのかということを問われないこと(隠蔽あるいは意識の閉却)、こそが、人間性にとっての最大の危機をもたらすと考えられます。
 ChatGPTのようなナマに近い、あるいはapiとしてのGPTを、今後も使い続けることが一般にも許されるのであれば(産業が秘匿するのでなければ)、それは一部の知見にのみ有効ではあるとしても、そこにこの技術環境への抵抗の基点を築き得るのかもしれません。
 
技術環境を生きる 製品に内蔵化され、さらには環境へと埋め込まれ、それがそれとしては意識されなくなる状況において、法が問うべき対象は何/誰なのでしょう。技術の社会化は、現代技術technologyの一般的傾向であり、それは技術の背景にあるモデル(世界観・人間観、存在論)を、人の無意識においてすり替えてきました。極端には、「主体なき意志」、というようなものを環境の側が持つようになってきたわけですが、「知性の外化」、と呼ぶべきLLM-AIの実現は、それを抽象-空想のレベルではなく、具体-現実の次元で推し進めるでしょう。
 
 技術環境化(extended technificationと名付けました)とのテーマで問うべき「現実」は、LLM-AIによりいっそう危険なものにかわりつつある:そのようなことが私の懸念です。
 この新しい現実を考えてゆくためには、話し合う私たち自身が、“AI” という言葉に結びつけられた様々なイメージやそこからの臆見を排して、技術そのものの姿仕組みをまず理解するように進める必要もあるでしょう。
 考察に足りない、ゆがんだ見方かもしれません。批判を乞うものです。