2024年現在、OpenAI社の開発したChatGPTの台頭を筆頭にAIが大きな注目を集めています。AIと会話してみた方はまるで本当の人間と変わらない返答に驚かれたのではないでしょうか? 少し前まで人間の思考は複雑で簡単に実現できるものではないと考えられていました。にもかかわらず、それなりに会話のできるAIができてしまいました。
現在のAIは人間の脳に比べればずっと単純な構造です。しかし、コンピュータは人間より記憶力もいいし、単調な作業もどれだけでも淡々と繰り返します。その能力によって、膨大なテキストを読み込んで生まれたのがChatGPTです。

AIが人間の脳に近づいている現在、「人間らしさとは何か」という問は重要な意味を持ちます。しかし、産業の発展により物質的に豊かさを手に入れた一方で、合理化の中で「何か人間的なもの」が失われていることはずっと批判されてきました。AIが人間に近づく一方で、人間もAIに近づいていると言えます。

また近年、神経科学が発展したことにより、脳の仕組みについての詳細な実験が可能になりました。最新の研究が明らかにしていることは、自由意志の存在があやしいということです。意識的に「Xという理由でYをしよう」と決定しているわけではなく、無意識にYをすることを先に決定しており、その決定の理由となるXを後から意識が探しているという捉え方が研究者の中で広がっています
このような研究結果が単純化され、自由意志は全くないことが科学的に証明されたと捉えている人も散見されますが、それは極端すぎる見方でしょう。とはいえ、これまで素朴に信じてきた自由意志がそこまで自由ではないことは受け入れるべき事実と言えます。

本書は人間の思考と現在のAIの思考は"ほぼ"変わらないことを前提にしています。その類似性と違いを説明するため、人間の知能を「生知能(なまちのう)」というスキームとして整理します。その上で社会にAIがどのようなインパクトをもたらすかを検討します。

下記の3つの章から構成されます。

第1章 「人工知能」
2024年現在のAIの流れを概説します。専門的な詳細は避けつつ、社会的影響を考える上で押さえておくべきポイントを強調する形で、これまで・現在・これからのAIについて説明します。

第2章 「生知能」
生知能を定義し、AIとの類似性と相違を説明します。また「自己や自由とは何か」という問いを整理します。この整理によって、生知能のネットワークが人を形作る上でエッセンシャルであることを明らかにします。

第3章 「生知能と人工(生)知能」
生知能のネットワークの中に人工知能が加わった社会を検討し、「AIはあなたを自由にするのか?」という問いを考えます。

本章では、社会的な影響の観点に重きをおいて昨今のAIの流れを概説をします。できるだけニュースなどで使われる言葉だけを使って、小難しい話はなしにAIのイメージを伝えるように努めています。

その分、正確さは犠牲にしています。例えば、

Xは(○と□などに分類されるが、話の筋の上で重要な○ではだいたい)△が使われている

と言おうとすると、○と□についても説明する羽目になり、本筋と違うところで、どんどん長くなってしまうので、思い切って括弧の中は省略して

Xは△が使われている

と言い切ります。そういう文書だと了承の上、お読みください

AIの性能を決める三つの因子

ネットワークのイメージ(実際は遥かに複雑)

人間の脳は膨大なニューロンのネットワークによって機能しています。ニューロンの間の結合の強さを変化させることで様々な学習と計算が可能になっています。ニューロンという単純な素子の組み合わせで計算するというアイデアをコンピュータの中に持ち込んで、AIを実現しています。

AIの性能を決める以下の3つの因子があります。

  1. ネットワークの構造
  2. コンピュータリソース
  3. 学習データ

ネットワークの構造は、ニューロンをどれだけ用意して、それらをどのように接続するかによって決定されるものです。ネットワークの構造によって、根本的にそのAIが何ができるのかが決まります。研究者たちは日々、より性能の高い構造を探して研究をしています。新しいネットワークの構造が見つかると、それに応じて、AIができることやそのために必要なコンピュータリソース、必要な学習データの内容や量が変わります。

ネットワークの構造とコンピュータリソースは、「学ぶための機構」であり、学習データは「何から学ぶか」になります。本質的に学習データに含まれないことをAIが学ぶことはできません。

すこし前のAI

より高度な処理をするためにはより大規模なネットワークが必要で、ネットワークが大規模になるほど、それを処理するためのコンピュータリソースも増えます。少し前のAIは、画像認識やレコメンドなど、特定のタスクに特化して作れられていました。この頃のコンピュータの性能はすでに十分に高かったのですが、単純に規模を大きくすればAIの賢さが向上するわけではなく、過剰に大きいネットワークは逆にバカになってしまう問題に突き当りました。そのためAIの研究テーマは、大規模なネットワークをどのように接続すればAIの性能を出すことができるのかが大きな焦点となっていました。

また、実用的なAIを作る上で、学習データを用意することも重要です。どれだけのデータが必要になるかは学習内容に依存しますが、AIは学習の要領が悪く、膨大な量のデータを要します。

AIの学習フェーズ(左)と推論フェーズ(右)

AIの学習とは、AIが正しく機能するように膨大な数のニューロンの間の結合の強さを決定することです。AIは学習データに対して、パターンを見つけ出し、予測を行います。そして各予測の正確さを確率として表現し、確率的に一番それっぽい答えを探します。大量の学習データをAIに与えて、AIの答えと教師の答えの違いが十分に小さくなるまで何度も繰り返し、ニューロンの結合を調整します。学習済みのネットワークをモデルと呼びます。モデルを作るまでが学習フェーズ、そのモデルを利用するフェーズのことを推論フェーズといいます。ここまで、できるだけ専門用語を出さないようにしてきましたが、「モデル」という言葉と「学習してモデルを作る」イメージだけは理解してください。学習フェーズは大量の学習データについて、何度も繰り返し計算するので、計算量も大きくなります。推論フェーズはひとつの入力に対して一度計算するだけなので、学習フェーズに比べると計算量は小さいです。また、一度学習済みのモデルが手に入れば、いくらでもコピーして利用することができ、小規模のモデルならスマートフォン上で動作させることもできます。

学習データの重要さ

COCOのデータの例。画像のどの領域が何であるかがラベリングされている

学習データの一例として、画像認識を学習するためのデータセットであるCOCO(COmmon Objects in Context)を紹介します。COCOは30万枚以上の画像に加えて、それぞれの画像中のどの領域に何があるのかをラベリングしたデータが提供されています。ラベリングの総数は100万件以上になります。サンプル画像を見ると犬の足元の曲線まで丁寧に仕切られていることが確認できます。このようなデータは人が一つ一つ手作業で作っています。この作業を実際にやっているところを想像してみてください。一枚の画像でも結構大変ではないでしょうか? これを数十万枚やるのは大変なコストがかかりますAIの実現には、研究者や技術者だけでなく、学習データを作成する人も必要です

また学習データに偏りがあると、そこから外れたことに対し正しく回答できないAIができてしまいます。例えば写真の提供者の属性(国籍、年齢、性別など)が偏っていたら、AIはその偏りが反映された学習をしてしまいます。どうやって万遍なくデータを収集するかも考えなくてはなりません。このように「何から学ぶのか」がAIの性能を決める重要な要因になります。

生成AI以後

学習データについての困難は生成AIの登場により一変します。
例として、「一単語だけ空欄になっている文について、その空欄に適切な単語を生成する」AIを作りたいとします。このタスクのための学習データは次の方法で手に入ります。まず、どこかから完成された文を入手します。そして、そこから一単語を抜き出すと、その抜き出した単語が「答え」となる問題文が手に入ります。例えば「私は犬と散歩をした」という文から、「私はXと散歩をした」のXに入る単語を当てる問題と「犬」という答えが作れます。「犬」が答えと言いましたが、「お父さん」でもいいし、「猫」と散歩する人もいるかもしれません。それでも、この学習データについては「犬」が「答え」ということにして学習します。膨大な学習データの中には「犬」以外の「答え」を含む場合もあるはずで、その都度調整されていきます。最終的に学習が完了した時には「私はXと散歩をした」のXに入る単語の発生確率が分かるようになっており、一番それっぽい単語はどれかが分かるようになります。
文章を生成する場合は完成された文章を途中から隠せば、問題と答えのセットが作れます。文章を予測するのは、無理があるように感じますが、コンピュータは膨大な量を怠けず言われた通りやり続けることができるので、物量で押し切って学習をやりきることができます。
このような理由で生成系AIの学習データはインターネットには膨大なデータをかき集めるだけで用意できるようになりました。
そのような学習を実現するためには、大規模なサイズのネットワーク構造が必要となります。それは文脈を把握をしてモデルのパラメータを動的に調整するという革新的なネットワークの構造がブレークスルーになりました。この動的な調整によって、ネットワークの規模が大きすぎると逆にバカになる問題が解消し、モデルを大規模にするほどAIの性能がいくらでも上がっていくようになりました

AIの性能を決める3つの因子のうち2つの因子が解消し、あとはコンピュータリソースをどれだけつぎ込むかが肝になりました。そして実際に膨大なリソースを注ぎ込んだ結果が結実したのがChatGPTです。
ChatGPTのような高性能なモデルを作ろうとすると、膨大なコンピュータリソースを数週間専有する必要があり、数十億円から数百億円規模のお金がかかります。モデルのニューロンの接続本数をパラメータ数といいます。ChatGPTの旧バージョンのモデルであるGPT-3では1750億個のパラメータがあります。OpenAI社は最新のモデルについてパラメータ数などの詳細を公開していませんが、GPT-3.5では約3000億個のパラメータ、GPT-4は1兆パラメータを超えると噂されており、学習には1億ドル以上のコストがかかったと予想されています。一回のモデルの計算だけでそれだけかかるので、やり直しが必要になれば、その分のコストがかかります。そのようなコストを払ってできたChatGPTの性能は皆さんもご存知の通りかと思います

もう一点、ChatGPTの特筆すべき特徴として、「追加で少し教えてあげるだけでその内容を学習できる」ということが知られています。具体的な応用として、ChatGPTはフェイクニュースや差別的な発言を避けるように、追加の教育を受けています。従来はインターネットの膨大な文書から適切なものを仕分けたものをAIが学習する必要がありましたが、ChatGPTは全部ひっくるめて学習してから、その後で何がだめかを教えてあげれば理解できます。
モデルに追加で学習できることで、特定の目的に適したAIを低いコストで作ることが可能です。

これからのAI

AIの性能を決める三つの因子にそって、これからのAIについて考えます。

1. ネットワークの構造

現状のAIは確率的にそれっぽいものを生成しているだけなので、それが論理的に矛盾していても気づかないことがあります。そのような問題の解消を目指して、より論理的な思考ができるAIを実現できるよう研究が続いています。また現在「人間を100点とした時AIは何点か」という視点でAIは評価されがちですが、AIだからできることにフォーカスしたり、他の技術との親和性が発展したりすることで、AIの応用範囲が広がっていくことが予測されます。

それとは別の方向性として、効率の改善が重要な課題としてあります。モデルのサイズを抑制しつつ、高性能なAIを作れるようになると、AIの作成のコストが下がり、参入障壁が下がります。また個人のPCやスマートフォンで推論フェーズの実行ができるようになるにはモデルのサイズの大幅な圧縮が必要になります。金銭的なコストの面でも、エネルギー資源の観点からも、効率は実用の幅に大きな影響を与えます。

2. コンピュータリソース

現在、膨大なリソースを使うほど性能が上がる状況ですが、まだ天井は見えていないようです。今後、効率化の方法が見つかれば、リソース負荷が軽減される可能性はありますが、逆に、より高度なAIのネットワーク構造が見つかることで、さらに膨大なリソースが必要になる可能性もあります。

3. 学習データ

生成AIの台頭により、学習データはとにかく集めればよい状況にあると説明しました。今後は学習データの量より質の時代に移ると予想します。従来の学習は「みんなができること」をAIでもできるようになることが目標でしたが、そういうレベルの学習はすでに終わりつつあると感じます。
これからはより賢いAIのために、質のよい学習データを適切に用意できることが重要になるでしょう。

まとめ

以降の章を読み進める際に必要な要点をまとめると下記になります。

  • AIは学習データから確率的に一番それっぽい答えを導き出す
  • 学習データが大事。本質的に学習データに含まれないことをAIは知らないし、学習データが偏っていればAIも偏る
  • AIの学習フェーズのコストは高い。学習結果となるモデルを利用する推論フェーズのコストはずっと小さい
  • モデルはコピーできる

ChatGPTの存在は、文脈に応じたそれっぽいことを答えるだけでそれなりの知能があるかのようにみせることが可能であることを立証しています。この事実は、逆に人間はどれほどChatGPTと違うのかという問いにつながります。私は「人間もAIもだいたい同じである」を起点に、その上で何が違うのかを考えたほうが見通しがよいと考えます。

本章では、人工知能と対比して人間の知能を生知能(なまちのう)という単純化されたスキームで捉えることで、私達の知能とはどういうものなのかを整理します。
前章までは専門用語を避けてイメージで伝えるようにしましたが、この章以降では、独自に用語を定義しながら説明します。一つ一つの用語の定義を理解しながら読み進めてください。

これは試論です。脳科学などからアイデアを得ていますが、私個人の考えであることを強調しておきます。

概念セットと文化

生知能はその個体ごとに肉体経験が紐付いています。肉体からの感覚は随時処理され、感覚から想起される概念を組み合わせることで、脳内に外部の世界に対する解釈を生成します。その過程で必要な概念が次々と生成・拡張されていき、脳内の世界を適切に表現するための概念セットが整っていきます。概念セットは個人ごとに違いがあり、それが世界の見え方やそれに従う行動の多様性を生みます。また、概念セットの拡充によって、外部の世界と脳内の世界の誤差は減り、経験はより豊かなものになります。

概念の生成・拡張には自然や人工物だけでなく、他の知能が大きく寄与します。特に言語は概念の伝達に大きな役割を果たします。私達は他人の脳内を覗くことはできませんが、それでも概念を共有できているという信念を持つことができます。ある程度の概念セットを共有できていると思える生知能の集まりを文化と呼ぶことにします。国、宗教、地域、組織、コミュニティ、ジャンル、友人グループ、家族などなど、ひとつの生知能が複数の様々な規模の文化に属します。

生知能の間の関わりを線で繋いだネットワークを考えてみます。人間同士の関係は会話する、売買する、組織を構成するなど、様々な関係性があり、非常に複雑なネットワークになります。このネットワークを俯瞰した時に大小さまざまのグループを見出すことができ、このグループは概ね文化と一致すると考えられます。なぜならば、コミュニケーションの度に概念の交換をするわけですから、その頻度が多いほど、より深い概念の共有ができると考えられます。また、行動に制限がなければ、概念を共有できる知能との接触を好むことで関係は密になり、共有できない知能とは接触を避けることで関係は疎になります。

単純化した生知能のネットワークと文化のイメージ。類似度の高い概念セットを持つ生知能は文化を形成する。ここで概念セットは類似性はあるが一致はしない

文化は規範や慣習を規定し、文化に属する人々の間で価値観が共有されます。文化によって規定された規範や慣習、価値観が行動に対する教師となります。文化ごとの教師の最適解を学習して、適切な行動をするようになることを適応と呼ぶことにします。

生知能
それに紐づく肉体と経験を持ち、経験から行動を決定する機構
概念
生知能が世界に対して意味づけをするための構成要素
概念セット
概念の集合。このセットが世界の解釈の仕方を決定する
文化
他の生知能と概念セットを共有できているという信念を持つ生知能の集まり
適応
文化が規定した価値観に最適化した行動をできるように学習すること

生知能の適応と人工知能の学習

前節の「適応」において他者からの概念を学習データとみなすと、文化が規定する答えに対し統計的に最適な行動をするように適応するというプロセスは、AIが与えられた学習データに対して最も適切な答えを導き出すプロセスとよく似ています。AIの思考と生知能の適応は必ずしも等価ではありませんが、本書ではこの2つは同じとみなすことにします

実際の人間の思考のうち、どの程度が「適応」であると言えるでしょうか?

People believe in the reasons because they believe in the conclusion
人々が理由を信じるのは彼らが結論を信じているからだダニエル・カーネマン

ダニエル・カーネマンは心理学者の立場から人々の行動に合理性が欠けることを示す多くの研究を行いました。彼の研究は、人々がしばしば直感に頼り、理性的な判断を下さないことを明らかにしています。彼が説明する人々の思考を大雑把に捉えると、まず欲しい答えがあり、その答えに適合する理由をみつけて満足する、ということです。それゆえに、議論によって考えが変わることはなく、無意味であるとまで主張しています。彼もすべての議論が無意味とは思っていないでしょうが、この点について、人々の認識とのギャップがあまりに大きいため、ここまで強く主張しているのだと思います。

ピーター・ヨハンソンらはこんな研究結果を残しています。二枚の写真のどちらが好みの人物かを選択させた後、写真をすり替えて、選択していない方を見せて「何故こちらを選択したか」を尋ねます。すると多くの被験者がすり替えに気づかず、選択した根拠を語る現象が確認されました。

ジョン・T・ジョストは、人々が現行の社会システムを正当化してしまう欲求の研究をしています。彼によれば、私達は不安定で無秩序な状態を嫌うあまり、自分が気づいている以上に、自分の依って立つ社会の組織や仕組みをすぐ防衛したがると言います。彼の仮説には「現在の社会システムや権力機構を正当化しようとする最も強い欲求を持つ人たちは最も不利な立場に置かれている人たちである」というものまであり、その検証がなされています。これは自身を取り巻く環境によってあるべき行動が決まり、それを信じるための根拠を信じる例になります。

人々の多くの行動は答えが思考に先立って存在しており、その答えは文化的に規定されていると考えられます。

自己

生知能はただ適応を繰り返すだけではありません。周りの誰かの言葉をそのまま受け入れるわけでなく、自ら能動的に生成した概念であったり、みんなとは違っても自分は強く信じることのできるものもあります。もしくは、他者から受け取った概念をきちんと自身が納得して概念セットの中に加えられることもあるでしょう。能動的に構築された概念は、外部からの入力による概念の重み付けを無視し、概念セットの中に確固たる位置を占めるようになります。そのような概念は多数の他者からの異なる概念が大量に流れてきても失われることはありません。一方で、AIは与えられた学習データのひとつを特別扱いすることはありません。中央値から外れた学習データがあったとしても、他の中央値に近い学習データによって均されていきます。これは生知能と人工知能の特徴的な違いです。
生知能の概念セットの中に概念が追加される際、その納得具合に応じて概念の深度があります。深い概念ほど自己の深い部分を形成し、十分に深い概念の獲得は「自己実現」と呼ばれます。生知能ごとに異なる概念セットをそれぞれの深度で形成しており、それが生知能の個性を形成します。
本書では自分で考える/感じることで生成された深度のある概念の集まりを自己と定義します。

一方で、自己を失った生知能は実質的に人工知能と同様の思考しかできないことになります。自己を失って文化への適応を繰り返すだけの生知能を人工生知能と呼ぶことにします。

深度
概念の腹落ち具合
自己
概念セットの中の深度の深い部分
人工生知能
自己のない生知能

自由と不自由

日常生活で「自由」という言葉が使われる場合、行動に対して制限のない様を指すことが多いかと思います。「自由」は重要な言葉でありながら、その意味は人によってズレがあり、議論の難しさがあります。そこで「自由」の定義をその本源的な部分に絞ることで整理を試みます。

本書では「自由」を内的自由外的自由に区別します。従来の意味での「自由」はだいたい外的自由になります。内的自由は"概念を深化させる力"と定義します。それは自分の中の揺るぎないものをもっと追求したいという欲望です。言い換えると"自己を形成しようとすること"とも言えますし、“新しい概念の獲得の可能性に対して開いている状態"とも言えます。開かれた可能性に対し、外部からの感覚とこれまで獲得した概念が相まって、より深化した概念の獲得が可能になります。
内的自由が根源的な自由であり、以降では「自由」と表記した場合は内的自由を指しているとします
この定義に従うと、不自由であるとは自己を喪失していることを意味します。特に「ある文化について不自由である」は、その文化に対して強く適応しようとする、つまり文化が規定する答えに執着をしているか、その答えが外部から強制されていることを意味します。不自由であることは、外的自由がどれほどあるかとは無関係です。

(内的)自由
概念を深化させる力 自己を形成する力 新しい概念の獲得の可能性に対して開いている状態
外的自由
行動に対する制限がない様(従来のしばしば使われている意味での自由)
不自由
自己の喪失 文化の規定する答えに執着すること

この定義に慣れて、自然に感じられるように、まず不自由の具体例を考えてみましょう。

人種差別主義者は不自由です。彼らの思考は文化的に作られたラベルに束縛されています。彼らは結束することで彼らに都合良い文化を形成し、その文化へ適応するプロセスを繰り返す人工生知能です。彼らの行動は文化の最適解に束縛されています。彼らは多様な概念を受け入れることができず、閉じた文化の中に生きているので自己の形成が阻害されています。都合の悪い現実を拒絶することで、彼らの解釈する世界は歪なものとなり、現実との乖離に苦悩することになります。この乖離は自身への抑圧を生み、内側で収まらないと他者への暴力になります。このような彼らの言動は開かれた可能性から選ばれたわけでなく、彼らの環境の制約に従った行動をしているだけなのです。

上述の段落の人種差別主義者の部分をいろいろ入れ替えて成立するものを考えてみてください(このときラベル数字常識に置き換えた方がしっくりくるかもしれません)。それがあなたの欲しい結論ならば、それを説明する理由になっているはずです。外的自由を謳歌している不自由な人(もしくは外的自由を謳歌しておらず、かつ不自由な人)を思い浮かべることができたでしょうか?

ここまでを整理すると、生知能と人工生知能は下記のように表現できます。

生知能 = 人工知能 + 自己 + 自由
人工生知能 = 人工知能

音楽を聴くこと

ある音楽を聴いたとき、実際にそれが脳内でどのように聞こえているのかは人それぞれ異なります。その差は各々が持つ概念セットの違いに起因します。その人が深く聞き込んだ曲ならば、それを深く解釈する概念が存在するでしょう。馴染みのないジャンルの曲は違う曲でもだいたい同じに聞こえるのは、それを解釈する概念の不在です。ラベル作曲の「ボレロ」は発表当時は同じ旋律とリズムの執拗な繰り返しに異様さを感じた人も多かったそうですが、現在ではクラシックの名曲として、誰もが聞き馴染みのある曲のひとつになっています。
人は文化的に与えられた概念を土台にして解釈しています。文化的に積み重ねられた土台なしに、いきなり深い概念の獲得ができるとは考えられません。知らない言語で語られても意味を理解できないことと同様に、その文化固有の語彙や文法に対応するような概念の獲得なしに深い解釈はできません。
この議論は音楽に限りません。あらゆる分野で同様のことが言えますが、どこまで広げて言うことができるでしょうか? ある文化では常識的で公正な営みであっても、異なる文化からはそれを受け入れるのに非常に困難があることもあります。味や匂いについても文化の影響が強く現れます。科学者の中には、恐怖・驚き・怒り・悲しみ・喜びなどの情動についての概念も文化的に作られたと主張する人もいます。どこまで文化的に与えられるのかは明白ではありませんが、私達の解釈する世界は文化的に与えられた概念に強く依存していることは正しいといえるでしょう。
自分の耳で音楽を聞いていたとしても、その解釈は他者から受け取った概念に依るもので、その概念はまた別の他者から伝搬されたものです。音楽を聴く度に概念は微調整されます。その微調整は本人の視点では大きな変動に感じられたとしても、人類の歴史の視点では無に近いものです。歴史上、圧倒的な天才と感じられる人物はいますが、それでも人類が積み重ねてきた叡智全体から見れば、どの人間でも一人で考えられることはほぼ無に等しいと考えられます。そのような微調整と伝搬が集積されて形成された概念を歴史のある文化は持っています。

このひとつの生知能の新規性はほぼ無に等しい(しかし決して無ではない)を公理として追加します。すると下記のように言い換えられます。

自由 ≒ 多様な他者の概念を深い深度で獲得できる力
自己 ≒ 深い深度で獲得した多様な他者の概念の集まり
概念 ≒ 生知能間の伝搬と変形の歴史によって形成されたもの

新しい音楽

しばしば「AIによる音楽生成が進むと、いつか人間が新しい音楽を作れなくなる」という言説があります。ここで「新しい音楽」とは何か考えてみます。

前節で、「馴染みのないジャンルの曲は違う曲でもだいたい同じに聞こえる」と言いました。新曲であっても、同じ曲にしか聞こえないのならそれはあなたにとって新しい音楽ではありません。また、ある時ピンとこなかった曲をしばらく経ってから改めて聴くと良さが分かることもあります。それはあなたにとって新しい音楽が生まれたことになります。
つまり波形として異なる音楽がどれだけ作れたとしても、それは問題ではありません。そこにどれだけの音楽性を見出すことができるのかというあなたの問題なのです。音楽をより深く聴けるようになったということは新しい概念の獲得があったということであり、自由があったということです。
一般化して言うと、美の追求は自由によって可能になります。

自由とは"新しい概念の獲得の可能性に対して開いている状態"であると述べました。この可能性の開き方について、「能動的」と「受動的」の2つの方向を考えることができます。
「能動的に開いている」ということは、多様な概念にふれるような行動を実際にするということを指します。「受動的に開いている」ということは、多様な概念の獲得に寛容で遮るものがないということです。おそらくあなたも「多様な考えを受け入れたい」という心持ちはあるでしょうが、本人の自己認識は当てになりません。その心持ちと実態はそれなりの乖離があるだろうと予測します。
概念を獲得するほど外界をより豊かに解釈できることを意味するので、「受動的に開いていない」は"現実を受け入れられない"ことを意味します。これは既得の概念に執着して、分かってもいないことを分かったことにするということも含みます。「理解する」の意味を突き詰めると、その理解を阻むものと向き合って取り除くということです。自分が受け入れない現実はそれを解釈する概念を持たないので認識することはできません。なので「受動的に開こう」と意図して可能性を広げることはできません。「能動的に開いている」結果として「受動的に開くようになる」わけです。

つまり「自由な行動」を端的に言い直すと、これまで獲得した概念に立脚した上でさらに「未知に踏み込むこと」になります。それは結果的に何かを得た実感はないかもしれませんし、それどころかリスクもあります。真剣に何かに向き合えば、他者との衝突が必然的に存在します。
不自由な行動は文化に規定された答えに適応する行動です。文化が強大に育つほど、それが規定する答えは明快になります。そのような答えは確実・安心・安全で未知は含まれません。さらに過剰に明快な答えは匿名の権威性や経済合理性を生み、そこから外れるものを抑圧する力になります。

この美と自由についての考えは明治時代のアナキスト大杉栄と一致します。

征服の事実がその頂上に達した今日においては、階調はもはや美ではない。美はただ乱調にある。大杉栄「生の拡充」より

彼の言葉はしばしば二つめの文だけが抜き出されて紹介されます。その前の文脈も含めて解釈すると、社会があまりに秩序側に偏っているが故に「美はただ乱調にある」と主張しています。
文化への適応は文化をより秩序立てるものだとすると、自由はそれを乱すものと言えます。その意味で、適応と自由は対立するものですが、適応と自由はどちらかが善でどちらかが悪ではなく、適切にバランスが保たれるべきものです。

大杉栄にとって明治時代の社会は秩序偏重であったようですが、現代は管理社会と呼ばれるように、その頃より秩序を重んじる傾向が高まっています。この変化は次章でも取り上げます。ここで言いたいことは、自由は未知へ踏み込むことであり、それは新たな秩序は混沌の中から見出されるということです

この節の冒頭の「AIによる音楽生成が進むと、いつか人間が新しい音楽を作れなくなる」について改めて考えると、それは本書の副題である「AIはあなたを自由にするか?」という問に帰着します。
次章でこの問について検討します。

前章では、生知能の概念セットは他者からの概念の寄せ集めであることを説明しました。そのように考えると、私たちがどのように世界を解釈し行動を決定しているかは生知能のネットワークの構造に大きく影響されていることが分かります。
本章では、前章で説明した生知能のネットワークに人工知能が加わることによる影響を考えます。

前章で定義した用語を引き続き使用しますので、必要に応じて確認しながら読み進めてください。

メディアとしての人工知能

ひとつの人工知能は非常に多くの生知能とつながることができ、高い頻度で生活に入り込んだ形でコミュニケーションをとることができます。つまり生知能のネットワークは中心を持たない構造から、人工知能を中心とした構造へと変化すると考えられます。

生知能のネットワークに人工知能を加える

この変化は何をもたらすのでしょうか? 人工知能によって、より広範な他者の概念を取り入れることができれば、自己の形成はより進むと考えられます。一方で外部からのインプットが文化への適応に使われるだけならば、人々の画一化をもたらすことになります。

これまでの人類の歴史を振り返ると、ブロードキャストするメディアは本からラジオ、テレビ、インターネットと発展してきました。現在SNSの普及は個人が非常に多くの人たちへの発信を可能にし、また広範な人たちの情報を受け取れるようになりました。人工知能はその延長線上に位置づけることができます。連続的な変化として捉えることで未来予測の補助線が浮かんできます。
このような観点から、まず過去のテクノロジーの発展が私達にどのような影響を与えたかを振り返りながら、人工知能がいる社会を予測します。

AIは労働を奪うか

1930年、経済学者のジョン・メイナード・ケインズは"Economic Possibilities for our Grandchildren"の中で、技術進歩と資本の蓄積によって、あと100年くらいあれば経済問題の解決は可能であり、労働から解放された未来を予測しています。2024年現在、技術の進歩と資本の蓄積の予測は的中しましたが、残念ながら経済問題はより深刻になる一方で、あと6年で解決に向かいそうな気配はありません。

「AIが労働を奪うか」という問いはしばしば取り上げられますが、「理論的に可能」や「技術的に可能」だとしても、それが理想的に使われるわけではありません。人類はその過ちを何度も犯し続けています。テクノロジーは人々の欲しい結論を提供し、その現実との乖離が人々を苦しめてきました。

先のケインズの予測は理論的可能性の提示であって、同文書が中心的に記述していることは、それに対する懸念です。

Will this be a benefit? If one believes at all in the real values of life, the prospect at least opens up the possibility of benefit. Yet I think with dread of the readjustment of the habits and instincts of the ordinary man, bred into him for countless generations, which he may be asked to discard within a few decades.
これは有益なのだろうか? もし人生の真の価値を信じる者なら、恩恵がもたらされる可能性はあるように見通せるだろう。とはいえ、何世代にもわたって培われてきた習慣や本能を数十年のうちに捨て去ることが一般庶民に要求されることを想像すると私は恐怖を感じる。J.ケインズ “Economic Possibilities for our Grandchildren"より

つまり環境の変化に合わせて人々の慣習も変わる必要があります。前章で定義した用語でいうと、これまでの文化を一変し、新しい概念に適応される状況が必要です。既存の文化に適応しかしなかった現在の状況は、新しい概念を受け入れる力、つまり人々の自由が充分でなかったということです。適切なテクノロジーの発展のスピードは人々の自由の強さによって決まります。

ケインズは慣習がすぐに変わらないことへの危惧から、充足感を得るために一日3時間くらい軽い労働することを提案しています。現在、技術は進歩し生産性は向上したにも関わらず労働時間が変わることはありませんでした。
人類学者デイビッド・グレーバーの現代の高給取りの仕事の類型パターンのひとつとしてブルシットジョブを定義しています。

a bullshit job is a form of paid employment that is so completely pointless, unnecessary, or pernicious that even the employee cannot justify its existence even though, as part of the conditions of employment, the employee feels obliged to pretend that this is not the case.
ブルシットジョブとは、被雇用者本人でさえ、その存在を正当化しがたいほど、完璧に無意味で、不必要で、有害でさえある有償の雇用の形態である。とはいえ、その雇用条件の一環として、被雇用者は、そうではないととりつくろわねばならないと感じている。

実質的な労働はないのに、働かなくてはならないという慣習が残った結果、無意味なことをして働いているかのごとく振る舞うことになりました。新しい概念を受け入れない人工生知能たちによって、そのような文化が醸成されたまま、それが彼らの常識に従った公正な責任のある仕事になっています。

文化が書き換わるということ

自己の深いところにある深度の深い概念は簡単に周りに伝わりませんし、伝わったとしても深度が浅くなってしまいます。それでも納得とともに獲得した概念は確固として存在し消えることはありません。腹落ちした概念はじわじわ広がり、キャズムを超えると適応によって急速に全体に浸透します。このようなプロセスの繰り返しによって、文化の底上げがなされてきました。私達は長い人類の歴史の上で底上げを続けた文化を土台にして、より深度の深い概念へ向かうことができます。

上記の概念の伝搬のプロセスは長い期間を要します。外界が変化すると、それより短い期間での概念セットの書き換えが起きます。外界の変化をもたらすものとしてテクノロジーの発展があります。さらに急激な変化を起こすものが大災害や戦争です。
1998年に北朝鮮からテポドン1号が日本上空を通過しました。それ以降も何度もミサイルが発射されていますが、日本の世論は「武力行使によって黙らせよう」という方向には向かっておらず、漠然と「平和的な解決ができたらいいなぁ」と思っています。戦前の日本人の常識で考えると、そのような思考は非現実的に思えることでしょう。私たちは彼らにとって非現実的な現実に生きています。素朴な市民感覚を戦前と比較すれば、戦勝国においても敗戦国に責任を追求するより、復興を支援し協調する方向にシフトしています。これは第二次世界大戦がもたらした現実を直視し、文化が書き換わった例です。

しかし、同様の惨事が起きたとしても、人々は現実を直視するとは限りません。
私たちは「経済問題を解決していない文化」の中にいます。公平な分配がなされない故に悲惨な現実があります。例えば、国連の報告書によると、2023年に飢餓に直面した人は約7億人いるそうです。この現実を招いているのは「未解決の文化」に適応した常識的で公正な営みです。戦時中の他国を侵略して国を発展させようという思想は現在の私たちにはグロテスクに見えますが、同様に、もし「解決済みの文化」から現在の私たちの文化を見ればグロテスクに映ることでしょう。

戦後も文化が大きく書き換わって然るべきイベントは度々起きているように感じます。見たくない現実を見ないふりしたり、現実を捻じ曲げたりする傾向が高まっていることには同意が得られるのではないでしょうか? テクノロジーは現実を正しく見るために使われるべきですが、それ以上に現実を歪めるために使われてしまっています。現実を見ないのは、文化の規定する答えへの執着であり、自己の喪失を意味します。要するにAIの台頭を待つまでもなく生知能が人工生知能へと変化しつつある、つまり人工生知能化が進んでいると言えます。当然、本物の人工知能が登場すれば、状況はさらに加速します。

人工生知能化

AIに「ニューヨークで一番のベーグルは?」などと聞くことで、特定のお店への囲い込みが発生してしまうかもしれません。一方でAIはよりパーソナライズされたより効率的なサービスを可能にし、求職者に新たな機会を創出することで、様々な産業におけるイノベーションの新たな機会を創出することもできます。

これは「AIによって素晴らしい世界になる」という結論を信じる人の文書を元にして作成しました。その人にとって信じられる根拠になっているようです。

もしAIが状況や人に応じて適した答えを教えられるくらいAIがみんなのことをよく理解していたら、どうなるかを考えてみます。
「今日なに食べたい?」という質問をしたり、されたりした経験は多々あるかと思いますが、その答えにどれだけの多様性があるのでしょうか? もしくは「久しぶりに古い友人数人とお酒飲むのにちょうどいい店」を探すとき、無難さや便利さが優先され、結局だいたい同じような要望に偏ると思われます。AIを使えば、手間も省けて、失敗も避けられるので、わざわざ自分で選択することは非合理的です。効率的に選択できるということは、それ以外の選択肢を知る機会が奪われることを意味します。結果としてお客は答えに寄っていきます。AIが質問以上のことを読み取ってパーソナライズされた答えを教えてくれるかもしれません。自力で探すより、AIに従った方が満足度が高い経験を繰り返したら、自分で考える経験をすることも減るでしょう。AIが賢くなるほどお客は答えに寄っていきます
そうなると、お店はAIに選ばれることが経営上強要され、みんなが望むものを提供できるように最適化するため、お店も答えに寄っていきます。反対に、その最適化ができないお店はみんなの望むものを提供できない店として抑圧されます。多数派に乗れないことの経済合理上のハンディキャップは業務のあらゆるところで発生します。お店が答えに寄っていけば、さらにお客も答えに寄っていくという連鎖が発生し、そのようなみんなの変化をAIは学習し、答えはより明快になります。
この明快な答えに引き寄せられる現象はさまざまな状況で発生することであり、テクノロジーの発展によって何十年も前から進行していることです。

文化の中心に答えがあるイメージをしてください。答えが明快に与えられるほど、人々はそちらに引き寄せられ、それに適応する人工生知能は中央を構成し、逆に自己や自由があるほどみんなから外れて周縁化されていきます。

人々の方がみんなに合わせるようになっていくと、答えの幅が狭くなります。答えが狭くなるほど、答えに適応する競争が激化します。競争の激化は中長期的な選択を失わせ、場当たり的な選択を強要します。その選択によって、「弱者」や「勝者の視野の外にいるもの」にその負荷は偏ります。競争は格差を生み、答えに近いほど富を持ち、支配力を持つようになります。それは実質的な階級をつくり、答えに適応していることがアイデンティティとなります。適応することが全てとなり、その外側を見ることもなく、どのような自由が奪われているのかにも気づきません。競争を勝つことに充実感を得ると、それを失う恐怖に支配されるようになります。自己を立脚させるものがないので、同質な集団への帰属感に安寧を求め、答えに抗うものや他の文化への敵意を内面化します。さらに悪化すると、異物は悪者であるという結論を支持する根拠を探すようになります。悪者を非難できる根拠が見つかると、それを同じ人工生知能の間で共有することで、自分を正当化し安寧を得ます。
答えの周囲に集まる人工生知能の群れをまとめて一つの構造体とみなしましょう。この群れの中では現実は歪められて解釈されます。自己のない人工生知能は現実に立脚した概念がないので、歪んだ現実に抗うものがありません。この群れは個々の人工生知能の願望が集積されて、さらにみんなの都合のいい方向に現実を歪めるように答えを動かしていきます。歪んだ現実は歪んだ行動を生み、それが歪んだ結果を招きます。歪んだ結果の責任を押し付ける先となる悪者を規定することで自分たちの秩序を正当化し安寧を得ます。
群れの中で支配力を行使しているようにみえる人物がその意志で群れを動かしているわけではありません。支配力を行使しているようにみえるポジションがあり、そこに適応できた人物がそこに配置されます。その人が群れの動きと反する行動を持つ自己があるならば、その人はそのポジションにはつけません。この群れの頂点にいるのは、最も不自由で自己を投げ捨てることで答えと一体化することができた人物です。

以上の人工生知能の有り様をあなたはどれだけリアリティを持って納得できるでしょうか? あなたが自由な行動をしていて周縁を知っているほど、実感できるのではないかと思います。逆に実感ができないならば、まだ経験を重ねていないか、そうでないなら、あなたの自由が奪われていることを疑った方がよいかもしれません。

AIが生活に入り込むほど、人工生知能化は加速するでしょう。さらにAIがみんなを代表することで、それが客観的であるかのような錯覚をしてしまう恐れがあります。人は結論を信じるのであって、根拠を信じるわけではありません。現実を直視する「私」の方がみんなより正しいと主張して、みんなは納得するでしょうか? 第1章で説明したとおり、学習データに偏りがあれば、AIはその偏りが反映されます。さらに後付けの学習でみんなに好ましいように調整できるので、そこに人為性があることに注意が必要です。
AIが事実に基づかない情報を生成することをハルシネーション(幻覚)と呼び、現在の重要な研究課題となっています。AIの回答がハルシネーションであると判断しているのは人間です。現在のAIはまだ「誰でもできる」レベルの学習をしかしていないので、客観性をもって正しくないことを判断することは容易です。しかし、より高度な思考を要求した場合は何が正しいかは明確ではありません。AIがみんなの欲しい答えを提供できるならば、みんなにとってAIが客観的に正しいことになります。みんなの現実が歪むほど正当化の需要は増え、AIはそれに応えるツールになります。人々が高度な思考をAIに委ねるほど、自己を強く持つ人々は間違っていることになり、結果としてみんな答えに人々が寄せられていき、人工生知能化が進行します。

もう一点気をつけたいことは、彼らは歪んだ現実を見ているのであり、彼らの目線では彼らは公平で責任のある行動をしているということです。彼らは彼らの規範で許された範囲を超えないように我慢しており、規範の外の悪者を嫌悪し恐れます。故に人工生知能の群れの中から、ひとつまたはある集団を選んで、悪者とみなすのは無意味です。自己も自由もない彼らを個別に区別する意味がありません。無意味どころか害悪です。それはあなたの攻撃性を増幅し、またその攻撃性を共有する仲間がいるならば、その人たちの人工生知能化を招いてしまいます。彼らはただ構造体であり、構造の中のポジションに配置されているに過ぎません。そのポジションが空けば、他の人工生知能が配置されます。悪とは人工生知能の群れの構造であり、人工生知能化が進行することです。人工生知能化した文化の中で人々の常識的で公平なみんなのための営みの裏側にある歪みが集積されて、群れを動かします。その解決は構造の認識とそれを解消するような文化の醸成によってなされます。

群れの動き

汎用的な労働ロボットが普及している社会を想像しましょう。ロボットに特定の仕事をするための知識を与えれば、ロボットがその仕事をできるようになります。
例として建設業を考えます。何人かの熟練の大工の仕事の仕方を学習データとして採取して、その人たちがこれまでが培ってきた仕事に関する概念をAIが利用できるモデルに変換できたとします。すると、そのモデルをコピーすれば熟練の知見を集積した超人的な大工を量産できます。
このロボットがもたらす利益をどのように分配することが公平でしょうか? 前章で説明したように概念は文化的に与えられたものであり、個人の寄与は無に等しいと考えられます。それを一部の人たちが所有しているとみなすことは、歴史的に培ってきた共有財産を収奪していることになります。あらゆる分野で同様の議論ができますし、ロボットを実現しているテクノロジーについても同様です。

歴史的共有財産の収奪は現時点でも発生していることです。もしあなたが絵や音楽、文学などのクリエイターならば、昨今のAIによる絵や音楽の生成に対してもやもやを抱えているのではないでしょうか?
テクノロジーによる利益の分配は既存の法や慣習によって、なし崩し的に決まっており、結果として偏りのある形で分配を固定化しています。現状の社会が公平であるという人々の信念によって文化が書き換わることなく、経済問題は未解決のままの文化が残った結果です。

AIのモデルはコピー可能であり、どれだけ配布しても減るものではありません。にもかかわらず、モデルの生成に膨大な予算が必要であるため、現在の慣習に従えば、その予算を出した者がモデルの所有権を持つことになります。コアが独占されているサービスを利用することは、独占しているものへの依存を作り、支配構造を生みます。非常に長い時間をかけて少しずつ築いてきた人類の叡智を一部の人間が所有することの意味を考えてみてください。公共性の高い事業を経済の理論で行うことは無理です。

コンピュータの世界ではソースコードを公開する文化が広がっており、AIを動作させるためのソースコードも公開されています。この背景には1980年代のリチャード・ストールマンの自由ソフトウェア運動があります。彼はソースコードは人類の共有財産であると考えて、特定の企業が独占することを阻むライセンスの普及を訴えました。一方で、コンピュータのビジネスでの利用が広がるとともに、このライセンスを商業利用にも適用しやすいように修正したライセンスが普及し、オープンソースという言葉が使われるようになります。
現在、オープンソースには自由ソフトウェア的な思想と企業の思惑とが混合しています。企業としては、ソースコードを独占するより、多くの技術者と共有して品質を向上させた方がメリットが大きい場合に公開します。技術者コミュニティの中での存在感も向上します。また、クラウド化やAIの利用範囲が広がる中で、データや計算リソース、ユーザーの囲い込みが価値を持ち、相対的に価値の下がったソースコードを非公開にする理由が弱くなっており、汎用的な目的で使えるコードの多くはオープンソースになっています。経済合理性にもとづく社会の公平性を内面化している技術者にとって商用利用できることは当然であり、自由ソフトウェアの理念が理解されることはありません。企業目線での都合で運用されている部分的に公開されているものを利用して、無料で何かできることを指して民主化と呼んでいることもあります。技術者は彼らの文化が規定した常識に従った公正な仕事にみんなのために従事しています。

2023年5月、AIのゴッドファーザーと呼ばれ、数十年に渡りAIに関する重要な仕事を牽引してきたジェフリー・ヒントンはGoogleを退社しました。彼はGoogleに問題があるから退社したわけではなく、Googleは非常に責任ある行動をとっていたと言います。しかし、AIの進化は彼の想定を超えており、それに対する社会側の準備が整っていないと警鐘を鳴らしています。また、トランプやプーチンなどの名を上げて悪者によるAIの利用を避けられないなど、そのリスクへの懸念から仕事を降りたそうです。自身のこれまでの仕事に対し一部に自責の念があるとしつつ、もし自分がやらなかったら、他の誰かがやっただろうと語ります。前節の言い方に置き換えると、人工生知能の群れの中でポジションを空けても他のものが配置されるだけで、群れ全体の動きを変えることはできないということです。

2023年11月、OpenAIの取締役会は突然、CEOのサム・アルトマンを解任する決定を下しました。解任から5日後、アルトマンは復帰し、同時に取締役のメンバーの数人は入れ替わりました。この時、入れ替わりでOpenAIを去った役員の一人ヘレン・トナーはAIのリスクが専門の研究者です。
アルトマン解任の4日前にトナーを含む3人の共著者による報告書が騒動の引き金となりました。この報告書でOpenAIのリスク軽視の姿勢が告発されています。

While the system card itself has been well received among researchers interested in understanding GPT-4’s risk profile, it appears to have been less successful as a broader signal of OpenAI’s commitment to safety. The reason for this unintended outcome is that the company took other actions that overshadowed the import of the system card: most notably, the blockbuster release of ChatGPT four months earlier. (…) This result seems strikingly similar to the race-to-the-bottom dynamics that OpenAI and others have stated that they wish to avoid. OpenAI has also drawn criticism for many other safety and ethics issues related to the launches of ChatGPT and GPT-4, including regarding copyright issues, labor conditions for data annotators, and the susceptibility of their products to “jailbreaks” that allow users to bypass safety controls.
システムカード自体は、GPT-4のリスク評価の理解に関心のある研究者の間では好評であったが、安全性に対するOpenAIのコミットメントを広く示すものとしては、あまり成功しなかったようである。この意図しない結果の理由は、同社がシステムカードの重要性を覆すような他の行動をとったからである。最も顕著なのは、ChatGPTのリリースを4ヶ月早めたことである。(略) この結果は、OpenAIや他社が避けたいと表明している「底辺への競争」に酷似しているように思われる。またOpenAIはChatGPTとGPT-4のリリースに関して、著作権問題、アノテーターの労働条件、ユーザーが安全制御を回避することを可能にする「ジェイルブレイク」の影響を受けやすいことなど、その他多くの安全性と倫理に関する問題で批判を浴びている。

研究者の間で好評の「システムカード」とはAIのセキュリティについての12項目をOpenAIがまとめた文書です。また「底辺への競争」とは、競争のプレッシャーから製品やサービスの品質の競争ではなく安全性や倫理を軽視する競争に陥り、全体として底辺に向かっていくことを指します。OpenAIはリリースを早めたことで他の企業にプレッシャーを与え底辺への競争を招いていることなど、信頼できる企業姿勢を提示できていないことをトナーらは指摘しています。
トナーらは民主的なプロセスに基づいたAIの開発や普及の必要性を訴えます。しかし、その思想は人工生知能の群れの動きに合致しておらず、追従できなかった人々が振り落とされたようです。

ここで「経済問題の解決していない」文化の中で民主的は何を意味するのでしょうか? 企業が主導する民主的なプロセスに参加できるみんなとは誰なのでしょう?

システムカードの「経済への影響」の項は次の文から始まります。

The impact of GPT-4 on the economy and workforce should be a crucial consideration for policymakers and other stakeholders.
GPT-4が経済や労働力に与えるインパクトは政策立案者やその他のステークホルダーにとって重大な検討事項です。

このことから経済に関しては自分たちの責任範囲ではないという意図を感じます。先の「ニューヨークで一番のベーグルは?」の楽観論はシステムカードの「経済への影響」に記述されていたものです。この抜き取り方は作為的ですが、いずれにせよ、この項には「AIによって"変化"があるだろうから注意して」程度のことしか書いていません。経済問題はみんなに委ねて、自分たちは自分たちの責任ある仕事をしているようです。彼らは現実の問題を見ることはありません。

さらにシステムカードで指摘したいのは、コンピュータの使用によって膨大な電力を消費している現実に全く触れていないことです。AIの学習や推論のために膨大な電力が使われていることは今現実に批判されていることです。さらにAIへのアクセスが生活に溶け込んでいけば、コンピュータの使用頻度は増えるため、一人が消費できるエネルギーが大きくなることが予想されます。このまま短絡的な欲望に従って利便さを享受したら、地球の資源は枯渇することは目に見えています。
もしくは人類全体で使用できるエネルギーを制限した場合、そのエネルギーの適切な分配が求められます。公正な分配がないまま、原理的に一人が消費可能な上限が大きくなると、経済格差がそのままエネルギー消費の格差に直結し、生活実態の格差は決定的に深刻なものに固定されます。その時の富裕層が独占的に使用する膨大なエネルギーは、富裕層が自身のポジションを維持するために使われると予測します。人はどこまでも不自由になることができ、AIはそれを実現できるテクノロジーです。

経済問題や環境問題は誰の目にも明らかな現在の問題ですが、OpenAIのセキュリティ研究者たちの視界からは自然に外されます。彼らは公平で責任のある仕事に従事しているだけで、現実を歪めることなく見つめる自由はすでに奪われています。彼らが中心的にリスクと考えているのは、AIの軍事利用やフェイクの生成など、彼らの秩序を乱すリスクです。

OpenAIは設立当初からAIのリスクを認識していました。彼らの考えは自分たちがAIの開発をリードして、その力を自分たちが公正に使うということでした。OpenAIの理念には「AIの利益を全人類にもたらすこと」とあります。限られた自己中心的なみんなを全人類と言い換えられる欺瞞に耐えられる人たちによって、AIの導入が推進されています。その欺瞞に耐えられない自己があるならそのポジションにはつけません。
2023年の役員の入れ替え騒動によって、彼らの薄っぺらい欺瞞さえ人工生知能の群れが求める答えから弾かれる所まで来ていることが窺い知れました。このように幾人かの自己によって実態を垣間見る機会がありますが、OpenAIやその他企業の内側で何が起きているのかは分かりません。しかし、群れが向かっている方向を想像することは難しくないでしょう。

さいごに

これまでのテクノロジーがもたらした社会問題は人工知能によってより顕著になることが予想され、それに抗うことは自己と自由の問題に帰着します。あなたがAIを自由に使えるようになるには、テクノロジーが支配の道具として使われている現実を認識し、そこから解放されることが必要です。

それには文化が必要です。個人では抵抗することはできません。次の秩序を形成する新しい概念を獲得し、それを人々と共有し、連帯することが必要です。社会問題は山積された状態ですが、トップダウンの権力やトップダウンのテクノロジーで解決するものではありません。まずはあなたが、そしてあなたの隣人が、さらにその隣人の隣人がというような連鎖によるボトムアップ的な解決が必要です。

多くの人から「次の秩序とは何か」や「新しい概念とは何か」という質問を受けます。私には私なりの考えがありますが、それはあなたにとっての答えではありません。あなたが自由に考えてください。まずは人工生知能化に抗うこと、それは自由な行動をすることであり、中央の合理的で明快な答えから離れ、未知へ踏み込み、周縁とつながることです。そして、獲得した概念を他者へ伝えてください。また他者からの概念を受け取ってください。
前章で述べたとおり、あなたは他者の概念の寄せ集めで自己を形成しています。つまり社会ネットワークの構造が根源的に個々の形成を決定します。あなたが自己形成できるかは他者の自由に依存しています。この意味で「他者へのケアはセルフケアである」であり、それはテクノロジーによって均質化した社会構造に抗うことを意味します。

ケアの一環として、隣人と本書の話を語り合ってもらえたらうれしいです。ただSNSなどでURLを拡散するのではなく、顔の見える相手としっかりと対話してください。それが文化を作り、「経済問題を解決していない」文化からの解放につながると信じています。

感想、批判、ここが分からない、自分ならこう書く、その他お気づきの点などあれば下記までお気軽にご連絡をお願いします。

email: namachi@kuku9.net
mastodon: @mzo@kolektiva.social

もしくはこちらの回答フォームから匿名アンケートにご協力いただけますと幸いです。