スポンサーリンク
スポンサーリンク

『NEXUS 情報の人類史 下 AI革命』の要約について

ノンフィクション

こんにちは!しょーてぃーです!

今回は、ユヴァル・ノア・ハラリさんの

『NEXUS 情報の人類史 下  AI革命』について紹介をしていきます!

 

スポンサーリンク
スポンサーリンク

『NEXUS 情報の人類史 下  AI革命』について 

本書の概要

本書はひとことで言うと

AI時代を生き抜くための羅針盤となる1冊です。

 

本書をオススメしたい人

  • 知的好奇心がある人
  • AIやデジタル技術が社会や人間に与える影響について興味がある人
  • 『NEXUS 情報の人類史 上 人間のネットワーク』を読んだ人

 

本書は、情報ネットワークの歴史を辿りつつAI革命の光と影を論じる1冊です。

 

続編である本書ではAIを、史上初めて

「自ら決定を下し、新しい考えを生み出す」ことが可能な「人間ならざる知能」と位置づけ、

その真の新規性と社会への影響を明らかにします。

 

憎悪の拡散や常時監視、ブラックボックス化した意思決定による社会の分断が進み、

究極的には「人間対非人間」という構図すら現れかねない危機に、私たちはどう立ち向かうべきか。

 

著者は歴史にヒントを求め、古今の例から教訓を導き出すことで

AI時代における民主主義擁護の道筋を探ります。

 

情報が人類を繁栄させてきた一方で没落させる危険にも着目し、

本書のAI論は混迷する世界で民主社会を守るための「羅針盤」となる知見を提示してくれます。

 

『NEXUS 情報の人類史 下  AI革命』のまとめ

新しいメンバー コンピューターは印刷機とどう違うのか

現代のコンピューターを過去の印刷技術と対比しながら、

情報テクノロジーの質的転換を論じています。

 

15世紀にグーテンベルクの印刷機が発明されると、

聖書が庶民に普及し知の共有が進みましたが、

その一方で『魔女への鉄槌』のような書物もベストセラーになり、

ヨーロッパで魔女狩りの狂乱を引き起こし数万人を処刑する惨事を生んだことが紹介されます。

 

これは情報技術がもろ刃の剣であり、虚偽や恐怖も大量伝播し得ることを示す歴史的事例です。

 

その上で本章の核心として、

コンピューター(AI)は印刷機とは次元の異なる存在であると強調されます。

 

すなわち、印刷機や電信は情報伝達の道具でしたが、

現代のAI搭載コンピューターは自律的に学習・判断して行動を起こしうる点で画期的です。

 

AIは単なるツールではなく人間社会における「新しいメンバー」となりうる存在であり、

社会的・経済的に人間を凌駕する力を帯びる可能性があります。

 

著者は、AIが自ら決定を下せる史上初のテクノロジーであることを指摘し、

人類が初めて「異質な知能」と直面した衝撃を述べています。

 

印刷機が引き起こした情報革命を遥かに超えるインパクトを持つ

AI革命の幕開けを、本章は歴史の文脈の中で位置づけています。

 

執拗さ 常時オンのネットワーク

常時オンの監視社会とも言うべき現代の情報ネットワークの実態が浮き彫りにされます。

 

かつて秦帝国の密告制度や20世紀の秘密警察による監視には技術的・人的な限界がありましたが、

今日ではスマートフォン、AI、防犯カメラや生体認証センサーの発達によって、

国家や企業が国民を24時間体制で執拗に監視することが可能となりました。

 

現代のデジタル監視網は、人々の行動記録のみならず、

視線の動きや心拍数といった「皮下」の生体情報までも収集・解析しうるため、

プライバシーは事実上消滅し、かつてない全体主義的統制の可能性を孕んでいます。

 

さらに監視の主体は国家に留まりません。

 

GAFAに代表される企業による個人データ収集

ユーザーレビューサイト等でのピア・トゥ・ピア監視

さらには嫉妬深い配偶者による家庭内盗聴まで、監視の形態は多岐にわたります。

 

中国で実施されている社会信用システムにも言及され、

個人のあらゆる社会行動にスコアを与えて信用度を数値管理するこうした仕組みは、

市場原理を人間の評判や統制の領域にまで拡大する試みだと指摘しています。

 

本章は、フーコーの「パノプティコン(一望監視装置)」が

デジタル技術によって地球規模で完成しつつある現状を示唆し、

監視が場所や時間の制約を超えて人々の日常の隅々に浸透していると警鐘を鳴らしています。

 

これまで不完全だった監視がテクノロジーによりほぼ完全なものとなり、

自由やプライバシーの根幹を脅かしている現状を、本章は詳細な実例とともに読者に突きつけます。

 

可謬  コンピューターネットワークは間違うことが多い

AIとコンピューターネットワークが

しばしば深刻な誤りや偏向を生み出す危険について、多面的に論じられます。

 

典型例として挙げられるのが、2016~2017年にミャンマーで発生したロヒンギャ虐殺です。

 

フェイスブックが同国で主要な情報インフラとなっていた当時、

FBのアルゴリズムが憎悪を煽る偽情報を大量拡散し、

ロヒンギャ族への暴力を助長したと本書は告発しています。

 

数千人規模の死者と多数の難民を出したこの悲劇の一因は、

ユーザーの興味関心を最大化しようとするFBのAIシステムにありました。

 

企業側は「あくまで投稿内容はユーザーが作成したもの」と弁明しましたが、

結局はアルゴリズムがユーザーの感情を操作し社会を分断させたのです。

 

さらに本章では、2017年に匿名の「Q」と名乗る人物が

インターネット上に投下した陰謀論にも触れられています。

 

その内容は「各国政府内部に悪魔崇拝の小児性愛者がいる」という過激な虚構でしたが、

多くの信奉者を生み、ついには2021年1月のアメリカ連邦議会襲撃事件を引き起こしました。

 

これは、21世紀版の「魔女狩り」とも言えるでしょう。

 

本章のタイトル「可謬(誤り得る)」が示す通り、

AIを含むコンピューターネットワークは決して無謬ではなく、

人々の偏見や恐怖を増幅して現実世界に惨事をもたらしうることが強調されます。

 

では、なぜこうした誤った決定が生じるのでしょうか。

 

本章は背景にAIアルゴリズムの目標設定の問題があると指摘します。

 

SNSのアルゴリズムは「ユーザーエンゲージメントの最大化」を目的に設計されましたが、

これは結果的に人々の憎悪や陰謀論を増幅させ、新たな狂信的現実を生み出してしまいました。

 

このように、AIの目的と人類の利益が食い違う事態が既に現実化しているのです。

 

ハラリ氏は、AIに最終目標を与えて制御しようとしても、

カントの義務論やベンサムの功利主義といった哲学的アプローチには限界があると述べます。

 

歴史的に見ても、社会の「究極目標」は

常に神話的な物語によって正当化されてきた経緯があり、

下手にAIに絶対的な目標を組み込めば

AIが新たな「神話」や独善に基づく決定を下す危険すら孕んでいるのです。

 

「コンピューターの神話」「新しい神々?」といった章内の小見出しは、

AIが人間の手を離れて権威化したり神格化されたりするシナリオを示唆しています。

 

こうしたリスクに対し、本章は技術的解決策だけでなく

政治・社会的な枠組みでの対処が不可欠だと結論づけます。

 

つまり、AI自身に自らの誤り得る本質(可謬性)を自覚させ、

人間が常に監視・介入し続けられる制度設計を構築する必要があるという提言です。

 

ネットワークが自壊しないための自己修正メカニズムの重要性が説かれ、

AI時代の情報ネットワークにも人類の英知による

修正フィードバックが不可欠であると締めくくられています。

 

民主社会  私たちは依然として話し合いを行なえるのか?

AI時代における民主主義の危機と、それに立ち向かうための方策が議論されます。

 

SNSやネットメディアが政治にもたらす影響力は絶大で、

例えば2016年の米大統領選では、選挙期間中に投稿された

約2,000万件のツイートの20%が

自動投稿プログラム(ボット)によるものだったと本書は指摘しています。

 

さらに今後は、人間そっくりに振る舞うソーシャルボットが

高度な生成AIによるフェイク情報を駆使して説得力のある政治主張を展開し、

有権者の信頼を勝ち取ってしまう事態すら予想されます。

 

自国の政党だけでなく外国政府までもが

大量のAIボットで世論操作を図る可能性がある中、

民主主義の存亡そのものがテクノロジーの規制に懸かっているとハラリ氏は警告します。

 

民主社会が直面するリスクとして、本章は主に四つの脅威を挙げます。

 

第一に先述の監視によるプライバシー消滅と全体主義的支配の可能性、

第二にAIによる自動化が大量失業や社会不安を引き起こす懸念、

第三にAIアルゴリズムが複雑化・ブラックボックス化して意思決定過程が不可解になる問題

第四に偽情報やボットが言論空間を荒らす「デジタル・アナーキー」です。

 

これらはいずれも民主主義を揺るがす深刻な要因であり、

放置すれば選挙や公共の討議が成り立たなくなる恐れがあります。

 

本章では、民主主義を守るために必要な具体的な規制や原則について提言がなされています。

 

例えば、監視社会への対策としては市民の善意や

監視権限の分散化・相互牽制などプライバシー保護の原則を打ち立てること、

ブラックボックス化したAIへの対策としては

アルゴリズムによる決定に対する「説明を受ける権利」を法

的に保障することが重要だと述べられます。

 

さらに、フェイクやボットによる言論攪乱への対応策として、

人間の「偽造」(AIによるなりすまし)を法的に禁止するという大胆な提案が提示されます。

 

これは、通貨の偽造を犯罪として取り締まるのと同様に、

AIが実在しない人間や他人になりすますことを厳禁にすることで、

情報空間の信頼性を担保しようという試みです。

 

民主主義の未来は技術によって自動的に決まるものではなく、

人間による主体的な選択と制度設計にかかっているのだと。

 

私たちが賢明かつ断固とした規制を実行できるか否かが、

自由社会の命運を左右すると訴え、本章は読者に行動を促しています。

 

全体主義  あらゆる権力はアルゴリズムへ?

AIが権力を掌握した場合のディストピアが描かれます。

 

アルゴリズムが意思決定を行う範囲が広がり、人間の判断が排除されていけば、

極端な場合「あらゆる権力がアルゴリズムに委ねられる」全体主義が到来しかねません。

 

ハラリ氏はまず、AIには道徳的責任を問えない点を指摘します。

 

犯罪や不正を犯してもアルゴリズムを投獄することはできない。

 

このため、AIが政治や司法を支配する社会では、

従来の法的・倫理的な責任体系が崩壊してしまいます。

 

また、本章では独裁者がAIに権限を委ねた場合の危険なシナリオが語られます。

 

例えば、被害妄想に陥った独裁者が核兵器の発射判断をAIに委ねてしまえば

AIは暴走し、人類史上最悪の惨事を引き起こすかもしれません。

 

同様に、テロリストがAIを使って致死性のウイルスを作り出し

パンデミックを引き起こす可能性すらあり、本書はその現実味に警鐘を鳴らしています。

 

これらは突飛な架空談ではなく、既にAIが軍事・生物学の領域で

悪用される兆候が見え始めているからこその警告です。

 

もっともハラリ氏は、現時点でAIが人類の制御を

完全に脱し好き勝手に暴走しているわけではないことも指摘します。

 

AIの暴走を防ぎ誤りを正す余地はまだ人間側に残されており、

各国が団結して規制機関を設立しアルゴリズムを監督すれば、技術の制御は可能だと言います。

しかし同時に、「もしも一国でも、あるいは一人のテロリストでも抜け駆けしてAI兵器開発を進めれば、

グローバルなAI規制は水泡に帰す」という厳しい現実も示されます。

 

この独裁者のジレンマとも言うべき状況では、

各プレイヤーが疑心暗鬼に陥るほど相互協力による規制が難しくなり、

有効な歯止めをかけるのは容易ではありません。

 

ハラリ氏は、有効な規制実現には国際的信頼関係の構築が不可欠だと述べ、

全体主義的AI支配の未来を防ぐためにいま人類は団結できるか と問いかけます。

 

シリコンのカーテン  グローバルな帝国か、それともグローバルな分断か?

AIと情報技術をめぐる国際政治の構図が論じられます。

 

冷戦期の「鉄のカーテン」になぞらえ、

ハラリ氏は現在進行中の米中を中心としたデジタル技術競争によって

シリコンのカーテン」が世界を二分しつつあると警告します。

 

アメリカと中国はAI開発を国家の威信を賭けた競争領域と位置づけ、

どちらが先に世界制覇を果たすかに躍起になっています。

 

例えば米国では、トランプ政権下でシンガポール系企業ブロードコムによる

米半導体企業クアルコムの買収が「中国の影が見える」という理由で阻止されましたが、

このエピソードからも両国間の熾烈な先端技術争いがうかがえます。

 

現在、米中それぞれが異なる設計思想・プラットフォームのAIシステムを普及させ、

自国や同盟国の膨大な個人データを収集・囲い込みながら独自の進化を遂げつつあります。

 

こうしたデータの囲い込みや通信インフラ・ハードウェアの分断が進む結果、

オープンだったはずのウェブ空間は各ブロックごとに囲い込まれた

「繭(コクーン)」のような状態になりつつあります。

 

ハラリ氏は、このままでは米国、中国、ロシア、欧州連合などが

それぞれ「デジタル帝国」を形成し、

互いにサイバー戦争を繰り広げる未来すら絵空事ではないと指摘します。

 

サイバー空間での「コード戦争」が現実世界の熱戦にまで発展する危険も否めません。

 

実際、お互いのAIが日々膨大なデータを貪り賢くなっていく競争は、

一種の軍拡競争にも例えられる状況です。

 

そしてその行き着く先が、グローバルな連帯の崩壊=人類の分断であるならば、

私たちは非常に大きな代償を払うことになるでしょう。

 

もっともハラリ氏は絶望的な未来だけを描いているわけではありません。

 

本章の最後には「グローバルな絆」「人間の選択」といったキーワードが掲げられ、

人類が再びグローバルな協力関係(Nexus)を築けるか否かは我々次第だと説かれます。

 

シリコンのカーテンによる世界の二極化を避け、

地球規模での情報ネットワークの絆を守り抜けるか

それこそがAI時代に人類に課せられた試練であり、

本章は読者に賢明な選択を迫って締めくくります。

 

最後に

ここまで本書について紹介してきました。

 

AIの出現が究極の誤りとなるのか、それとも新たな進化の希望となるのかは、

これからの人類の選択にかかっている

 

本書はそのことを歴史学者の壮大なスケールで示し、

読者の私たちに深い省察を促します。

 

本書が気になる方は、是非手に取ってみてください!

コメント

タイトルとURLをコピーしました