2025年4月21日月曜日

次のAI冬の時代は

2022年に登場したChatGPTに始まる生成AIは、インターネットの登場と同じくらいの深遠な影響を知識人の生活にもたらしました。ChatGPTの最大の発見は、言語を自己教示(self-supervised)型学習という方法で学習させると、モデル表現能力がある一定能力を超えた時点で、「創発(emergence)」という現象が生ずる、という事実です。自己教示型学習というのは、この場合で言えば、テキストの一部の語を隠して、その語が何かを当てる、というタイプの自問自答を繰り返すことです。創発、というのは、AIが人間のようにある意味行間を読む能力を獲得することです。その結果、ChatGPTとの対話は、まるで人間と話しているように感じられます。

テキストに加えて画像や音声においても、一般人が驚くような機能が次々に盛り込まれ、このような爆発的な技術進化がどこまで続くのだろうと思っている人も多いと思います。本記事執筆時点(2025年4月)において、業界的なキーワードは、「AIエージェント」です。エージェントの最も素朴な例は、調査エージェントでしょうか。生成AIに、何かの注文を出すと、勝手に調べてレポートを書いてくれる、というやつです。コンサートチケットを買ったり、旅行の予約をしたり、などのシナリオが今考えられています。通常のコンピュータによる業務自動化と何が違うのかというと、いちいち詳細まで指示を出さなくても、適当によきに計らってくれるというのがポイントです。

生成AIが近未来に進む方向を占うための重要な文献がGoogle DeepMindのウェブサイトで、2025年4月10日に公開されました。


"Welcome to the Era of Experience" と題された論文において、著者らは、現代の生成AIを "human-centric" な方法の到達点を表すものだと考えます。この human-centric というのは誉め言葉ではなく、人間が直接生成したテキストや画像などのデータに基づいているという意味です。生成AIが human-derived なデータにのみ依拠している、という認識は重要です。多くの非専門家は、この点の認識が甘いため、今の生成AIのユースケースがどこまでも適用可能だと思ってしまいがちですが、それは危険です。上記の自己教示学習が動く最大の理由は、人間の知性で生の信号を処理することで得られる劇的な簡単化だと思われるからです。我々の行動はコンテキストに強く縛られており、そこからはみ出ることはまれです。生成AIが人間のように見えるのは、我々の行動の多様性の乏しさがゆえです。言い換えると、アルファベットのあらゆる組み合わせで表現できる数学的な情報量のうちほんのちっぽけな部分しか人間は使っていないということです。高々100個程度の元素で表現される材料科学の世界のデータには人間の意図が直接関与しているわけではありませんが、数百年の人間の努力の結果、現象を支配する「言語」が把握されている珍しい例になっています。

  • 人間の知的活動から派生するデータ("human-drived")
    • テキスト
    • 音声
    • 画像(撮影は人間の意図が反映されている)
    • 化学式
    • など
  • データ生成に人間の意図が関与していないデータ
    • 自然現象のセンサーデータ
    • 株価(あまりにも多数の人間が関与しているため、個々人の意図は事実上かき消されている)
    • 人体からのセンサーデータ
    • など


人間の知的活動に派生するデータには限りがあり、早晩使い果たされるため、human-centric な方法論を乗り越える次世代のパラダイムが必要だ、というのが論文の主旨です。では次に何が来るのか。著者らが想定しているのが、ネイティブに強化学習を組み込んだ複数のAIエージェントが自律的に学習と協業を行う世界です。

この「協業」の部分については論文では願望以上のものは書かれていませんので、どのようにAIエージェントが強化学習を行うかの方が重要です。論文によれば、次世代のAIエージェントは、テキスト情報のみならず物理センサー情報等も活用して自律的にデータを集め、報酬(reward)と呼ばれる情報を頼りに自らを鍛えてゆくようなものです。


人間の作った情報に直接依拠しないという点において、これは大きな進歩になりえます。しかしここで問題なのは、だれが報酬を決めるのか、という問題です。少し長いですが重要な点なので、論文から引用しましょう。

To discover new ideas that go far beyond existing human knowledge, it is instead necessary to use grounded rewards: signals that arise from the environment itself. For example, a health assistant could ground the user’s health goals into a reward based on a combination of signals such as their resting heart rate, sleep duration, and activity levels, while an educational assistant could use exam results to provide a grounded reward for language learning. Similarly, a science agent with a goal to reduce global warming might use a reward based on empirical observations of carbon dioxide levels, while a goal to discover a stronger material might be grounded in a combination of measurements from a materials simulator, such as tensile strength or Young’s modulus.

人間の知識の枠を超えるには、環境に本質的に由来する情報としての報酬を使う必要がある。例えば、健康維持エージェントは、安静時心拍数、睡眠時間、活動レベルなどの複数の指標を組み合わせた報酬に、ユーザーの健康目標を結びつけることができよう。また、教育エージェントは試験結果を用いて、言語学習のための基盤となる報酬を提供することもできよう。同様に、地球温暖化を抑制することを目的とする科学エージェントなら、二酸化炭素レベルの実測値に基づく報酬を使えるかもしれないし、より強い材料を発見するという目的の場合は、材料シミュレーターから得られる引張強度やヤング率などの複数の測定値に基づく報酬を活用することが考えられる。


ここでは、測定可能な量と、目指す目的を表現する数値指標の間の関数形が(すなわち報酬関数の形が)、自明に知られていることが前提になっています。確かに簡単な応用ではそういうこともあるかもしれません。しかし私の知る限り、大多数の実応用では、評価指標と観測量の間の関係はよくわからないのが普通です。 たとえば、半導体装置の劣化検知を考えると、測定されているセンサーデータは何10個もありますが、どうなったら製品品質に問題をもたらす程度に劣化するのか、というのは、簡単なルールで書けるほど単純ではありません。劣化シナリオには未知のもの既知のもの含めて多数あり、なおかつ、使用する製造レシピ、その装置の前の工程での状況など、「情報としては存在するかもしれないが、そこまで考えると収拾がつかなくなるデータ」が無数にあるからです。

リアリティの欠如から考えて、Silver & Suttonはおそらく、実世界のビジネスデータの解析にかかわった経験が乏しいのかもしれません。報酬関数を設計するためには、まず、結果に関与する変数が列挙されていなければなりません。これ自体、AIではフレーム問題といわれ難問と考えられています。問題の枠組みを決める問題、ということです。仮に運よくフレームすなわち変数セットが決まったとしても、たとえば異常判定ルール(すなわち、負の報酬を与える関数形)を求める問題は自明ではありません。

この点すらも、実データ解析経験がないと理解しにくいところでしょう。普通の人が想像しがちなものは「体温が37度以上なら異常」みたいな素朴単変数ルールですが、そういう自明なものは最初から問題にはなりません。実応用上で解かなければならないのは、「平熱だしのども赤くないし下痢しているわけでもないが、どうも体調が悪い」みたいなタイプの問題だからです。考える要因が2個や3個ならいいとして、10個や20個になると考えねばならない状況が指数関数的に増え、なおかつ、手持ちのデータでその組み合わせが全部網羅されていない、みたいな状況が起こり、異常判定ルールの獲得は大変高度な問題になりえます。


この点から考えるに、 これから爆発的に流行するであろうAIエージェントの行き着く先が何となく見えてきます。論文では報酬関数は柔軟に決めてよい、データに基づいて学習されるニューラルネットワークでもよい、などと言っていますが、結局、そこに人間から見た何かの価値判断が必要なことには変わりありません。

逆に言えば、人間の価値判断なしにAIエージェントを野放しにしてよいわけはありません。上に二酸化炭素の例がありますが、AIエージェントの暴走の結果、二酸化炭素濃度が極端に下がり、植物の光合成ができなくなり枯死に至ったらどうでしょう。

経験の時代、という見方は技術進化の方向としては正しいのですが、報酬関数の設計という中核的要素において、フレーム問題と知識獲得のボトルネックという問題から逃れられないことは明らかなように見えます。だとしたら、おそらく今後数年続くであろうAIエージェントの大流行と、それに対する反作用としての幻滅期の到来は不可避なように思います。

おそらくそれが、次のAIの冬の時代の始まりとなるでしょう。

2024年8月17日土曜日

電気自動車はハイブリッド車より魅力的か

 パンデミックの際に生じた物資供給網の問題から、自動車の価格はパンデミック前の4割から5割高い状況が続いていました。2024年になり、価格上昇が半分程度に圧縮されたこともあり、いろんな車の仕様を調べていました。

当然電気自動車も検討対象に挙がりました。テスラのウェブサイトに行くとアメリカで人気のあるコンパクトSUVの Model Y が、34,000ドルなどと書いており、一時期はこの2倍くらいだった記憶もあるので、お、と一瞬思ったのですが、これは連邦および州からの税金控除による 8,000 ドルと、不要になるであろうガソリン代 6,000ドルを含んだ額で、実は支払額自体は 48,000ドル。高級車であることには変わりありません。

このガソリン代の差額 6,000ドルがどうも大きすぎる気がしたので、どういう計算なのかと調べてみると、結構意外なことが分かりました。結論から言えば、アメリカの主要都市圏(ニューヨーク、ボストン、ロサンゼルス、サンフランシスコなど)では、燃費面から見た電気自動車の経済的利得はほぼないということです。これまで燃費は電気自動車が圧倒的に有利、という宣伝が当たり前のようになされてきましたが、事実と違うということです。あとは、充電にまつわる不利益・高い車両価格と、排気ガスを出さないという利益をどう比較するかという話になるかと思いますが、私の結論は、上記都市部に住む人の最適解はハイブリッド車である、というものです。



話を戻して、テスラの計算根拠を見てみましょう。この矛盾が起こる原因は、ガソリン代と電気代(上のスクリーンショット参照)が実勢値を反映していないということです。テスラのウェブサイトでは、NY州の節税額を計算に入れながら、NY州ではなく全米平均の電気代を使うというおかしなことをしています。主要都市部での電気代とガソリン代は米国労働省のページから参照できます。それによるとニューヨークは204年7月の平均で 0.288ドル/kWh です(全米平均は 0.178)。電気代には supply charge と delivery charge、それに system charge という3つがあり、私の住んでいるところでは delivery chargeがとても高く、合計で 0.31ドルくらいでした。つまりテスラは、私の地域での実勢値の半分くらいの値を使っているということです。NY市内の充電ステーションを使った場合さらに高く、0.5ドル/kWhくらいになるようです。

一方、ガソリン代ですが、これは近所では 1ガロン当たり3.5ドルくらい。テスラの見積もりは高すぎ、つまり、電気代は極端に安く、ガソリン代は妙に高く、電気自動車に大変有利な計算をしていることが分かります。そもそも、電気自動車と比べるべきは、内燃機関車の中での最善の選択肢であるハイブリッド車でしょう。


では、これらの数値(電気代 0.3 ドル/kWHh、ガソリン代 3.5 ドル/ガロン)を入れて、年間10,000マイル走る前提で年間のコストを計算したらどうなるでしょうか。

米国環境省が、fueleconomy.gov という燃費比較の便利なサイトを公開しています。もちろん車種によって燃費も違うので、ここではテスラモデルY、RAV4 ハイブリッド、カローラハイブリッドの3つを比べてみます。結果は下記のとおりです(直リンク)。


枠で囲まれた数字はいわゆるMPG (miles per gallon)で、アメリカにおける燃費の指標です。電気自動車の場合は MPGe と言って、ガソリンに換算した値が出ていますが、これはエネルギーの観点での等価値で、コストは無関係。したがって電気自動車に関してはほぼ無意味な値です。

そこで年間の燃料代(annual fuel cost)というところを見ると、テスラは 850ドル、Rav4 は900ドル、カローラは700ドルです。すなわち、NY地区では、テスラの燃料代は RAV4 と大差なく、むしろカローラに負けています。充電にまつわるストレス(range anxiety などとアメリカでは呼ばれます)や時間コスト、さらに車両価格の安さを考えれば、ハイブリッド車が最善の選択肢であると言えるでしょう。

電気代が 0.25ドル/kWhまで下がると、テスラとカローラは同額の 700ドル、Rav4は 900ドルです。2024年7月の全米平均の0.178ドル /kWhまで下がると、それぞれ、500、900、700ドルです。5年で考えるとテスラはRav4 hybrid に比べて2,000ドルの利得になりますが、車両価格の違いはこれよりはるかに大きく、元を取ることは困難です。


ガソリン代が上がったらどうするんだ、という疑問に答えるため、最後に、過去40年くらいの、アメリカにおけるガソリン価格と電気代の変遷を見てみましょう。まずガソリン価格の変遷。市場価格をかなり敏感に反映していることが分かります。上がるかもしれないし、下がるかもしれない。



次に電気代ですが、残念ながら下方硬直性が見られ、値下がりは期待できそうにないです。再生可能エネルギーの導入が進んでいるはずが、コスト面ではあまり効果は出てないということです。いろいろ示唆的です。



電気自動車の、自分の周りに有毒ガスをまき散らさないという利点は非常にすばらしいのですが、アメリカでは半分程度の電力は天然ガスで作られますので、二酸化炭素削減への貢献は、実は言うほどでもないということは知っておいてよいでしょう。リチウムなど希少金属への依存性と採掘に伴う環境負担も懸念材料です。免税措置により政府に負担をかけているのも社会的公平性の観点で問題ありそうです。

化石燃料による発電を原子力で置き換えられたしても、電池の充電に多大な時間がかかるという不便さはどうしようもなく、電気自動車が多数派庶民の選択肢になるのは、車両価格が今の半分くらいになった時だと思います。つまり、不便だけど安い移動手段。この観点で中国製電気自動車には要注目ですが、昨今の米中関係からするに、当面アメリカでは大きな展開は期待できそうにありません。

2024年3月17日日曜日

AI研究と社会: 過去10年の振り返り

 今から20年前と10年前に、機械学習の研究コミュニティの様相についてコメントをしたことがあります。それをふとしたはずみで思い出し、ある意味定点観測として、AI研究についての2024年時点での雑感を述べます。


2023年6月24日土曜日

潜水艇タイタン号の破壊事故について

Independent紙の記事によれば、タイタニック探索観光の潜水艇沈没事故、カーボンファイバーの疲労破壊が起因になった可能性が高そうです。異常発生を検知すべく、船体からのデータは潜水中は常時監視されていたようですが、残念ながらそれは役に立ちませんでした。一応異常検知の専門家として思うに、この “real-time hull health monitoring system” に、AIなりビッグデータへの過信が寄与しているとすれば、由々しき事態かと思います。

私はカーボンファイバーという素材に知識がないので間違っているかもしれませんが、一般的には疲労破壊は、微細な亀裂が急速に進展することで起こります。亀裂は原子レベルの結晶構造の不整合に起因したりしますので、その存在自体は不可避で、かつ、無数の亀裂のどこが成長するのかは確率的な現象なので、予測は非常に難しいです。できるとしたら、原子レベルからミクロン単位の動的な現象をとらえる計測装置が必要かと思います。たぶんそういうものはない。

以前、こういうことを書きました。

しかし、実際には、データ取得に関する人間の偏見ないし限界という問題が常に付きまとい、長い研究の歴史の結果として「何をデータとして集めるか」という点に合意が確立している分野(画像認識、音声認識、自然言語処理)以外では、特徴量工学を不要にした、という深層学習支持者たちの主張が、どれだけ工学的・実用的に妥当なのかを結論を出すべく、今でも研究の努力が続けられています。これは当然でしょう。普通のカメラで飛行機の写真を撮っても、金属疲労による微細な亀裂は見つかりません。飛行機の破壊を予知するのが目的であれば、相応の計測装置が必要になります。ビッグデータは物理学の壁を超えることはできないのです。特徴量工学を不要にしたとしても、データをどう取得するかについての問い(しいて言えば観測工学)を避けて通ることは絶対にできません。

タイタン号に付けられていたセンサーは、おそらく、ひずみとか圧力とか温度とかそういうマクロ的なセンサーなんだと思います。そういうもので原子レベルの、しかもミリ秒単位で急速に進展する現象をとらえることは原理的にできないと思います。この困難に直接的に対処する手段は、産業応用のレベルでは現代の科学技術をもってしても大変乏しく、たとえば航空機の設計においては、疲労破壊を招かないよう設計上のあらゆる工夫をするのは当然として(窓を丸くするなど)、安全率を大きめにとりつつ、保守において部品を定期的に交換することで何とか対応する、ということになっていると思います。

最近、大規模言語モデルの成功から、AIで何でもできるという楽観が再び世間を席巻しているようです。しかし人間の思考の結果として高度にフィルターされた言語というデータと、物理学的現象からのデータは質が違います。疲労破壊の検知が難しいのは、それがミクロ的スケールからマクロ的スケールまでまたぐ現象だからです。ビッグデータが物理学の壁を越えられない以上、「何を検知しようとしているのか」に対する考察は不可欠で、したがって、計測手段に対する工夫は不可欠です。

今回の痛ましい事故が、AIに対する適切な理解が世間に広まる一助になることを祈ります。



2022年5月2日月曜日

イーロン・マスク氏の挑戦 ── 公正な人工知能とは何か

言論の自由の絶対的信奉者(Free Speech Absolutist)を自称するイーロン・マスク氏のTwitterの買収が、今全米で議論を巻き起こしている。企業買収が日常茶飯のこの国で本件がこれほど話題になるのは、2021年1月に、現職大統領のアカウントを永久に停止するという挙に出たTwitter社に対する政治的反作用と解釈されたからだ。

マスク氏の考えはこうだ。Twitterは今や公共的な発言の場所になったのだから、そういう公的な存在としては、経営者の好き嫌いである人を締め出したり、恣意的にツイートを削除することは適切ではなく、法律の範囲内で発言の自由が認められるべきだ。

ここで、「法律の範囲内で」という点が議論になりえる。たとえば、殺人予告のような触法行為をどう取り締まるか。これについてマスク氏は、ソースコードが公開されたプログラムに自動判断させるべきであり、非公開の恣意的な基準を使い密室で(”behind-the-scenes”)禁止するツイートやユーザーを決めるべきではない、という趣旨のことを述べている。

TED 2022 におけるマスク氏のインタビュー(12:17あたりからがその発言)

トランプ氏のアカウント永久停止事件

では、アカウントの永久停止に至った問題の大統領発言とは何か。Twitter社は、次の発言が、利用規約で禁じられた「暴力の賛美」に当たると解釈した。

2021年1月8日に、ドナルド・J・トランプ大統領は次のようにツイートした。 

「米国第一、偉大なる米国よもう一度、との標語を掲げる私に投票してくれた7500万人の 偉大なる愛国者たちは、今後も大きな声を持ちづけるだろう。彼らは、いかなる形でも決して、軽んじられることも不公正に扱われることもないだろう。」 

この後すぐに、大統領はこのようにもツイートした。 

「問い合わせを寄せてくれた皆さん、1月20日の大統領就任式に私は行きません。」 

 

On January 8, 2021, President Donald J. Trump Tweeted:

“The 75,000,000 great American Patriots who voted for me, AMERICA FIRST, and MAKE AMERICA GREAT AGAIN, will have a GIANT VOICE long into the future. They will not be disrespected or treated unfairly in any way, shape or form!!!”

Shortly thereafter, the President Tweeted:

“To all of those who have asked, I will not be going to the Inauguration on January 20th.”


この発言がなされたのは1月6日の米国国会議事堂襲撃事件の2日後である。しかし大統領の発言はそれに直接言及しているわけではなく、また、ツイート自体には暴力を賛美する要素は何もない。トランプ陣営が大統領選挙の公正さについて係争中であったこと、また、Twitterが半ば公的な言論の場となっていたことを考えれば、Twitter社によるトランプ氏追放は、反暴力に名を借りた政治的な弾圧だ、との解釈も成り立ちうる。

マスク氏が問題にしている事柄のひとつはおそらくその点であろう。言論の場を提供する企業は、言論が法律の範囲内で行われている限りにおいて、個々の言論への政治的価値判断をすべきではないし、株主価値の最大化の観点で言えば、その必要性も乏しい。


AIは差別的か

マスク氏による今回の買収は、上記の出来事への政治的反作用という観点以外に、アルゴリズムないし人工知能(AI)に、公正さについての判断を任せていいのか、という問題を提起している。

この点に関して、米国のメディアでの議論は少なくとも2つの点で大きな誤解があるように思われる。

第1の点はAIの定義についてである。信頼できるAIとは何かについて議論される時はほとんど常に、人間の意思決定を人間に代わり行うような汎用人工知能(artificial general intelligence)の存在が暗に前提とされているように思える。確かに、もし人間の知的判断が非人間的な何かで置き換えられつつあるのならば、EUのAI 倫理規約が言うように、人間による制御可能性がAI倫理の柱のひとつになることは理解できる。しかし汎用人工知能などこの世に存在しないし、現状、有限の未来にそれができる可能性もない。現代のAIとは、たとえば、買い物サイトにおける商品推薦の程度のものであり、人間の介在なしに何かまともな行動がとれるようなものではないのである。

第2の点は公正さの評価についてである。2016年、調査報道で名高い通信社ProPublicaは、米国の多くの州の裁判所で使われている Northpointe という犯罪者のリスク評価ツールが人種差別的だとの報道を行った。明らかにおかしいと思うような数個の事例において、黒人と白人の犯罪者の写真を並列させ、AIツールの出力の奇妙さを見事に印象づけたその記事は社会的な反響を呼び、以後、「AIは野放しにすると何をするかわからない」との常識がメディアに定着することになった。

しかし同記事を詳しく見ると、3万5千人もの事例を使った網羅的な研究では同種のツールに人種差別の証拠はないと結論されたと書いてある。さらに、批判された側の連邦裁判所が徹底的な反論をするに及び、少なくとも機械学習の学術レベルでは ProPublica の "Machine Bias" レポートの結論は誤りであるということで決着を見ている。そもそも、刑期終了後に再犯を防ぐための支援のレベルを決めるためのツールを、裁判前の逮捕者に適用するなど記事の杜撰さは明らかで、最初から結論ありきの記事だったということである。実務のレベルでも、”Biased Algorithms Are Easier to Fix Than Biased People”、すなわち、AIツールに何か問題があったとしても、それを直すのは偏見を持つ人間を正すよりはずっと簡単だ、というのが合意事項、になるはずであった。

しかし現実はそうなっていない。たとえば ACM Computing Surveys という権威あるサーベイ誌に掲載された ”Trustworthy Artificial Intelligence: A Review” という2022年の最新の論文では、

A risk assessment tool used by the judicial system to predict future criminals was biased against black people [4].

などと堂々と誤った結論が述べられている([4]がProPublica誌の記事)。これはおそらく人文系の研究者により書かれた論文だと思われるが、それが人文系、したがって主要メディア側での常識ということなのだろう。


マスク氏の挑戦

マスク氏のTwitter買収は、少なくとも金銭的観点では成功しそうである。しかし今後の展開は予断を許さない。マスク氏の理想は、少なくとも上に述べた2つの点において、米国の主要メディアの空気とまったく乖離しているからである。すなわち、トランプ的なものに一切の人権を認めないと言わんばかりの彼らの空気と、アルゴリズムに判断をゆだねることを自動的に悪とする空気である。

今後の報道を読み解くガイドとして、いくつかの論点を羅列しておこう。

精度100%の分類器はない

多くの人文系識者は、もしAIが人間の判断を置き換えるのならば、AIは100%の精度を保証すべきだ、という不思議な想定を暗に置いていることが多い。これは2重の意味で正しくない。まず、人間の代わりに自律的に判断をするような汎用人工知能は存在しないし、AIは100%の精度を保証する「水晶玉」でもない。

個別事例(インスタンス)と総体を混同しない

もし完璧な精度が望めないのであれば、あるAIツールが差別的かどうかを知るためには、多くの個別事例から得られる結果の総体を見る以外ない。これは価値判断が統計学的になされるべきことを意味している。しかし ProPublica の記事がそうである通り、活動家マインドのジャーナリストは、同情を引くような少数の個別事例をもってAIツールなり社会制度なりを攻撃するという手法を使う。数個の事例を誤分類したからといって、AIツールの利用がただちに危険ということにはならない(そもそもProPublicaの一件ではAIに最終判断をゆだねているわけでもない)。しかしそのような論理的な反論を、大声で叫び続けることで封じる、というのが活動家の流儀である。

法律はアルゴリズムである

ある AIアルゴリズムがあるとして、それに包括的な inclusiveness を強制するためには、公平性の基準を、定義と変数と変数間の関係からなるある明示的なルールとして記述する必要がある。それは我々が「アルゴリズム」と呼ぶものである。そう書くと、いかにもそこに反人間的要素を持ち込んでいるかのように聞こえるが、実はそれは、現実の法規制(例えば税制)が採用している明示的アプローチと何ら変わるものではない。表面的な記法は別にして、論理的に言えば、法律はアルゴリズムの一種である。

アルゴリズム的に容易にかつ明示的に達成できる包括的な inclusiveness を否定するのは、(1)それを理解する学力が足りてないか(数学アレルギー)、(2)自分の所属するグループに参入障壁を設けて既得権益を守りたいか、のどちらと言われても仕方あるまい。


(本稿を書くにあたり、産業総合研究所の神嶌敏弘博士に丁寧なご教示をいただいた。引用した New York Times の記事と連邦裁判所の反論は博士のご教示による。感謝したい。)


2022年3月20日日曜日

「戦争学」概論

 

ロシアのウクライナ侵攻を契機に、ようやく日本でも国際政治のダイナミクスを実証的にとらえる動きが出てきているように見えるのは好ましいことである。ロシアの露骨な侵略行為の前に、日本の文系インテリをいまだに支配しているように見える疑似的なコスモポリタニズムの無力さが誰の目にも明らかになった。武装を放棄すれば、あるいは憲法第9条を持っていれば他国から攻撃されることはないとの念仏信仰のようなものが、長い間日本の「知識」人を支配してきた。過去数10年にわたり、他国の侵攻を許し、自国民を拉致され、あらかさまに核兵器で脅されてきたという明白な事実があっても、彼らの信仰が変わることはなかった。

彼らの平和主義は、「侵略されていないから、侵略されない」という同義反復のようなものだったのだろう。おそらく今後、世間の空気が変わったと悟るや、それが、「(ウクライナが)侵略されているから、(日本も)侵略される(かもしれない)」に変わるのだろう。何も考えていないという意味では同じだが、前提も結論も間違っていた前回に比べれば、前提も結論も事実を反映している分が救いである。これを機に、戦後の日本政治を支配してきた退嬰的な空気が少しでも変わることを願う。さもなくば、古くはユーラシア大陸の大半を支配したモンゴル帝国が今や東アジアの貧困国に没落してしまったように、また、近世に地中海地域に覇を唱えたオスマン帝国が一小国に没落したように、日本も没落の道を転げ落ちてゆくことだろう。

本書は2005年、米国のイラク侵攻が一段落ついた時点で出版された地政学の解説書である。地政学とは、「国際関係の粒度で言えば、地理学的な要件に着目して、諸国の外交政策を理解し、説明し、予測するための学問(At the level of international relations, geopolitics is a method of studying foreign policy to understand, explain, and predict international political behavior through geographical variables.)」と定義される。この情報化社会において、地理的要件がなぜ重要なのかは必ずしも自明ではない。実際、本書をかなり以前に読んだ時は、その点が今ひとつわからず、過去の歴史を俯瞰する方法として有用なのはいいとしても、それが予測能力を持ち得るのかはやや疑問であった。

この点はおそらく、軍事的な考察を必要とする。軍事は物理的な兵力の移動を常に伴う。本書でも繰り返し述べられているように、ハイテク戦争時代であったとしても、土地を面として制圧するには古典的な陸上戦力が必須である。そしてその陸上戦力を送るためには、やはり地理的な制約は第一義的な意味を持つ。例えば太平洋戦争末期の沖縄戦では、米軍は知念半島と嘉手納海岸という2つの上陸予定地点を研究していた(八原博道、『沖縄決戦 高級参謀の手記』、中公文庫、第2章)。長大な海岸線を持つ沖縄本島において、揚陸に適する地点はわずか2か所しかなかったということである。一般人が思うよりもずっと軍事行動の地理的な選択肢というのは狭い。古くから交通の要衝とされる場所にはそうなるだけの地理的ないし軍事的な必然性があり、その観点を無視して国際政治上の選択肢を論ずることはできない。逆に言えば、軍事関連の学問が大学から完全に追放されている日本にあっては、地政学的戦略を構想できる政治家が皆無であるように見えるのも仕方ないとも言える。

本書では冒頭でマッキンダー、マハン、スパイクマン、ラッツェル、ハウスホーファーらの学説を紹介し、地政学的概念を通して、ナポレオン戦争からイラクにおける対テロ戦争まで、歴史上の戦争の性格の変遷を概観する。最後に地政学的なアジア太平洋における現在と近未来像を眺める。ある意味悲しいことながら、17年も前の本だが、最後の章は今読んでも全く古さを感じない。北朝鮮の核武装も、中国の覇権主義も急速な軍拡も当時から明らかなことであった。歴史認識問題を国際政治の道具と使っている状況も同じである。日本の為政者はことなかれ主義に安住し、単に傍観しているだけであった。そして状況はますます悪化する一方である。冒頭に掲げたような空想的平和主義者たちの活動が、こういう状況に至らせることを目的とした戦略的活動であったのなら、それは史上稀に見る成功と言うべきであろう。

ひとつ顕著に変わった現実はロシアの位置である。2005年の当時、ロシアはソ連崩壊の混乱から立ち直り切っておらず、日本では軍事的な脅威とは見なされていなかった。プーチン大統領が一時期北方領土問題の解決に前向きのように見えたのも、日本からの投資を呼び込むという意図があったようである。北方領土問題について著者は、二島返還交渉、四島返還交渉、実力奪還、という3つの選択肢を提示し、憲法上の制約から第3の選択肢が実行不可能であることを断りつつ、「戦争に至ることなく四島を返還させる可能性のある方策は、奪回できるだけの軍事力を背景にして経済協力の利をあたえるという、アメとムチによる圧力をかけることだろう」と述べる。そしてこう付け加える。 
こうして歳月が過ぎて強いロシアが復活してくれば、北方四島問題は解決しないまま、またロシアの脅威におののかなければならない日がくることになるだろう。
現実は著者が危惧した通りに進んでいるように見える。

本書は地政学についての要領の良い解説書として有用であるのはもちろん、21世紀の前半、日本の政治がいかに停滞し堕落していたかを活写する極めて良い歴史的資料になるだろう。