【読む前と読んだあとで変わったこと】
新しい視点を身につけるために読む本。日本ではあまり取り上げられることがない、軍事技術発展という視点からIT技術を見るようになった。
かのビル・ゲイツがブログでAI・機械学習関係の必読書と絶賛していると聞き、即買い。
When ballistic missiles can see | Bill Gates
Army of None: Autonomous Weapons and the Future of War
- 作者: Paul Scharre
- 出版社/メーカー: W W Norton & Co Inc
- 発売日: 2018/04/24
- メディア: ハードカバー
- この商品を含むブログを見る
ビル・ゲイツが直接発信している情報に簡単にアクセスできること、欲しい本をAmazon Kindleで即買いできること。いずれもIT時代の恩恵だが、本書ではIT時代の軍事技術について、身の毛のよだつ現実を読者に見せる。
2018年12月頭に、中国のIT最大手であり、事実上中国解放軍のIT関連軍事技術開発を一手に担うファーウェイの副社長兼CFOがカナダで逮捕(のちに保釈)されたニュースは世界を震撼させたが、これは米国と中国がIT軍事技術分野でかねてから繰り広げてきた熾烈な覇権争いの一環である。
習近平のメンツをつぶした華為ショックの余波:日経ビジネス電子版
本書を読めば、なぜIT技術が必要かがわかる。
Work understands the consequences of falling behind during periods of revolutionary change. Militaries can lose battles and even wars. Empires can fall, never to recover.
ーーワーク(アメリカ国防省官僚)は、革新的な変化が起こっている時代に乗り遅れることの重大さを承知していた。軍は戦闘や戦争そのものに敗北するだろう。帝国は没落し、二度と立ち上がれないだろう。
少し話が逸れるが、最近、欧米のエリートは「哲学教育」を重視しているという話題に触れた。日本で哲学の入門書といえば、おそらく《ソフィーの世界》を思い浮かべる人が多いのではないだろうか。わたしも昔読んだ。
- 作者: ヨースタインゴルデル,Jostein Gaarder,池田香代子
- 出版社/メーカー: NHK出版
- 発売日: 1995/06/01
- メディア: 単行本
- 購入: 33人 クリック: 506回
- この商品を含むブログ (172件) を見る
なぜ哲学を学ぶのか。強力な軍事技術を手にしたとき、それを濫用しない自制心と分別をつけることが目的の一つだ。シカゴ大学教授ロバート・ハッチンスは「無教養な専門家こそ、われわれの文明にとっての最大の脅威」と述べた。子供に核兵器を持たせることほど危険なことはない。本書に登場する軍事技術を「使う」側にいる人々が、それだけの分別をもつことを願うしかない。
前置きが長くなった。読書感想に入ろう。
最初の一文からショッキングだ。
On the night of September 26, 1983, the world almost ended. ーー1983年9月26日の夜、世界は終わりを迎えかけた。
三週間前の1983年9月1日、ソ連はアラスカ発ソウル行きの大韓航空機を撃墜し、アメリカ上院議員を含む乗員乗客269名が死亡した。両陣営の緊張は高まり、ソ連はアメリカの報復を警戒して"Oko"と呼ばれるシステムで監視していた。
26日の真夜中過ぎ、システムが警告を発した。「アメリカ合衆国がソビエト連邦に向けてミサイルを五基発射」
当時駐在していたソ連将校ペトロフは、警告を奇妙に感じた。本当にアメリカが攻撃してきたのなら、たかだか五基のミサイルで終わらせるはずがない。ソ連の地上設備を全滅させるために雨あられとミサイルを撃ちこむはずだ。彼は調べた。結局、システムの誤作動が判明し、世界は第三次世界大戦の危機からからくも逃れた。
この事件について、著者はこう述べている。
What would a machine have done in Petrov’s place? The answer is clear: the machine would have done whatever it was programmed to do, without ever understanding the consequences of its actions.
ーーもし機械がペトロフの立場にいたらどうしていただろう? 答えは明らかだ。機械はプログラムされたとおりのことをする。その行動がどれほど重大なことか理解すらせずに。
著者は人工知能に意思決定させることの危険性を述べているが、私はこのエピソードから別のことを読み取った。もし人工知能時代であれば、五基のミサイルでもペトロフは敵攻撃だと判断したかもしれない。なぜなら「ミサイルの雨あられ」は、標的がどこにあるかわからない状況で少しでも命中率を上げるための方法であり、「標的を見つけることができる」人工知能搭載ミサイルであれば、少数精鋭で事足りるから。
もう一つの例は著者自身の経験から。軍人時代、アフガニスタン国境に潜伏していたときのこと。五、六歳の女児が山羊を連れて潜伏場所を遠巻きに歩いた。女児は明らかに著者達にーー敵側狙撃兵にーー気づいており、位置特定に来たのだ。事実、女児がいなくなってすぐにタリバン戦闘員が押し寄せた。
女児の行為は「戦争法では」攻撃理由になる。もちろん、わずか五、六歳の女児を撃とうとする者などいるはずもなかった。だが、倫理観をもたない機械なら?
著者は元米軍特殊部隊で米国防省軍事専門家。テスト段階にある軍事設備や研究プロジェクトを見聞きするなかで「コンピュータが攻撃目標を提案すること」がすでに実現可能であることを見つけている。「通信妨害されているなかで動きまわる攻撃目標を追尾する」ミサイルを開発しようとすれば、「ある物体が攻撃目標かどうか」をある程度識別できなければならないから。
いまのところミサイルは攻撃目標になる可能性があるものを見つけて画像情報を送り返すだけで、攻撃をするかどうか判断するのはオペレーターである。
攻撃判断を含め、いままだ人間が判断していることを自動化するかどうか?
軍事産業ではこれが大きな論争の的になっている。完全自動化すれば、もちろん、オペレーターがいなくなる(車の自動運転が実現すれば運転手がいなくなるように)。そうなれば、ミサイルがどこにいるのか把握できなくなりかねないーーミサイルは「勝手に」動きまわるし、敵レーダーに捕捉されないために位置情報送信は最小限にしなければならないから。
殺傷能力の高い対潜水艦ミサイルを「野放し」にして、勝手に目標を見つけさせて(時に目標を見つけられないまま迷子のように深海をさまようかもしれない)、勝手に攻撃判断を下させる(もしかしたら民間船や味方艦を敵艦と取り違えるかもしれない)ということは、少し考えるとなかなか怖い。
米防衛省は兵器自動化にはかなり慎重な姿勢をみせており、著者は米防衛省上層部へのインタビューでそれを浮き彫りにしている。だが一方で、もし必要となれば兵器自動化を推し進めるだろうとほのめかしている。
The lesson from history, Schuette said, was that “we are going to be violently opposed to autonomous robotic hunter-killer systems until we decide we can’t live without them.” When I asked him what he thought would be the decisive factor, he had a simple response: “Is it December eighth or December sixth?”
ーーシュエット氏に言わせると、歴史の教訓は、「われわれは自動化されたロボットのハンター・キラーシステムに猛反対するだろう。われわれがそいつなしに生きられないと決意するまではね」となる。
私が、どういったことが決定的要因になるだろうかと尋ねたところ、彼の答えは簡潔だった。
このような現実がある中で、結局私たちはどうしたいのか?
それこそが考えるべきことだと著者はいう。
人類は核兵器という「人類を絶滅させるに足る能力をもつもの」と共存する仕組みを四苦八苦しながら探り続けている。現在のところ「全員核武装して互いに睨みあう」というやり方でとりあえず平和は保たれている。同じことが人工知能やロボットにも起こるだろう。
著者にできるのは「どうすべきか考え続けよう」と呼びかけることだけだし、そうすべきだろう。己の価値基準に照らしあわせた判断こそが、人間にしかできないことだから。