もはや現実 – 殺人マシーンと我々の未来

去る2018年7月、Lethal Autonomous Weapons Pledge (自律的殺人兵器に関する誓約書、LAW誓約) に2,400人の人々が署名した。署名したのは、グーグルの DeepMind 創設者のデミス・ハサビス、テスラ社のイーロン・マスクなど、26ヶ国のテクノロジー企業160社の個人。誓約の内容を見てみれば、事態は深刻だということがわかる。

ここに署名する我々は以下のとおり賛同する。つまり人命を奪うという決断は決して機械に委ねるべきではないということに。人の命を奪うなどという判断には極めて重い罪が伴い、誰かがその責任を負うべきである(実際には誰も責任を認めなくとも)。我々の立場には、機械がそのような重大な判断を下すことを、人は決して容認してはならないという、道徳的な要素が含まれる。

この誓約を発表したのは、ボストンにある研究機関 Future of Life Insititute (FLI) 。同機関は、人類を守り未来への前向きなビジョンを描くことをミッションとしている。自律的な武器による脅威と潜在的な破壊力は想像するのも恐ろしいからこそ、FLIが発表した上記の誓約書は心に刺さる。

「人間の介入なしにAIが操る殺りく機械」などというと、SF世界の悪夢にありがちなフィクションだと思うかもしれない。だがこのような機械は原始的な形では既に存在しており、より発達したバージョンが現れるのも時間の問題と言えよう。そして残念なことに、そうそうたる面々から集まった前述の署名でさえ、その事実を変えることはできないだろう。

いくら署名を集めても、多くの社員が抗議しても、AIを活用した兵器の開発は止まらない。もしそんなことで止められると考えているのなら、それは現実逃避主義のファンタジーでしかない。

ストックホルム国際人工知能会議という場で発表されたこの誓約は、いくつかのメディアで取り上げられ、署名者の株を上げたりしている。とはいえ、これは禁止・規制に関するあまりに小さな第一歩でしかなく、実質的には大して役に立たないと言わざるを得ない。というのも以前にも我々は、化学兵器と核兵器という2種類の大量破壊兵器で同じようなことを経験してきているのだから。

第一次および第二次世界大戦で化学兵器と核兵器がそれぞれ使用された。それ以来、多くの国家はまずこれら兵器の開発計画を進め、後になって今度は一転、その拡散防止を外交関係・軍事手段・経済制裁を通じて試みてきた。しかしもちろん時すでに遅しで、シリアは化学兵器を使用している疑いが非常に高く、北朝鮮は核兵器を開発した。現実を見つめれば、AI兵器に関しても同じような国際的競争が数十年先に起こることは容易に予想できる。

LAW誓約でも以下のように記し、この点を暗に認識している。つまり、「我々は… 政府や政府の指導者たちに対し、こう呼びかけたい。殺傷能力を持つ自律的兵器を許さない、強き国際的な規範・規制・法律のある未来を創造していただきたいと。」

施行可能で、検証可能で、持続可能な国際的枠組みなしには、この誓約自体にあまり意味はない。そして例えそんな枠組みができたとしても、それでも完全とは言い切れないのが現実だ。というのも、原子爆弾や毒ガスなどに関するフレームワークをもってしても、その開発は止められなかったからだ。AI に関しては、それを活用したおぞましい兵器開発を追求する国々として、「アメリカ合衆国、中国、イスラエル、韓国、ロシア、イギリス」などをヒューマン・ライツ・ウォッチが名指しで非難している。仮にこれらの国が AI 兵器開発を中止するという英断を下したとしても、邪悪な指導者や闇市場、ハッカーからの脅威はなくならないのだ。

残念だが「兵器化されたAI」に関しても既にパンドラの箱は開かれてしまったと認識し、この現実を直視すべきだ。強く願うことで箱の中へ戻せるならそうしたいところだが、そういうわけにはいかないのだから。

The escapist fantasy of non-weaponized AI by Blaise Zerega 抄訳