先日、ずっと気になっていた報告書にパラパラと目を通してみた。2015年2月に発表された人類が滅亡に至るかもしれない12のリスクというもの(原題:12 Risks that threaten human civilisation)だ。私の英語力では、すべて読んで理解するには膨大な時間がかかるため、「チラ見」した程度だと思ってほしい。発表元は、スウェーデンのシンクタンク「グローバル・チャレンジ・ファンデーション」。中心となって報告書をまとめたのは、オックスフォード大のスチュワート・アームストロング氏である。
報告書では、人類にとって脅威となり得るリスクが列挙されている。
- Extreme Climate Change(極端な気候変動)
- Nuclear War (核戦争)
- Global Pandemic(世界的な流行病)
- Ecological Collapse(生態系の崩壊)
- Global System Collapse(グローバルシステムの崩壊)
- Major Asteroid Impact(巨大隕石の墜落)
- Super-volcano(火山の大爆発)
- Synthetic Biology(合成生物学。人工的な病原体が出現?)
- Nanotechnology(ナノテク。核兵器の小型化などが劇的に進む可能性)
- Artificial Intelligence(人工知能。人間が制御できなくなるかも)
- Unknown Consequences(未知なる出来事の発生)
- Future Bad Global Governance(政治の失敗)
「極端な気候変動」「核戦争」「世界的な流行病」「小惑星の墜落」「火山の大爆発」あたりの説明は不要だろう。どれもありうることである。
今年は、人工知能関連の新しい動きが、これまで以上に多く出てくるだろう。すでに、囲碁・将棋の世界では、人間の能力を超えている。他の分野でもこれが進み、制御できなくなる日が実際に来るかもしれない。英国のEU離脱交渉開始、米国でトランプ大統領の就任、フランス大統領選など、一歩間違えば世界が大混乱に陥りかねない政治イベントも目白押しで、何とも不安な幕開けとなった。
この報告書は、これらのリスクに備えるためにやるべきこと・やれることも列挙している。その筆頭が
- global challenges leadership network(世界のリーダーによるネットワーク構築)
だった。世界最大・最強の国が協調を放棄するような場合、その他の国々はどうしたらいいのだろうか。頭が痛い。