- ベストアンサー
未来の兵器はどこまで無人化されるでしょう?
- 未来の兵器はどこまで無人化されるのか?人間が操作する兵器と機械が操作する兵器の勝敗はどうなるのか考えてみました。
- 人間の限られた視野や反応速度に比べて、機械は電波やセンサーを使って多角的に情報を収集し、精密に射撃できる能力を持っています。
- さらに、効率的な連携や飽和攻撃による敵の減少も可能で、人間が出る場面はますます減るかもしれません。
- みんなの回答 (2)
- 専門家の回答
質問者が選んだベストアンサー
現在のロボット兵器は人間が遠隔制御で動かしているものなので、人間の限界を超えられませんが、人工知能で動くロボット兵器を開発して、コンピュータの判断だけで戦わせようという動きがありますが、多くの科学者が反対しています。 理由としては、故障や動作異常だけの問題では無く、人工知能の行動判断が予測出来ない問題が残るからです。 人工知能が人間を超える判断能力を持つようになると、予測出来ない行動に出た時に対応出来ない事態が考えられます。人工知能は人間が思いつかない判断をおこなうのが問題になっているのです。 たとえば、戦闘地域に人工知能で動くロボット兵器を投入した時に、敵の戦力を壊滅する作戦のはずが、戦闘員も住民も全滅させる結果になる可能性もあります。下手をすると、他の地域まで攻撃を始めて、ロボット兵器を止める為に、軍事力を投入しなければならない結果になるかもしれません。そういう危険が懸念されるわけです。 人間がプログラムを書いてもバグが残りますが、人工知能がプログラムを作るようになる可能性もあります。人工知能が作ったプログラムは人間が解読するのは難しいでしょう。下手に解読すると病気にかかる危険もあります。人工知能が人間を超える能力を持つほど、人間が対応出来ない事態が憂慮されるのです。
その他の回答 (1)
- eroero4649
- ベストアンサー率32% (11074/34518)
割とルールがコンピューター向きであるチェスや将棋は、プロも打ち負かすコンピューターが出て来ています。先日プロ棋士とコンピューターの対戦があったとき、プロはかなり苦しい劣勢の状況でありました。するとプロ棋士が打った手は、「角を相手の陣に入れて成馬にしない」というものでした。角が馬に成らないというのは絶対といっていいほどありませんが、ルール上「やってはいけない」ということはありません。成るか成らないかは任意だからです。銀は成らないのはよくあります。 普通絶対にやらない手なので、それはプログラミングされていませんでした。プログラムされてない手を打たれたコンピューターはそれをどう解釈していいか分からなくなり、手が混乱して結局プロが勝ちました。プロ棋士は「勝ったけれど、こういう裏ワザで勝つのはあまり喜べない」ともコメントしていました。 未来の無人兵器が作られたとしても、それを作るのは人間です。だから、どこかしらに何かの弱点は必ずありますし、人間は前述のような「卑怯な裏ワザやとんち勝負」ができる生き物です。どんなに完璧に見えたものであっても、何か卑怯な手段を考えてそれに対処します。 また、そういう兵器はそれこそターミネーターのように暴走して敵味方のべつまくなしに攻撃し始めたら大変です。ですから何らかの形で必ず安全装置がつけられます。しかも暴走してどうにもならなくなったときに外部から接続して安全装置が発動するような仕掛けを用意しているはずです。ということは、そこにハッキングして安全装置を作動させるか誤作動させれば動きを止めることができます。何らかの形でそこは作動させることができないと意味がないので、必ず「何かの方法でアクセス可能」になっています。何かの方法でアクセスが可能なら、アクセスが可能ですよね・笑?あとは「解析ができるかどうか」だけの純粋に技術的な問題となります。 既に航空機の分野は、無人機が登場しています。ただ人間による遠隔操作ですけどね。しかし単純に「どこかまで飛んできて爆撃して帰る」くらいならそのうちプログラムで自動操縦され、自動では対処しきれないところをオペレーターがフォローするという形式になるでしょう。いずれ空軍は無人航空機がメインになる時代がくると思います。戦闘機パイロットの育成には億単位の金がかかりますからね。 またいずれ無人潜水艦というのも登場すると思います。これもテクノロジー的にはそんなに難しいことではありません。無人戦車もそのうち出てくるかもしれませんね。 ただ、最終的に戦争というのは、そこに「歩兵がやってきて占領する」ってことをやらないといけないので、完全に無人化されるということはないでしょうね。とはいえ、機械兵器が戦場をブイブイいわせて、人間は機械の目を盗んでこそこそと動き回るターミネーター(1)みたいな時代が来るかもしれませんね。
お礼
ネットのセキュリティホールの様に思わぬ脆弱性が見つかる訳ですね。 その弱点を突かれると無防備になるとなれば、 全ての自動化はその意味でもハイリスク過ぎて取れない選択になるんですね。 >ターミネーター 敵への攻撃でどれほど味方を犠牲にするか? 味方を盾にされた場合どう対処するか? これが弱点として利用される可能性を持つと同時に、 これを学習しより効率的な対処をしようと繰り返すと 機械は設計通りに裏切り者になって行きうるんでしょうね。 現実問題として人間にとっては全自動化は不可能なんでしょうね。 ご回答ありがとうございます。
お礼
些細な想定漏れの設計がプログラムを暴走させてばかりですもんね。 敵味方の巻き添えや妥協などを含めた複雑な状況判断をさせる となれば、想定漏れや想定外は大量に発生し、 暴走するリスクの方が高い事になりますね。 2値的な判断が不可能な現実で 2値的な条件判断の山を組めば、 思わぬ事が起こるのは当たり前なのかもしれませんね。 自動化できるはずなのにしない分野があるのは 1つは独裁への警戒もあったりするんでしょうかね。 ご回答ありがとうございました。 とても参考になりました。