- ベストアンサー
AI兵器の時代って訪れうるんでしょうか?
例えば2~3の有人戦車や戦闘機の周囲に 同等の装備を持ちながら人間が乗るスペースや安全性のコストを削減した 無人機を数倍の数備え、難しい判断は要求されず致死率の高い行動は 無人機に任せて有能で高コストな人員の致死率を下げる。 みたいな時代は訪れうるんでしょうか? 国民の数、兵士の数、兵器の数で圧倒できると言われますが、 技術で補う事って現実的には可能そうなんでしょうか?
- みんなの回答 (7)
- 専門家の回答
質問者が選んだベストアンサー
遠隔制御兵器には無人の偵察機、戦闘機、ヘリコプター、戦闘車、装甲車、戦車などがありますし、人工知能を搭載して知能化したロボット兵器を投入するかで国際的な議論になっています。 遠隔制御兵器は小型化が著しく、機関銃が付いた戦闘車がありますが、ラジコン戦車よりも少し大きいぐらいです。 人間のように歩行するロボット兵器も開発されているそうですが、人間が入り込める場所ならば、どこでも入り込めるのを目的に開発されていると考えられます。 AI兵器というのは、通信ネットワークで連絡を取りながら、細かい判断は人工知能でおこなって戦闘を戦うものでしょうし、戦術的な作戦指示も人工知能で判断するようになると、人間が勝つのが難しいシステムになって危険だという指摘もあります。 映画「ターミネーター」のような世界にならない為には、最終判断は人間がおこなうようにシステムを作る必要があるでしょうね。
その他の回答 (6)
- bansy
- ベストアンサー率9% (22/224)
可能でしょうね。大国はどんどん無人兵器を投入してくると予想されます
お礼
自動車の自動ブレーキのレーダー技術みたいなもので 現実空間を3Dマッピングできるドローンもあるそうですし、 歩兵1人が数機のドローンを携帯し 突入や制圧など致死率が高い行動を先行させ命を守ったり、 頭上や足元から敵を奇襲したり、同時行動で包囲したり、 爆薬を搭載させ地形を縫って突撃する誘導爆弾にしたり、 稼働時間は短いながら瞬間的に有効な活用はいずれできそうですね。 天候に左右される点はドローンはあてにならないかもですが。 技術が抑止力になってくれると少しは安心なのですが。 ご回答ありがとうございます。
- lululu1238
- ベストアンサー率38% (72/189)
もう既にドローン偵察機なんかは投入されていたんじゃなかったですかね。 でもそこまでやるんだったら、もういっそバーチャルの戦場で戦って下さいよって思いますよね…本当に。
お礼
そういえば4枚プロペラのドローンが流行る前に 自衛隊関連のホバードローンが偵察をするとかもありましたね。 アメリカは飛行機タイプの偵察機がどうとか聞きます。 小型で高殺傷力、高破壊力の技術が増えて、 大量生産された無人AI機が戦力の要になったら もう民間人が居る場所は狭過ぎて戦い難いのかもしれません。 環境に影響が無い遠い場で戦ってほしいものですね。 ご回答ありがとうございます。
- haglof
- ベストアンサー率9% (23/239)
アメリカ軍などはどんどん無人兵器を投入してくるでしょう
お礼
軟弱な人間を守る必要が無い無人兵器なら より小さく安く過酷な環境にも投入できますし 多額の費用を投じて育てた兵士を大量に失う事も避けられる。 経済規模や人口よりも技術が優位になる時代になるんでしょうかね。 ご回答ありがとうございます。
- terminator_5
- ベストアンサー率37% (182/487)
現に最小限の人的損失で最大限の戦果が挙げられる戦法として、アメリカ軍を筆頭に無人機攻撃が世界的な潮流となっています。
お礼
アメリカ、ロシアは実用経験をどんどん積んでるんですね。 経験の差が開いて行くのは怖い事です。 ご回答ありがとうございます。
- GalaxyS2
- ベストアンサー率9% (19/202)
うるだろうね。
お礼
いずれはそうなるでしょうか。ご回答ありがとうございます。
- doraneko66
- ベストアンサー率11% (535/4742)
どうかな… 結局、人が作ったものだから、逆にハッキングしてしまえば 向こうの物になってしまいますよね。 後は、電磁波みたいな兵器使ったら、AIも狂ってしまうし 側に人がいなくても大丈夫な兵器って、爆弾とミサイルくらいしかなさそうですよね。 人を補助する兵器は、出来そうですが AIそのもので兵器にするのって難しそうですよね。
お礼
ハッキングは危険ですよね。 高度な認証を要するとECMや悪天候で認証失敗とかが致命傷になりますし。 よほど単純な作業をさせる位しか難しいのでしょうか。 ご回答ありがとうございます。
お礼
既にそんなに遠隔制御兵器があるんですね。 >AI兵器 反応速度も射撃精度も学習能力も人間は敵わないですもんね。 これだけプログラムがバグだらけ、設計ミスだらけで 一応動くから大丈夫なAIに兵器を任せたら、 「命令通りにやったら民間人を殺傷した」と何度も学習し 間違った命令を出し戦争法や人道に反した判断をした者こそが 最優先排除対象だ とか学習しようものなら、 一応飼い主にとっては反逆される事になるでしょうね。 一方的に誤爆で民間人を殺し続けてる状況で AIに正常な学習をさせたら暴走しそうな気がします。 そもそも人間にとって人間の命が最も尊い訳でもなく、 遠い異国の大勢の不遇の死よりも 長年共に暮らした1匹のペットの死の方が辛く 判断に影響を与えかねなかったりする。 何が大切でどっちを取るかという妥協的怠慢な判断を AIが死ぬ事の無い学習の中で有罪判定したら、 処刑される対象が何になるかわかったものじゃない。 AIに下手に判断を任せれば人類は自滅するのかもしれませんね。 あまりに私達は矛盾ばかりの中を生きていますから。 どんな優秀な人間でも専門外の事では素人判断をし 愚かな過ちを起こす。AIの考案者、設計者も然り。 複合的な要素で常に最大利益を提示できる優秀な学習AIを 作れて1000回間違いが無かったからと委ねたら、 10年後に学習の結果人類の価値観から見ても人類が有害なんて 思わぬ判断に至り暴走なんて事も起こったりするのやも。 あくまで断片化し統合しない方が良いんでしょうけれど、 AIに効率を助言されれば統合して暴走しそうな。 まぁ、そうなってしまった時はそうなってしまった時なんでしょう。 ご回答ありがとうございます。