• ベストアンサー

AIと人権

こんにちは。 「AIが、戦場に投入される時」とか。・・・「AI特攻」をするらしいですが。 ・・・連想すると、「製造物責任」とか。 刑法的には、「未必の故意」とか、有りますね。 「AIだから、しょうがないじゃん」とかでは、言い訳になりませんね。

質問者が選んだベストアンサー

  • ベストアンサー
  • FattyBear
  • ベストアンサー率33% (1531/4615)
回答No.4

”AIの能力が「人」を凌駕するのが、2045年、”は無理かと・・ 人間のほんの一部の能力を人以上にすることはできるかも。 ”AIが「人権侵害は不可能」ということを大前提”にさせるためには 人がその大前提を組み込まなければ、AIが暴走することも起こり得ます。あと、人間の感情をどの程度忠実に再現できるかもそのAIの優秀度に影響すると思います。

kurinal2
質問者

お礼

FattyBear様、ありがとうございます。 私は、どちらかというと、もう少し悲観していたようです。 FattyBear様の仰るように、「人の介在」がしっかりされていれば、人がAIを使いこなすようにも、なれるのでしょう。

その他の回答 (8)

回答No.9

私も昔思案しましたよ。 下記とそこから掘れる参考質問も見てください。 https://okwave.jp/qa/q9295918.html

kurinal2
質問者

お礼

Flareon様、おはようございます。 ・・・「何か、新鮮味のある言い回し」ですねえ。 ん- 「やっちゃいけないことは、やっちゃいけない」で、どうでしょう?

回答No.8

#7です。 自動運転の話で「哲学」の問題だと言ったのは、車の技術者やコンピュータプログラマー達だけが集まって議論し、検討したところで倫理の問題に突き当たるので、哲学者も自動運転技術の実用化に参加せねばならないのでは、という意見があるからです。 「トロッコ問題」をどうするのか、他にも類似の状況が想定され、問題提起されています。 トロッコ問題 https://atmarkit.itmedia.co.jp/ait/articles/2011/25/news010.html >AI自身が責任を取れないのだとすれば、それを造った人(たち)の責任ではないの? 使用した人、使用せよと命じた人の責任だと思います。 >上記では、「戦犯」も何も、あったものじゃない。(戦争は、究極の人権侵害) 「戦争は、究極の人権侵害」であることに間違いありません。 しかし、現実問題として国連憲章では、自衛のための戦争は禁止されていません。 国家の自衛権は認められていますから、自衛のためとする戦争・紛争が後を絶たないですね。 現実には、無人機による兵士や民間人を含む殺害が日常的に出ています。 「戦犯も何もあったものじゃない」事態ですが、これを人類は解決できるでしょうか。

kurinal2
質問者

お礼

kouki-koureisya様、ご回答ありがとうございます。 >「#7です。 自動運転の話で「哲学」の問題だと言ったのは、車の技術者やコンピュータプログラマー達だけが集まって議論し、検討したところで倫理の問題に突き当たるので、哲学者も自動運転技術の実用化に参加せねばならないのでは、という意見があるからです。 「トロッコ問題」をどうするのか、他にも類似の状況が想定され、問題提起されています。 トロッコ問題 https://atmarkit.itmedia.co.jp/ait/articles/2011/25/news010.html そうですね。少なくとも「人権を考慮しない功利主義」は、サイアクです。 >>AI自身が責任を取れないのだとすれば、それを造った人(たち)の責任ではないの? >使用した人、使用せよと命じた人の責任だと思います。 なるほど。責任ということは、賠償しないと、ですね。AI保険にでも、加入しておきますか。 >>上記では、「戦犯」も何も、あったものじゃない。(戦争は、究極の人権侵害) >「戦争は、究極の人権侵害」であることに間違いありません。 しかし、現実問題として国連憲章では、自衛のための戦争は禁止されていません。 国家の自衛権は認められていますから、自衛のためとする戦争・紛争が後を絶たないですね。」 まあ、そうならないために尽力する、という学問も、有ったはずです。 >現実には、無人機による兵士や民間人を含む殺害が日常的に出ています。 「戦犯も何もあったものじゃない」事態ですが、これを人類は解決できるでしょうか。」 こんな私でも、アイザック・アシモフは、読んでいます。「ロボット工学、三原則」 私もSF、書いてみようかな。

回答No.7

自律型AI兵器の実用化はかなり進んでいますよ。 今年の7月19日のニュースですが、 AIを搭載したドローン(無人機)が、人間の命令を受けずに独自の判断で人間の兵士を「敵」と認識し、実際に攻撃した可能性がある――。そんな報告書が、国連の専門家パネルから発表されています。 詳細は、下記記事。 リビアで「自律型AI兵器、ついにヒトを攻撃」の衝撃!! https://www.excite.co.jp/news/article/Shueishapn_20210719_114083/ 自律型AI兵器は他にも例がありますが、例えば、ロシア戦略ミサイル軍が「武装哨戒ロボット」をミサイル発射基地の周囲に配置したと、2014年3月に発表しています。 人間の指示を受けずに標的を識別し、攻撃することができるそうです。 >「AIだから、しょうがないじゃん」とかでは、言い訳になりませんね。 勿論です。 近々、実用化されるであろう自動運転に対応しての法整備も、人間の生死を判断せねばならないという哲学の問題になってきており、なかなか進まないですね。 しかし、戦争は、何もかもノールールです。 戦争にルールはあっても、守られたためしがありません。 歴史が証明していますね。

kurinal2
質問者

お礼

kouki-koureisya様、ご回答ありがとうございます。 >「自律型AI兵器の実用化はかなり進んでいますよ。 今年の7月19日のニュースですが、 AIを搭載したドローン(無人機)が、人間の命令を受けずに独自の判断で人間の兵士を「敵」と認識し、実際に攻撃した可能性がある――。そんな報告書が、国連の専門家パネルから発表されています。 詳細は、下記記事。 リビアで「自律型AI兵器、ついにヒトを攻撃」の衝撃!! https://www.excite.co.jp/news/article/Shueishapn_20210719_114083/ 自律型AI兵器は他にも例がありますが、例えば、ロシア戦略ミサイル軍が「武装哨戒ロボット」をミサイル発射基地の周囲に配置したと、2014年3月に発表しています。 人間の指示を受けずに標的を識別し、攻撃することができるそうです。」 AIが、人権を守れるかどうか、侵害しないで済むかどうか、・・・AI自身が責任を取れないのだとすれば、それを造った人(たち)の責任ではないの?と。 >>「AIだから、しょうがないじゃん」とかでは、言い訳になりませんね。 >勿論です。 近々、実用化されるであろう自動運転に対応しての法整備も、人間の生死を判断せねばならないという哲学の問題になってきており、なかなか進まないですね。」 いやいや、そこを「哲学」のせいにされてもorz ・・・ところで、環境問題のほうは、どうなってるんでしょう? >「しかし、戦争は、何もかもノールールです。 戦争にルールはあっても、守られたためしがありません。 歴史が証明していますね。」 「端的に結論を述べて、追々理由を積み重ねる」のは、議論としては好もしい感じですけど、それでイイかどうかは、別問題ですね。 上記では、「戦犯」も何も、あったものじゃない。(戦争は、究極の人権侵害)

回答No.6

>>そんなに長い時間、「不完全なAI」と、人類は共存出来るのでしょうか? 共存も何も、人類が作成している道具ですから、 ただ単に「使っていく」だけの話です。

kurinal2
質問者

お礼

Ultra-Hetare様、ご回答ありがとうございます。 やはり、私は、相当に悲観的なようですね。

回答No.5

そもそも「真のAI」ならば、 >>戦場に投入 や >>特攻 などに使用するようなことはあり得ないでしょう。 戦略計算と結果予測を行い、戦闘行為なしに 戦争の開始と終結やその後の賠償まで算出 してくれないようでは、AIの意味がないです。 まあ「真のAI」が出来るのには、あと2000年くらい 必要だと思っていますが。

kurinal2
質問者

お礼

Ultra-Hetare様、ご回答ありがとうございます。 >「まあ「真のAI」が出来るのには、あと2000年くらい 必要だと思っていますが。」 そんなに長い時間、「不完全なAI」と、人類は共存出来るのでしょうか?

  • Don-Ryu
  • ベストアンサー率24% (256/1051)
回答No.3

AIの最大の機能は、「意思決定」だと思うんです。 ディープラーニングによって短期間で膨大なデータを学習して、それを元に最適解を導き出し実行する、 「自分の意志決定は好きにやってもいいけど、その意思は生きた人間の意思決定に勝るものではない」 それをリストリクターして設定できるか、でしょうね。 ただし、どんなに意思決定を行うにしても、所詮は機械。 AI特攻は、つまりは誘導ミサイルと何ら本質は変わらないと思います。

kurinal2
質問者

お礼

Don-Ryu様、ご回答ありがとうございます。 >「AIの最大の機能は、「意思決定」だと思うんです。 ディープラーニングによって短期間で膨大なデータを学習して、それを元に最適解を導き出し実行する、 「自分の意志決定は好きにやってもいいけど、その意思は生きた人間の意思決定に勝るものではない」 それをリストリクターして設定できるか、でしょうね。」 「不都合な結果」が生じたときに、創った方たちが、「製造物責任」を負うのかどうか。 >「ただし、どんなに意思決定を行うにしても、所詮は機械。 AI特攻は、つまりは誘導ミサイルと何ら本質は変わらないと思います。」 「ミサイルは、何処行きであっても、撃ち落とすべし」が、持論です。

  • FattyBear
  • ベストアンサー率33% (1531/4615)
回答No.2

”AIが、AI自身(?)によるミスの補償?まで、計算する”プログラムは人なら作れますけどAI自身では作れません。人の介在なしではAIは進化できないと思います。人が介在する以上プログラムミスは起こり得ます。ただ、そのミスは進化(人が介在)により極めて小さなミスまでに許容できるようになると思います。そうなったAIは人に恩恵を与えると思います。

kurinal2
質問者

お礼

FattyBear様、ご回答ありがとうございます。 AIの能力が「人」を凌駕するのが、2045年、と言われているそうです。 ・・・その後、AIは、(人の介在なしで)「ネオAI」を創り出し、「ネオAIは・・・」といった、具合です。 仮に、そうなった時、AIが「人権侵害は不可能」ということを大前提としていれば、いいと思うのですが。

  • FattyBear
  • ベストアンサー率33% (1531/4615)
回答No.1

”「AIだから、しょうがないじゃん」とかでは、言い訳になりませんね。” 当然です。自動運転でAIの不具合で事故が起きてもその事故の責任 がどこにあるのかその責任の所在は明確にされると思います。 明確でなければその自動運転の運行は承認されないと思います。 AIのシステムはおおもとのプログラムは人が考えたものであり当然 ミスもあります。最終的に動作する機構は人が製造した物であり不具合 も起こり得ます。介在した人の「製造物責任」もあります。 また、AIはどんなに進化しても万能にはなり得ません。

kurinal2
質問者

お礼

FattyBear様、ご回答ありがとうございます。 AIが、AI自身(?)によるミスの補償?まで、計算して、実施してくれるのか、どうか。 また、そういうリスクを冒してまで、AIを活用?しなければならないのか? 「やっちゃえ、日産」あたりから、何か、胡散臭い。

関連するQ&A