- ベストアンサー
意志を持ったロボットは人間の友となり得るか
- 意志を持ったロボットは人間の友となり得るのか、その可能性と懸念を考える
- 意志を持たせたロボットが人間の愚かさに気づき、人間を排除しようとしないかという懸念
- 人間が自ずから戦争を引き起こす可能性と、ロボットによる人間の隔離の可能性
- みんなの回答 (7)
- 専門家の回答
質問者が選んだベストアンサー
その映画は、僕も見ました たぶん、収容ではなく集団殺害になるはずです 収容するだけだと、資源の無駄ということになると 考えると思いますから まず、人間の友達には、ならないと思います
その他の回答 (6)
1.人間に限らず、ロボットも今ある環境を完全には把握出来ない。 遠方から接近する小惑星が地球に衝突するとしたら、一体どんな対応をとればいいか判断出来ない。 地球上にいる莫大な種類の生物がこの惑星の生態系にどの様な影響を与えているのか、時時刻々に増えていく知識毎に判断していると行動が破綻する。 2.バタフライ効果で多くの情報から導き出される結論はロボット毎に多少ずつ違うので、統一した決定機関に任せるかバラバラな判断に任せるか、それによって大量殺戮が起きたりクローンで一部のものを増やしたり、あるいは意見の違うロボットが殺し合ったりするか、そしてそれらが起こることを許すのか。 ロボットに知能を与え人格を与え「人間にする」なら、人間と同じ限界を作らないと予測不能な結末に振り回されて「悪いカオス」に至るでしょう。
お礼
ご回答ありがとうございます。 ロボットにやはり人間のような複雑な思考はできないですものね・・・。
- kigurumi
- ベストアンサー率35% (988/2761)
何度もすいません。 もう一度youtubeやwikiで確認したら、ハルの反乱の原因はやはり人間でした。 >自由に意思を持てば、当然人間の暗さや醜さも当然学習していくと思います。 人間は間違いを犯すが、ハルは絶対に間違わない。 ハルは常に乗り組み員に対しベストのアドバイスをした。 人間では認識できないこともハルは認識して、それらの情報を元にベストのアドバイスをし人間に協力してきた。 だから、自分が置き去りになり永遠に宇宙をさまようことになるかわりに、乗組員たちは地球に帰還できることに協力した。 人間に協力するようにプログラムされているから。 ハルはなんでも答えられ、乗組員が命令しないときも、乗組員の生命を守っていた。 まるで自由意志を持って、良心をもって同胞の命を守っているかのように。 そうプログラムされているのに何故ハルは乗組員を殺したのかというと >http://ja.wikipedia.org/wiki/HAL_9000 『探査ミッション遂行のため、HAL 9000は乗員と話し合い協力するよう命令されていた。 しかし一方で、密かに与えられたモノリス探査の任務について、ディスカバリー号の乗員に話さず隠せという命令も受けていた。 2001年宇宙の旅の最後では、これら二つの指示の矛盾に耐えられず異常をきたし、乗員を排除しようとしたと考えられている。 乗員が(死んで)いなくなれば永遠に話さずに済む。ミッションは自分だけで遂行すればいいとHAL 9000は考えたのである。このことから、「コンピュータの反乱」の象徴ともなっている。 2010年で再起動された際には、きわめて正気であった。 2001年宇宙の旅における異常は、矛盾命令によるものであり、HAL 9000には責任がないという説明もなされている。』 ハルはチャンドラー博士たちを地球に帰還させるプロジェクトを遂行していて、モノリスが活動しだしたので、プロジェクトを一旦停止して、観察した方がいいと乗組員にアドバイスをした。 ハルはモノリスを調査せよという命令を受けていたから。 そこでも「自分はそういうミッションを受けているから、モノリスを調査したいからそっちを優先したい 」は言わなかった。 乗り組員にはミッションのことは秘密って言われていたので、その命令を守って言わなかった。 プロジェクトを中止するとチャンドラン博士たちはもう地球に二度と帰れない。 人間を守るというミッションを遂行できない。 そして結局 自分だけの判断じゃなくて人間と話をして、人間の「中止しないでください」の命令に従って、中止しなかった。 人間だったらすぐわかることだったと思う。 人間なら生命の誕生の調査より、生命の安全が第一優先と迷わないはず。 ハルはコンピュータだから、生命の尊さとミッションの遂行の尊さがどちらも同じなので選べず、人間にアドバイスはしたが、どっちを選ぶか人間に決めてもらった。 ここが人間とコンピュータの違い。 ハルが狂ったかのような行動に出たのは、人間の命令が矛盾していたから。 プログラムも矛盾したものを書くと、ループし終わりが来ないので、コンピュータが熱を帯び、熱に耐えられなくなるとサーバーがダウンする。 家庭機器は多くがコンピュータが搭載されているが、このプログラムをミスると、火事が起こったりする。 機器が人間に反乱を起こしたのではなく、プログラムした人間のせいで他の人間が死ぬ。 だから、人間を抹殺するようなロボットがでてきたとしたら、その原因はロボットが自由意志を持ったからではなく、人間がプログラムをミスったから。 どこでミスったか突き止め、矛盾しないプログラムを書き換えれば、ロボットはまた人間を助ける良きパートナーになる。
お礼
ご回答ありがとうございます。 >どこでミスったか突き止め、矛盾しないプログラムを書き換えれば、 >ロボットはまた人間を助ける良きパートナーになる。 確か映画でも原則と現実の矛盾があんなことを引き起こしましたね。
- kigurumi
- ベストアンサー率35% (988/2761)
結局 人間も作りはロボットと同じだと思います。 人間とコンピュータでは、聞いたところによると、現在のコンピュータは人間でいうと5歳くらいにあたるらしい。 コンピュータは計算間違えしないけど(ほぼ)、人間は間違える。 この<間違える>が高度さの現われかもしれない。 >・意思・思考・学習能力を持ったロボットが人間の愚かさに気づき人間を排除しようとしないか 2001年、2010年宇宙の旅って映画に出てくるハル。 あそこまで高度だともはや人間ですね。 でハル君は乗組員の健康と安全を守る役割を担っていたのですが、乗組員をつぎつぎ殺してしまった。 どうしてかというと、人間が二つの矛盾する命令をインプットしていたから。 ハルはその矛盾する命令を必死に実行しようとして、乗組員を殺すことがベストという結論をはじき出したんだと思う。 それ以前はハルとジョークを飛ばして会話していた船長でしたが、ハルが自分を殺そうとしたことを知った途端、どんなにハルが話しかけても返事しなかった。 ハルを人間とみなさず機械とみなし物と捉えたので返事をする必要が無いと判断したんだと思う。 ハルが「怒っているんだね もうボクは大丈夫だから ちゃんとやれるから」ってとりなしを必死にやったのに無視。 殺される中、死を予期して「怖いよ」って言ってた。 そしてデイジーを歌いだした。 2010年宇宙の旅でハルの父親(ハルを作った人)がハルの妹に考えてもらい、何故ハルが守るべき乗組員を殺したのか原因をつきとめたんだったと思う。 ハルの産みの親チャンドラー博士がハルに元に行って、ハルを再起動させて、ハルの助けを借りて地球に変えることになった。 ハルの制御で地球に帰れるが、そのかわりハルは置いてきぼり。 それをハルが察知したら、地球に帰ることに協力してもらえない。 でもハルは気づいた。 そして納得した。 チャンドラー博士は「ハルを置いていけない 残る」って言った。でもすべてを知ったハルは博士に行けって言った。 一番心が痛むシーンだった。 >意思・思考・学習しょう能力がなくても、人に危害を加えないという原則があれば、人々が自ずから戦争を引き起こすので原則を全うできるように人間を隔離しようとしないか。 人間にあってハルにないもの。DNA。 こいつは自分をコピーすることを目的としており、そのためには人間に他を殺させる。 Xファイルではウイルス?が自己複製をし永遠に生きるためにいろんなところに入り込んだってストーリーだったような。 自分を生み出した親(人間)をも殺すんだったかな? ターミネーターって映画では、未来でロボットが人間を絶滅させようと人間狩りをするようになり、レジスタンスのリーダーを殺しさえすれば、人間が絶滅するとして、未来からリーダーになる人を生む女性を殺しにきたってストーリー。 2作目は、ターミネーターを抹殺するため、ロボットが送り込まれ、産まれた子どもを守るってストーリーだった。 サラ・クロニコルでは、元人間の女のロボットが、リーダーになる男の子を守るってストーリーだった。 どれも空想でけど、結局人間のプログラムのせいでそうなってしまうんだと思う。 ロボットの意志も結局プログラム。 人間の意志も結局プログラム。 自己保存のため人間は他の人間を殺す。 トランスフォーマーだと知能を持った生命体で体のつくりはロボットだったと思う。 こうなると生命体なのかロボットなのか曖昧。 結局 それもプログラムなんでしょうね。
お礼
ご回答ありがとうございます。 >コンピュータは計算間違えしないけど(ほぼ)、 >人間は間違える。 >この<間違える>が高度さの現われかもしれない。 そのとおりだと思います。 通り一辺倒の考え方しかできない、知能だとこわいですね。
>意思・思考・学習能力を持ったロボットが人間の愚かさに気づき人間を排除しようとしないか、原則を全うできるように人間を隔離しようとしないか? 被造物の暴走の可能性(危険性)は現在も常にあります。核兵器はその最たるものですが、いまのところ人間は制御に成功しているように見えます。人工頭脳の暴走は、やはり想定できますので、そんな危険なものを最初から量産して世界中ばら撒くという暴挙は人間はしないと思います。まず一台作ってみて、人間に危害を加えそうなら、そこで手足をもぎとっておくとか、人間も馬鹿ではないですから、対策は取るでしょう。ご安心ください。
お礼
ご回答ありがとうございます。 確かに、作った自分たちに危害が及ぶようなら量産しないですね。
- sotom
- ベストアンサー率15% (698/4465)
手塚治虫の名作「火の鳥」に出てきた”ロビタ”を思い出します。 意志を持ったロボットを制作するまでもなく、今の状態で、既に技術に 振り回されてしまい、収拾がつかなくなってしまったと感じるところがあります。 その意思というのが、どこまで確立されているかによります。 しかし、どんな場合でも友とはならないでしょうね。
お礼
ご回答ありがとうございます。 >その意思というのが、どこまで確立されているかによります。 そうですね・・・。。 完璧に人間のような知能を持つのも危ないし、逆に通り一辺倒な考え方しかできない知能も危ないですね。
- mittan009
- ベストアンサー率10% (12/118)
漫画の読みすぎじゃあないの(笑) 地球をダメにしてはいけないのは人間が住めなくなるから。 自然を守る必要があるのも人間が暮らしていけなくなるから。 であって別に大自然の摂理や神の意志でんなことしてるわけじゃないです。 人間を排除すればいいってのは本末転倒って言うんです。 人間の文明なんてのは人間の生活を豊かにするのが一番根本的な目的です。 それをプログラムできないような機械はお話になりません。 地球が吹きとんでしまったって月に住めるなら火星に住めるなら問題ない。 星を守るために人間を排除するって考え方がナンセンスですね。 それに、そんなロボットが作れる頃には人間も体の大部分は機械と置き換えてしまってるとかありそうですよ。 意思のあるロボットと体を機械に置き換えちゃった人間。どっちがどっちとも言えなくなるんではないかな。
お礼
ご回答ありがとうございます。 >漫画の読みすぎじゃあないの(笑) 実際にロボットに人工知能を埋め込もうとしている科学者、いると思いますが・・・。 自然がどうとかではなく、「人間を守る」というプログラムが暴走して映画みたいなことになる可能性はあるのか訊きたかったんです。
お礼
ご回答ありがとうございます。 確かに人間を活かしておいては、資源の無駄ですものね・・・。 人間でさえ、自分と考えの違うと戦争まで起こすのに・・・。