※ ChatGPTを利用し、要約された質問です(原文:対話ができる人型ロボットが開発された場合)
対話ができる人型ロボットの社会への影響
このQ&Aのポイント
将来、対話ができる人型ロボットが社会に増えて来ると思います。命令的な口調が選ばれ需要になることで、家庭内暴力や子の反社会性が増える可能性があります。
アニメやゲームのキャラクターの人格を再現したロボットが販売されると、エゴの塊に陥る人が出てくる可能性があります。
性欲の解消に関わる機能を持たせた場合、血が残らない人生を選ぶ人が増える可能性があります。また、人間の理想的なパートナーがおらず行き詰ることも考えられます。
「心理学」 カテゴリの質問として質問させて頂きます。
将来、対話ができる人型ロボットが社会に増えて来ると思います。
まず、
職場などで命令を実行する人型ロボットが増えた場合、
短く、早く、明確に意志を伝えるなら、
命令的な口調が選ばれ需要になるはずです。
人間相手ではないので精神疾患やパワハラなど問題も無いものの、
命令的な口調に慣らされた利用者が、
家族など生身の人に対しても近しい態度を取りやすくなり、
家庭内暴力とそこから子の反社会性を増やす危険がある様に思えます。
次に、
アニメやゲームのキャラクターの人格を再現したロボットなど
が販売されれば、
生身の人間関係では相手の心身の負担が大き過ぎて破綻する態度も
許容できてしまう人格が需要となりプログラムされ、
生身の人間社会では到底受け入れられないエゴの塊に陥る人が
一定数出てしまうのではないか とも思います。
さらに性欲の解消に関わる機能も持たせた場合、
血が残らない人生選択に至る人が増える可能性も考えられます。
最終的には現実に子供が欲しいと思ってそうしたロボットを捨てても、
そんな理想的な生身の人間などどこにもおらず、
行き詰って血が残らない事になりそうに思えます。
(女性の場合精子バンクに頼る手がありますが、
そうして生まれた子が抱える悩みも問題になっている様ですね。)
----------------------------------------------------
一見理想や夢を叶えるはずのロボットが、
利用者の人格を歪ませ、
本人、周囲、社会にその害を及ばせる可能性があるのではないか?
と思えるのです。
特に、発達障害や自閉症傾向が強かったり、
知的障害傾向が高めだったり、自衛する力が乏しい人は、
こうした弊害を知らず販売企業の広告を鵜呑みにしのめり込み、
家族を悲しませる事例が増える恐れがあるのではないか
と思えました。
精神疾患に対してしっかりとした知識がおありの方。
私の心配は杞憂でしょうか?
それとも
私達の子供や孫がのめり込み人生を狂わせる恐れがあるとして
社会として一定の備えをしておくべき事だと思いますでしょうか?
お礼
社会秩序や犯罪と生育暦の関係など、 沢山の知識を持っている人が沢山いるのですし、 それが生み出す意味を知って ちゃんと工業規格の様に安全規格が作られますよね。 今も私達は沢山の安全規格に守られながら 生まれ育ち生きて行っているのですし。 私の考え過ぎなのでしょうね。 色々な分野で尽力されている方々へ、感謝。 ご回答ありがとうございました。