• 締切済み

女性が支配する世界という内容の本

数年前に受講した心理学の授業でとりあげられた本をふと思い出し、読んでみたいと思いました。 内容は、女性が支配する世界で、男性は城の外で防衛にあたり、子どもをつくるときだけは城内に入れるといったようなものでした。(うろ覚えです…) 外国人の方が書かれた本というのまでは覚えているのですが、タイトルも著者名も思い出せません。 もしご存じの方がいらっしゃったら教えていただきたいです。宜しくお願いいたします。

みんなの回答

  • ABAsan
  • ベストアンサー率56% (274/489)
回答No.2
  • 31192525
  • ベストアンサー率19% (705/3542)
回答No.1

Aiaia55さん、こんにちは。 少し違うかもしれませんけど・・・ ロバート・A・ハインライン『自由未来』 という、男にとっては悪夢のようなSFがあります。 http://ja.wikipedia.org/wiki/%E3%83%AD%E3%83%90%E3%83%BC%E3%83%88%E3%83%BBA%E3%83%BB%E3%83%8F%E3%82%A4%E3%83%B3%E3%83%A9%E3%82%A4%E3%83%B3

関連するQ&A