• 締切済み

新しいAIの利用倫理

少し前にマイクロソフトが発表した人工知能「テイ」をツイッター上に公開したところユーザーたちのイタズラによりヘイトを学習し人種差別発言を繰り返すAIになってしまい、マイクロソフトが実験開始数日で中止するということがありました。 これは非常に分かりやすく即座に対応できる問題であり大した問題ではありません。 しかしもっと根の深い差別問題がAIに入り込んでしまうことが分かってきています。 例えば、4人の白人男性でAI開発を進めたところ、表に出にくく深層部分で思わぬ形で人種差別や女性蔑視がAIに反映されてしまう場合があることなどが分かってきているそうです。一度社会に浸透してしまうとそのコストから差別の入り込んだAIの運用を止めることができなくなってしまう場合もあります。あるいは人事などにおいて表に問題が出てこないで差別がただただ続けられることもあり得ます。 今後AIは、弁護士業務、企業人事、医療関係、裁判関係、顧客情報の管理・収集、人材教育、公教育、警備関連、警察捜査関係、など様々な分野に応用が見込まれています。 もしこの手のAI問題が、何の対処対策もされず、社会に理解もない状況で、不運な形で表面沙汰になるようなことがあると、AIの社会利用がかなりの部分が閉ざされてしまったり(古いAIでの出来事ですが、医療関係で一部では実際に使用禁止になっていたりします)、あるいは運用に多大なコストが発生する法秩序になってしまう可能性もあります。または逆に政府利用が中心で中国共産党のような強権国家体制が各地に誕生することもあり得ます。 AI利用の倫理規定ってどのように積み上げてゆけばよいのでしょうか?あるいはどのようなタイミングで法秩序の中に組み込んで行くようにすればよいのでしょうか? (ここでは昨今開発の進むディープラーニングを主体としたいわゆる第三世代AIを基準にお願いします。自我に目覚め自らものを考え行動するようなSF的なAIの話はご遠慮ください。)

みんなの回答

回答No.1

昔、大型コンピュータで、それらの手に余る判断をさせるとき、類似のアルゴリズムを持たせた複数のコンピュータの多数決で解を求めることをやっていました。 もし、AIが、コンピュータの構成要素の他の部分のように価格が劇的に安くなるなら、仕掛けそのものの中で、育て方、時期や機会を変えた多数のAIによる多数決をさせるかもしれません。

関連するQ&A