現代の技術で可能かどうか分かりませんが、できる限りのシミュレーションはできると思います。
自分の声を自然に聞くのと、テープレコーダなどに録音した声を聞くので、音が違っているのは、テープレコーダの再生された声は、あなたが口から発した音波を、ある距離で拾って録音したものを再生しています。
他方、あなたが聞くあなたの声は、口から出た音の振動波が耳の形に応じて反射して鼓膜を振動させる成分と、もう一つというか複数、喉の振動や、口腔のなかの振動、唇や舌の振動などが、あなたの頭部の骨や筋肉や、大脳組織などを振動させ、音波を伝達して、鼓膜を振動させる音の合成としてあるのです。
だから、ある歌手が、自分の歌をどう聞いているかは、一つの方法では、歌手の鼓膜に、極々微小なマイクというか、振動感受装置を付け、この装置が,鼓膜の振動に可能な限り影響しないように工夫して、この装置で、鼓膜の振動状態を記録します。そしてこの記録した振動状態を音にして増幅し、イヤフォンかヘッドフォンなどで、聞いてみると、かなりに歌手等が聞いている音に近い音が聞こえます。(これは、極小マイクロフォンが作れれば実現可能です)。
もう一つの方法は、もの凄く高度な技術が必要になりますが、喉とか舌、唇、口など、人間,特にその歌手のものにそっくり同じロボットの頭部を作り、音の反射特性や伝達特性、吸収特性も同じように、頭部の人工の骨とか筋肉とか脳とかを作り、頭部ロボットに歌を歌わせ、この音を、鼓膜部分に置いた,人工鼓膜で振動を受信し、どのように当人には聞こえるのか、シミュレートすることです。
この音をヘッドフォンなどで聞くと、大体、近い音が聞こえます。
三番目に、歌手の聴覚信号を、聴覚処理神経で捕らえて、その信号を、あなたの聴覚処理信号に入力することです。少なくとも、歌手の内部で捕らえた聴覚信号と同じものが受信できます。しかし、この方法を考えると分かるのですが、音の信号は大脳に入り、聴覚知覚として、他の色々な感覚や記憶と合成され処理され、そしてそれを「聞く」歌手の「大脳構造」や「自我の構成」は歌手独自のものです。
例えば、絶対音感は、大脳の処理過程にある訳で、絶対音感を持つ人の脳は、同じに鳴った複数の音の高さを聞き分けることができるし、音程の狂った歌などを聴くと、頭が混乱するとも言います。
また日本人と欧米人では、音や声や音楽について、右脳と左脳の使い方に違いがあります。このような大脳半球の機能分化は、違う大脳構成の人の場合、音楽や歌が違って聞こえている可能性を示しています。
ということは、その人の大脳構成や神経系と同じものにならないと、同じように音楽や歌を知覚し認識できないということになります。それは、あなたが、その歌手そのものになるということです。そんなことは不可能にも思えますが、神の辞書には、ナポレオンの辞書以上に不可能の文字はなく、神ならば可能かも知れません。
もう少し簡単で、実現しやすい方法は(1の方法も実現可能ですが)、歌手に歌や音楽をアレンジしてもらい、自分が歌っているとき、聞こえるような感じに、音声の音色とか音の成分、反響などを調整してもらい、大体、こんな風に聞こえるという調整した歌の音を記録して、これを再生して聞くことです。少なくとも、歌手には、このように聞こえているという目安にはなるでしょう。
補足
回答有り難うお財ます。 関係あることはあると思うんですけど、回答が正しいどうかは解りません。 も~少し、回答を待ちます。といって4週間越しになるかもなぁ・・・ カラオケ、最近行ってないですわぁ。