家族や友達とスマホで話していると、「なんだか電話だとちょっと違う声の感じがするな…」と思ったことはないだろうか。この違和感、実は勘違いではなかったようだ。

相手の声は“スマホがモノマネした声”?

KDDI総合研究所の堀内俊治さんによると「スマートフォンの通話では、自分の声そのものではなく、限りなく自分の声に近い合成音声を届けています」とのこと。言い換えると「スマートフォンがモノマネした声」なのだという。

モノマネされた声ならば、一体どんな声を聞いているのだろうか?またわざわざ、なぜそのような声に変換しているのだろうか?堀内さんにくわしく聞いた。

画像はイメージ
この記事の画像(4枚)

――そもそもとして、固定電話と携帯電話では声の届け方は違うの?

固定電話では原理的に、声そのものの波形を相手に届けています。一方、スマートフォンや携帯電話では原理的に、声の作り方の情報を相手に届けているという違いがあります。


――スマホの声が届く仕組みをもっと教えて。

モノマネした声を作っているのはスマートフォンに内蔵されている「音声コーデック」というプログラムです。

音声コーデックには声の分析方法と作り方が収められていて、非常に膨大なパターンの声が作れます。スマートフォンに入力された自分の声を分析して、よく似て聞こえる声のパターンの組み合わせを探し出し、合成音声を作ります。

そして、合成音声そのものの波形を届けるのではなく、その作り方の情報を届けることで、届けるデータを少なくしています。限られた資源である、電波に乗せて届ける必要があるためです。

画像はイメージ

――実際、通話するときはどんな風に声が変わるの?

モノマネした声とは言え、自分の声とほぼそっくりに作ることができますので、差はほとんどわかりません。ただし、スピーカやイヤホンから聞くので、違った声に感じることがあります。


――プログラムで変えているということは、“モノマネした声”はどの機種でも同じということ?

はい、音声コーデックはスマホの機種に依存しませんので、同じ合成音声を作ります。

人の聴覚に倣った仕組みも

――他にもスマホの音声に関して、皆が知らなそうなことはある?

今回紹介した音声コーデックは、人の声の通話のため、“人の発声の仕組み”に倣って開発されました。

一方、音楽などの音全般に用いられている音声コーデックは、“人の聴覚の仕組み”に倣って開発されており、原理が異なります。

スマートフォンではどちらも活用されていますが、喉と耳の仕組みが応用されているなんて、面白いですね。

画像はイメージ

なおスマホの声に関しては、さらに上手く合成音声を作る方法の研究開発や、より高い臨場感の声を届ける仕組みの研究開発が現在も続いているとのことだ。

今のままでもスマートフォンの通話で相手を認識できるが、今後はさらに少ないデータ量で、より生に近い音声が届く日も来るかもしれない。

鄭重声明:本文の著作権は原作者に帰属します。記事の転載は情報の伝達のみを目的としており、投資の助言を構成するものではありません。もし侵害行為があれば、すぐにご連絡ください。修正または削除いたします。ありがとうございます。