こんにちは、「アプリゲームUIデザイン」のちょこきなこです。
SEとボイスのボリュームコントロールが一緒になってる…。
なんでだろう。
実装上、SEとボイスが切り分けられなかったのかな。
これ絶対に分けた方が良いと思っています。
割と当たり前の前提だと思っていたのですが、そうではない考えもあるのかな…。
で、分けた方が良い理由をなるべく主観でなく、客観的に書いてみます。
BGMやSEは聞こえるかどうかというのが重要なのですが、
ボイスは何と言っているのかというのが重要になります。
「聞く」と「聴く」の差があります。
BGMやSEが聞こえづらくてもあまりストレスにはならないのですが、
声が聞こえづらいと気になってしまい、ストレスに感じます。
リアルであれば耳を澄ます、意識を傾ける(いわゆるカクテルパーティー効果)などが取れますが、ボイスと連動してSEの音も大きくなっていくと困ります。
また、少し調べてみると「聴覚情報処理障害」と呼ばれ、そういうことが難しい方もいるようです。
なので、ボイスは特に聞きやすくするために音量設定は分けた方が良いかと考えます。
…かな。
まとめ
「ボイスと他の音量の設定を分けることが聴覚情報処理障害(APD)の方の対応にも有用である可能性がある」
です。
書いてて思いましたが、UIって可読性とか視認性といった視覚を重視するケースは多いけど、「可聴性」みたいな言葉って聞かないですね。
自分が見落としてただけかな…。