しかし辞書データ・行動データを変更することで、異なる業務を担当させることもできる。またメタバースのサービス側ではなくアバターに組み込む技術のため、プラットフォームを選ばずに活用できるという汎用性も期待できる。
企業と顧客の新たなタッチポイントを創出
アドバンスト・メディアはなぜAI音声対話アバターを開発するに至ったのだろうか。同社のCTI事業部 事業部長の今宮元輝氏に話を聞いた。
まず背景にあるのは、iPhoneのSiriや、AndroidのGoogleアシスタントなど、スマートフォンで音声認識技術と触れ合う機会が増えたこと。そして非接触のコミュニケーションの需要も増えたことがあるという。今宮氏によれば、ここ数年の音声認識市場は全体で毎年120%ぐらいの成長を続けているそうだ。
「Zoomなどのウェブミーティングツールや、動画のコンテンツでもリアルタイムに字幕を入れるといった音声認識技術を活用するシーンが増えてきて、音声認識が当たり前になってきていることが大きいと捉えています」(今宮氏)
考えてみればスマートフォンの音声認識が一般化するまでは、カーナビなどに声で行き先を伝えるときくらいしか同様の技術に触れてこなかった物珍しい技術だったと感じる。しかも当時は声の認識精度が低く、ロボットの声のように平坦なトーンでしゃべらないとならなかったことから、苦手意識もあった記憶がある。現在は家族や友人に話しかけるようにスマートフォンの音声認識技術を利用できるようになった。
もともとアドバンスト・メディアは、1990年代から日本語音声認識技術AmiVoiceを開発してきた企業だ。医療用書き起こしツール、議事録作成支援、コンタクトセンター向け通話録音のテキスト化サービスなどを提供し、高齢者層をターゲットにした携帯電話らくらくホンの音声認識技術としても使われてきた。
無料会員登録はこちら
ログインはこちら