GTC 大会火热进行中!别错过 NVIDIA CEO 黄仁勋的最新发布,以及 AI 和加速计算的必听会议。
增强现实/虚拟现实

使用语音 AI 开发下一代扩展现实应用程序

由于身临其境的体验,虚拟现实( VR )、增强现实( AR )和混合现实( MR )环境可以感觉到难以置信的真实。在扩展现实( XR )应用程序中添加基于语音的界面可以使其看起来更真实。

想象一下,用你的声音在一个环境中导航,或者发出口头命令,然后听到虚拟实体的回应。

在 XR 环境中利用 speech AI 的可能性非常诱人。语音人工智能技能,如自动语音识别( ASR )和文本到语音转换( TTS ),使 XR 应用程序变得有趣、易于使用,并使有语音障碍的用户更容易使用。

本文介绍了如何在 XR 应用程序中使用语音识别,也称为语音到文本( STT ),有哪些 ASR 自定义,以及如何开始在 Windows 应用程序中运行 ASR 服务。

为什么要在 XR 应用程序中添加语音 AI 服务?

在当今大多数 XR 体验中,用户无法使用键盘或鼠标。 VR 游戏控制器通常与虚拟体验交互的方式既笨拙又不直观,当您沉浸在环境中时,很难通过菜单进行导航。

当我们沉浸在虚拟世界中时,我们希望我们的体验感觉自然,无论是我们如何感知它,还是我们如何与它互动。言语是我们在现实世界中最常见的交流方式之一。

在 XR 应用程序中添加支持语音 AI 的语音命令和响应,使交互更加自然,并大大简化了用户的学习曲线。

支持语音 AI 的 XR 应用程序示例

如今,有各种各样的可穿戴技术设备,使人们能够在使用声音的同时体验身临其境的现实:

  • AR 翻译眼镜可以在 AR 中提供实时翻译,或者只在 AR 中转录语音,以帮助有听力障碍的人。
  • 品牌化语音是为元宇宙中的数字化身定制和开发的,使体验更加可信和真实。
  • 社交媒体平台提供语音激活 AR 过滤器,便于搜索和使用。例如, Snapchat 用户可以使用免提语音扫描功能搜索所需的数字滤波器。

VR 设计审查

虚拟现实可以帮助企业通过自动化汽车行业的许多任务来节省成本,例如汽车建模、装配工人培训和驾驶模拟。

添加的语音 AI 组件使免提交互成为可能。例如,用户可以利用 STT 技能向 VR 应用程序发出命令,应用程序可以通过 TTS 以听起来很人性化的方式响应。

Diagram showing how automatic speech recognition and text-to-speech integrate into the VR car design workflow architecture.
图 1.VR 汽车设计审查工作流架构

如图 1 所示,用户向 VR 应用程序发送音频请求,然后使用 ASR 将其转换为文本。自然语言理解将文本作为输入并生成响应,然后使用 TTS 将其反馈给用户。

开发语音 AI 管道并不像听起来那么容易。传统上,在构建管道时,总是要在准确性和实时响应之间进行权衡。

这篇文章只关注 ASR ,我们研究了目前 XR 应用程序开发人员可用的一些定制。我们还讨论了使用 GPU 加速语音 AI SDK NVIDIA Riva 构建针对特定用例定制的应用程序,同时提供实时性能。

通过 ASR 定制解决特定领域和语言的挑战

一个 ASR 管道包括一个特征抽取器、声学模型、解码器或语言模型以及标点符号和大写模型(图 2 )。

Diagram shows the speech recognition pipeline process with an audio input and text output.
图 2.ASR 管道

要了解可用的 ASR 定制,掌握端到端流程很重要。首先,进行特征提取,将原始音频波形转换为频谱图/梅尔频谱图。然后将这些频谱图输入声学模型,该模型生成一个矩阵,其中包含每个时间步长的所有字符的概率。

接下来,解码器与语言模型一起使用该矩阵作为输入来生成文本。然后,您可以通过标点符号和大写模型运行生成的文本,以提高可读性。

高级语音 AI SDK 和工作流(如 Riva )支持语音识别管道定制。自定义可帮助您解决一些特定于语言的挑战,例如了解以下一项或多项:

  • 多重口音
  • 单词语境化
  • 领域专用术语
  • 多种方言
  • 多种语言
  • 噪音环境中的用户

Riva 中的定制可以应用于训练和推理阶段。从培训级别定制开始,您可以微调声学模型、解码器/语言模型以及标点符号和大写模型。这可以确保您的管道能够理解不同的语言、方言、口音和行业特定的行话,并且对噪音具有鲁棒性。

当涉及到推理级自定义时,可以使用 word boosting 。通过单词增强,在解码声学模型的输出时, ASR 管道更可能通过给某些感兴趣的单词更高的分数来识别它们。

开始使用 NVIDIA Riva 为 XR 开发集成 ASR 服务

Riva 作为客户机 – 服务器模型运行。要运行 Riva ,您需要访问带有 NVIDIA GPU 的 Linux 服务器,在那里您可以安装和运行 Riva 服务器(本文提供了详细信息和说明)。

Riva 客户端 API 集成到 Windows 应用程序中。在运行时, Windows 客户端通过网络向 Riva 服务器发送 Riva 请求,而[ZDK0 :服务器则发送回复。单个 Riva 服务器可以同时支持多个 Riva 客户端。

ASR 服务可以在两种不同的模式下运行:

  • Offline mode: 捕获完整的语音段,完成后发送到 Riva 以转换为文本。
  • Streaming mode: 语音片段正在实时流式传输到 Riva 服务器,文本结果正在实时流回。流模式有点复杂,因为它需要多个线程。

本文稍后将提供两种模式的示例。

在本节中,您将学习几种将 Riva 集成到 Windows 应用程序中的方法:

  • Python ASR 离线客户端
  • Python 流式 ASR 客户端
  • 使用 Docker 的 C ++脱机客户端
  • C ++流媒体客户端

首先,这里介绍了如何设置和运行 Riva 服务器。

先决条件

  • 访问 NGC 。有关分步说明,请参阅 NGC Getting Started Guide
    • 执行所有步骤,以便能够从命令行界面( CLI )运行ngc命令。
  • 访问 NVIDIA Volta 、 NVIDIA -Turing 或基于 A100 GPU 的 NVIDIA 安培架构。带有 NVIDIA GPU 的 Linux 服务器也可从主要 CSP 获得。有关更多信息,请参阅 support matrix
  • Docker 安装,支持 NVIDIA GPU 。有关说明的更多信息,请参阅 installation guide
    • 按照说明安装 NVIDIA Container Toolkit ,然后安装nvidia-docker软件包。

服务器设置

通过运行以下命令从 NGC 下载脚本:

ngc registry resource download-version nvidia/riva/riva_quickstart:2.4.0

初始化 Riva 服务器:

bash riva_init.sh

启动 Riva 服务器:

bash riva_start.sh

有关最新更新的更多信息,请参阅 NVIDIA Riva Quick Start Guide

运行 Python ASR 脱机客户端

首先,运行以下命令来安装riva客户端软件包。确保您使用的是 Python 版本 3.7 。

pip install nvidia-riva-client

以下代码示例以脱机模式运行 ASR 转录。您必须更改服务器地址,给出要转录的音频文件的路径,并选择语言代码。目前, Riva 支持英语、西班牙语、德语、俄语和普通话。

import io
import IPython.display as ipd
import grpc

import riva.client

auth = riva.client.Auth(uri='server address:port number')

riva_asr = riva.client.ASRService(auth)

# Supports .wav file in LINEAR_PCM encoding, including .alaw, .mulaw, and .flac formats with single channel
# read in an audio file from local disk
path = "audio file path"
with io.open(path, 'rb') as fh:
    content = fh.read()
ipd.Audio(path)

# Set up an offline/batch recognition request
config = riva.client.RecognitionConfig()
#req.config.encoding = ra.AudioEncoding.LINEAR_PCM    # Audio encoding can be detected from wav
#req.config.sample_rate_hertz = 0                     # Sample rate can be detected from wav and resampled if needed
config.language_code = "en-US"                    # Language code of the audio clip
config.max_alternatives = 1                       # How many top-N hypotheses to return
config.enable_automatic_punctuation = True        # Add punctuation when end of VAD detected
config.audio_channel_count = 1                    # Mono channel

response = riva_asr.offline_recognize(content, config)
asr_best_transcript = response.results[0].alternatives[0].transcript
print("ASR Transcript:", asr_best_transcript)

print("\n\nFull Response Message:")
print(response)

运行 Python 流式 ASR 客户端

要运行 ASR 流客户端,请克隆riva python-clients存储库并运行存储库附带的文件。

要使 ASR 流式处理客户端在 Windows 上运行,请运行以下命令克隆存储库:

git clone  https://github.com/nvidia-riva/python-clients.git 

python-clients/scripts/asr文件夹运行以下命令:

python transcribe_mic.py --server=server address:port number

下面是 transcibe_mic.py :

import argparse

import riva.client
from riva.client.argparse_utils import add_asr_config_argparse_parameters, add_connection_argparse_parameters

import riva.client.audio_io


def parse_args() -> argparse.Namespace:
    default_device_info = riva.client.audio_io.get_default_input_device_info()
    default_device_index = None if default_device_info is None else default_device_info['index']
    parser = argparse.ArgumentParser(
        description="Streaming transcription from microphone via Riva AI Services",
        formatter_class=argparse.ArgumentDefaultsHelpFormatter,
    )
    parser.add_argument("--input-device", type=int, default=default_device_index, help="An input audio device to use.")
    parser.add_argument("--list-devices", action="store_true", help="List input audio device indices.")
    parser = add_asr_config_argparse_parameters(parser, profanity_filter=True)
    parser = add_connection_argparse_parameters(parser)
    parser.add_argument(
        "--sample-rate-hz",
        type=int,
        help="A number of frames per second in audio streamed from a microphone.",
        default=16000,
    )
    parser.add_argument(
        "--file-streaming-chunk",
        type=int,
        default=1600,
        help="A maximum number of frames in a audio chunk sent to server.",
    )
    args = parser.parse_args()
    return args


def main() -> None:
    args = parse_args()
    if args.list_devices:
        riva.client.audio_io.list_input_devices()
        return
    auth = riva.client.Auth(args.ssl_cert, args.use_ssl, args.server)
    asr_service = riva.client.ASRService(auth)
    config = riva.client.StreamingRecognitionConfig(
        config=riva.client.RecognitionConfig(
            encoding=riva.client.AudioEncoding.LINEAR_PCM,
            language_code=args.language_code,
            max_alternatives=1,
            profanity_filter=args.profanity_filter,
            enable_automatic_punctuation=args.automatic_punctuation,
            verbatim_transcripts=not args.no_verbatim_transcripts,
            sample_rate_hertz=args.sample_rate_hz,
            audio_channel_count=1,
        ),
        interim_results=True,
    )
    riva.client.add_word_boosting_to_config(config, args.boosted_lm_words, args.boosted_lm_score)
    with riva.client.audio_io.MicrophoneStream(
        args.sample_rate_hz,
        args.file_streaming_chunk,
        device=args.input_device,
    ) as audio_chunk_iterator:
        riva.client.print_streaming(
            responses=asr_service.streaming_response_generator(
                audio_chunks=audio_chunk_iterator,
                streaming_config=config,
            ),
            show_intermediate=True,
        )


if __name__ == '__main__':
    main()

使用 Docker 运行 C ++ ASR 脱机客户端

下面是如何在 C ++中使用 Docker 运行 Riva ASR 脱机客户端。

通过运行以下命令克隆/ cpp 客户端 GitHub 存储库:

git clone  https://github.com/nvidia-riva/cpp-clients.git 

构建 Docker 映像:

DOCKER_BUILDKIT=1 docker build . –tag riva-client

运行 Docker 映像:

docker run -it --net=host riva-client

启动 Riva 语音识别客户端:

Riva_asr_client –riva_url server address:port number –audio_file audio_sample

运行 C ++ ASR 流式处理客户端

要在 C ++中运行 ASR 流式客户端riva_asr,必须首先编译 cpp sample 。在满足以下依赖项之后,使用 CMake 很简单:

  • gflags
  • glog
  • grpc
  • rtaudio
  • rapidjson
  • protobuf
  • grpc_cpp_plugin

在根源文件夹中创建文件夹/build。在终端上,键入cmake ..,然后键入make。有关详细信息,请参阅存储库中包含的自述文件。

编译样本后,输入以下命令运行它:

riva_asr.exe --riva_uri={riva server url}:{riva server port} --audio_device={Input device name, e.g. "plughw:PCH,0"}
  • riva_uririva服务器的address:port值。默认情况下,riva服务器侦听端口 50051 。
  • audio_device:要使用的输入设备(麦克风)。

该示例实际上实现了四个步骤。这篇文章中只展示了几个简短的例子。有关详细信息,请参阅文件streaming_recognize_client.cc

使用命令行中指定的输入(麦克风)设备打开输入流。在这种情况下,您使用的是每秒 16K 采样和 16 位采样的一个通道。

int StreamingRecognizeClient::DoStreamingFromMicrophone(const std::string& audio_device, bool& request_exit)
{
 nr::AudioEncoding encoding = nr::LINEAR_PCM;
 
 adc.setErrorCallback(rtErrorCallback);

 RtAudio::StreamParameters parameters;
 parameters.nChannels = 1;
 parameters.firstChannel = 0;
 unsigned int sampleRate = 16000;
 unsigned int bufferFrames = 1600; // (0.1 sec of rec) sample frames
 RtAudio::StreamOptions streamOptions;
 streamOptions.flags = RTAUDIO_MINIMIZE_LATENCY;
…

RtAudioErrorType error = adc.openStream( nullptr, &parameters, RTAUDIO_SINT16, sampleRate, &bufferFrames, &MicrophoneCallbackMain, static_cast<void*>(&uData), &streamOptions);

使用.proto 文件指定的协议 api 接口(在文件夹riva/proto的源中)打开与 Riva 服务器的grpc通信通道:

int StreamingRecognizeClient::DoStreamingFromMicrophone(const std::string& audio_device, bool& request_exit)
{
…

std::shared_ptr<ClientCall> call = std::make_shared<ClientCall>(1, word_time_offsets_);
call->streamer = stub_->StreamingRecognize(&call->context);

// Send first request
nr_asr::StreamingRecognizeRequest request;
auto streaming_config = request.mutable_streaming_config();
streaming_config->set_interim_results(interim_results_);
auto config = streaming_config->mutable_config();
config->set_sample_rate_hertz(sampleRate);
config->set_language_code(language_code_);
config->set_encoding(encoding);
config->set_max_alternatives(max_alternatives_);
config->set_audio_channel_count(parameters.nChannels);
config->set_enable_word_time_offsets(word_time_offsets_);
config->set_enable_automatic_punctuation(automatic_punctuation_);
config->set_enable_separate_recognition_per_channel(separate_recognition_per_channel_);
config->set_verbatim_transcripts(verbatim_transcripts_);
if (model_name_ != "") {
 config->set_model(model_name_);
}

call->streamer->Write(request);

开始发送麦克风通过grpc消息接收到的音频数据到riva

static int MicrophoneCallbackMain( void *outputBuffer, void *inputBuffer, unsigned int nBufferFrames, double streamTime, RtAudioStreamStatus status, void *userData )

通过服务器的grpc应答接收转录的音频:

void
StreamingRecognizeClient::ReceiveResponses(std::shared_ptr<ClientCall> call, bool audio_device)
{
…

while (call->streamer->Read(&call->response)) {  // Returns false when no m ore to read.
 call->recv_times.push_back(std::chrono::steady_clock::now());

 // Reset the partial transcript
 call->latest_result_.partial_transcript = "";
 call->latest_result_.partial_time_stamps.clear();

 bool is_final = false;
 for (int r = 0; r < call->response.results_size(); ++r) {
   const auto& result = call->response.results(r);
   if (result.is_final()) {
     is_final = true;
   }

…

   call->latest_result_.audio_processed = result.audio_processed();
   if (print_transcripts_) {
     call->AppendResult(result);
   }
 }

 if (call->response.results_size() && interim_results_ && print_transcripts_) {
   std::cout << call->latest_result_.final_transcripts[0] +
                    call->latest_result_.partial_transcript
             << std::endl;
 }

 call->recv_final_flags.push_back(is_final);
}

开发语音 AI 应用程序的资源

通过识别你的声音或执行命令,语音人工智能正在从在联络中心授权实际人类扩展到在元宇宙授权数字人类。

有关如何将语音 AI 技能添加到应用程序中的更多信息,请参阅以下资源

有关企业如何在生产中部署 Riva 以改进服务的更多信息,请参阅 Solution Showcase 中的客户案例。

 

Tags