Asr

hf-notebookstransformers_doczhpytorch

自动语音识别

[ ]

自动语音识别(ASR)将语音信号转换为文本,将一系列音频输入映射到文本输出。 Siri 和 Alexa 这类虚拟助手使用 ASR 模型来帮助用户日常生活,还有许多其他面向用户的有用应用,如会议实时字幕和会议纪要。

本指南将向您展示如何:

  1. MInDS-14 数据集上对 Wav2Vec2 进行微调,以将音频转录为文本。
  2. 使用微调后的模型进行推断。

如果您想查看所有与本任务兼容的架构和检查点,最好查看任务页

在开始之前,请确保您已安装所有必要的库:

pip install transformers datasets evaluate jiwer

我们鼓励您登录自己的 Hugging Face 账户,这样您就可以上传并与社区分享您的模型。 出现提示时,输入您的令牌登录:

[ ]

加载 MInDS-14 数据集

首先从🤗 Datasets 库中加载 MInDS-14 数据集的一个较小子集。这将让您有机会先进行实验,确保一切正常,然后再花更多时间在完整数据集上进行训练。

[ ]

使用 ~Dataset.train_test_split 方法将数据集的 train 拆分为训练集和测试集:

[ ]

然后看看数据集:

[ ]
DatasetDict({
,    train: Dataset({
,        features: ['path', 'audio', 'transcription', 'english_transcription', 'intent_class', 'lang_id'],
,        num_rows: 16
,    })
,    test: Dataset({
,        features: ['path', 'audio', 'transcription', 'english_transcription', 'intent_class', 'lang_id'],
,        num_rows: 4
,    })
,})

虽然数据集包含 lang_idenglish_transcription 等许多有用的信息,但在本指南中, 您将专注于 audiotranscription。使用 remove_columns 方法删除其他列:

[ ]

再看看示例:

[ ]
{'audio': {'array': array([-0.00024414,  0.        ,  0.        , ...,  0.00024414,
,          0.00024414,  0.00024414], dtype=float32),
,  'path': '/root/.cache/huggingface/datasets/downloads/extracted/f14948e0e84be638dd7943ac36518a4cf3324e8b7aa331c5ab11541518e9368c/en-US~APP_ERROR/602ba9e2963e11ccd901cd4f.wav',
,  'sampling_rate': 8000},
, 'path': '/root/.cache/huggingface/datasets/downloads/extracted/f14948e0e84be638dd7943ac36518a4cf3324e8b7aa331c5ab11541518e9368c/en-US~APP_ERROR/602ba9e2963e11ccd901cd4f.wav',
, 'transcription': "hi I'm trying to use the banking app on my phone and currently my checking and savings account balance is not refreshing"}

有 2 个字段:

  • audio:由语音信号形成的一维 array,用于加载和重新采样音频文件。
  • transcription:目标文本。

预处理

下一步是加载一个 Wav2Vec2 处理器来处理音频信号:

[ ]

MInDS-14 数据集的采样率为 8000kHz(您可以在其数据集卡片中找到此信息), 这意味着您需要将数据集重新采样为 16000kHz 以使用预训练的 Wav2Vec2 模型:

[ ]
{'audio': {'array': array([-2.38064706e-04, -1.58618059e-04, -5.43987835e-06, ...,
,          2.78103951e-04,  2.38446111e-04,  1.18740834e-04], dtype=float32),
,  'path': '/root/.cache/huggingface/datasets/downloads/extracted/f14948e0e84be638dd7943ac36518a4cf3324e8b7aa331c5ab11541518e9368c/en-US~APP_ERROR/602ba9e2963e11ccd901cd4f.wav',
,  'sampling_rate': 16000},
, 'path': '/root/.cache/huggingface/datasets/downloads/extracted/f14948e0e84be638dd7943ac36518a4cf3324e8b7aa331c5ab11541518e9368c/en-US~APP_ERROR/602ba9e2963e11ccd901cd4f.wav',
, 'transcription': "hi I'm trying to use the banking app on my phone and currently my checking and savings account balance is not refreshing"}

如您在上面的 transcription 中所看到的,文本包含大小写字符的混合。 Wav2Vec2 分词器仅训练了大写字符,因此您需要确保文本与分词器的词汇表匹配:

[ ]

现在创建一个预处理函数,该函数应该:

  1. 调用 audio 列以加载和重新采样音频文件。
  2. 从音频文件中提取 input_values 并使用处理器对 transcription 列执行 tokenizer 操作。
[ ]

要在整个数据集上应用预处理函数,可以使用🤗 Datasets 的 map 函数。 您可以通过增加 num_proc 参数来加速 map 的处理进程数量。 使用 remove_columns 方法删除不需要的列:

[ ]

🤗 Transformers 没有用于 ASR 的数据整理器,因此您需要调整 DataCollatorWithPadding 来创建一个示例批次。 它还会动态地将您的文本和标签填充到其批次中最长元素的长度(而不是整个数据集),以使它们具有统一的长度。 虽然可以通过在 tokenizer 函数中设置 padding=True 来填充文本,但动态填充更有效。

与其他数据整理器不同,这个特定的数据整理器需要对 input_valueslabels 应用不同的填充方法:

[ ]

现在实例化您的 DataCollatorForCTCWithPadding

[ ]

评估

在训练过程中包含一个指标通常有助于评估模型的性能。 您可以通过🤗 Evaluate 库快速加载一个评估方法。 对于这个任务,加载 word error rate(WER)指标 (请参阅🤗 Evaluate 快速上手以了解如何加载和计算指标):

[ ]

然后创建一个函数,将您的预测和标签传递给 compute 来计算 WER:

[ ]

您的 compute_metrics 函数现在已经准备就绪,当您设置好训练时将返回给此函数。

训练

如果您不熟悉使用Trainer微调模型,请查看这里的基本教程here

现在您已经准备好开始训练您的模型了!使用 AutoModelForCTC 加载 Wav2Vec2。 使用 ctc_loss_reduction 参数指定要应用的减少方式。通常最好使用平均值而不是默认的求和:

[ ]
)

此时,只剩下 3 个步骤:

  1. TrainingArguments 中定义您的训练参数。唯一必需的参数是 output_dir,用于指定保存模型的位置。 您可以通过设置 push_to_hub=True 将此模型推送到 Hub(您需要登录到 Hugging Face 才能上传您的模型)。 在每个 epoch 结束时,Trainer 将评估 WER 并保存训练检查点。
  2. 将训练参数与模型、数据集、分词器、数据整理器和 compute_metrics 函数一起传递给 Trainer
  3. 调用 train() 来微调您的模型。
[ ]

训练完成后,使用 push_to_hub() 方法将您的模型分享到 Hub,方便大家使用您的模型:

[ ]

要深入了解如何微调模型进行自动语音识别, 请查看这篇博客文章以了解英语 ASR, 还可以参阅这篇文章以了解多语言 ASR。

推断

很好,现在您已经微调了一个模型,您可以用它进行推断了!

加载您想要运行推断的音频文件。请记住,如果需要,将音频文件的采样率重新采样为与模型匹配的采样率!

[ ]

尝试使用微调后的模型进行推断的最简单方法是使用 pipeline()。 使用您的模型实例化一个用于自动语音识别的 pipeline,并将您的音频文件传递给它:

[ ]
{'text': 'I WOUD LIKE O SET UP JOINT ACOUNT WTH Y PARTNER'}

转录结果还不错,但可以更好!尝试用更多示例微调您的模型,以获得更好的结果!

如果您愿意,您也可以手动复制 pipeline 的结果:

加载一个处理器来预处理音频文件和转录,并将 input 返回为 PyTorch 张量:

[ ]

将您的输入传递给模型并返回 logits:

[ ]

获取具有最高概率的预测 input_ids,并使用处理器将预测的 input_ids 解码回文本:

[ ]
['I WOUL LIKE O SET UP JOINT ACOUNT WTH Y PARTNER']