问题标签 [azure-speech]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
1 回答
104 浏览

arrays - 如何在JS中连接Buffer数据和writeFile?

我使用 Azure 语音 SDK 将一组文本文件转换为语音。成功转换所有文本,并为每个文本返回一个 ArrayBuffer 实例。然后我将它们中的每一个都转换为 Buffer 并使用 Buffer.concat() 将所有缓冲区连接成一个。然后我将连接的缓冲区数据传递给 fs.writeFile() 以创建一个 mp3 文件。然而,只有第一个缓冲区包含在音频文件中,而不是连接的缓冲区。我应该怎么办?

0 投票
2 回答
82 浏览

azure-speech - 如何使用 azure Speech-to-Text 获得 NBest 替代品

我想使用 azure speech-to-text 为单个语音话语获取多个替代转录。

我已经设置了 format=detailed 参数,并且响应确实包含一个名为 NBest 的字段。但该字段仅包含一个转录。

我还需要在输入端设置什么吗?

谢谢。

0 投票
1 回答
163 浏览

python-3.x - 使用来自服务器的数据而不是文件来为 Microsoft azure Speech SDK 转录

我正在尝试将数据发送到 azure Speech SDK 进行转录。我希望它从 python 文件接收数据,放入缓冲区,然后连续转录。我正在使用来自 azure Speech SDK 的这个示例。

我不想从音频文件'callback = WavFileReaderCallback(weatherfilename)'中获取数据,而是想从另一个通过以下方式发送数据的python文件中获取数据:

如何将这些数据放入语音 SDK 转录的缓冲区。请指导,谢谢。

0 投票
1 回答
168 浏览

azure - Azure 语音到 react-native wav 文件中的文本传递问题

我想为我的 react-native 应用程序使用 Azure 的 STT REST API 并录制音频。但我尝试搜索如何传递 wav 文件但总是响应“未收到音频数据”或其他错误响应。

我非常确定订阅密钥是有效的,因为当我使用获取令牌时它会响应 200。wav 文件也不是问题。因为当我将文件下载到我的计算机然后将其上传到 Azure STT 的主页时,它会响应正确答案。最后,我试图弄清楚如何以正确的形式传递它,但一切都是为了网站。这是我的代码`

};`

这是我在另一个地方的录音功能,它正在播放。

};

0 投票
1 回答
66 浏览

azure - 有没有办法使用 Azure 的认知语音服务进行批量翻译?

我希望使用 Azure 的语音到文本翻译服务,同时还要进行语音分类,而且似乎只有批量转录 API 调用支持分类。以下是一些相关链接:

分类: https ://docs.microsoft.com/en-us/azure/cognitive-services/speech-service/conversation-transcription

批量转录:https ://docs.microsoft.com/en-us/azure/cognitive-services/speech-service/batch-transcription

语音翻译和语音转录 API 似乎相当相同:https ://docs.microsoft.com/en-us/azure/cognitive-services/speech-service/speech-to-text

有什么我想念的吗?我知道对话翻译处于预览状态,所以它可能还不可用。

展望未来,我相信目前最好的解决方案是先进行语音转录,然后再进行文档翻译。能否请我得到一个确认或一些不同方向的指示。

文档翻译:https ://docs.microsoft.com/en-us/azure/cognitive-services/translator/document-translation/overview

0 投票
1 回答
87 浏览

azure-cognitive-services - Azure 认知语音 TTS 自定义日语非神经语音不可用

我在 Azure 认知语音服务的 S0 层,正在尝试为日语 TTS 训练自定义语音。我的数据已成功处理。但我无法选择“统计参数”或“串联”作为我的训练方法。“神经”是名单上的唯一选择。

日本模型的训练方法选项

但是,我能够将这些非神经方法用于英语和中文项目。

英文/中文模型的训练方法选项

有谁知道我是否还能训练日本的非神经语音模型?如果是这样,怎么做?

非常感谢您提前。

0 投票
2 回答
71 浏览

azure - 有没有办法通过 ARM 模板将加密(CMK-客户托管密钥)和 Vnet 集成添加到 Azure 语音服务(认知)

我们可以在 ARM 模板中实现这一点吗?

0 投票
1 回答
37 浏览

python - 如何在不实际将数据发送到 Azure Speech API 的情况下使用 pytest 模拟转录结果

我无法想出一个 pytest 函数来测试以下函数:

有没有办法模拟任何函数/对象,这样我就可以伪造每次运行测试时一致的转录结果,而不向实际的 Azure 语音服务发送任何数据(因此不计费)?

0 投票
1 回答
52 浏览

azure-speech - 使用 Azure Speech to Text API v3.0 发布 MP3 以进行转录时的 InvalidPayload

使用https://uksouth.dev.cognitive.microsoft.com/docs/services/speech-to-text-api-v3-0/operations/CreateTranscription/console,我发布了这个:

回应是:

据我所知,提供的 URL 是公开可用的,是什么导致了错误?

0 投票
2 回答
217 浏览

speech-recognition - Azure diarization(扬声器分离)不起作用

我能够运行这段代码并获取音频文件的转录。但它不区分扬声器(结果始终显示“扬声器 1”,“扬声器 2”永远无法识别)。

https://github.com/Azure-Samples/cognitive-services-speech-sdk/blob/master/samples/batch/python/python-client/main.py

我一直在使用的文件示例:

英文: https ://transcripttests.blob.core.windows.net/testfiles/pulpfiction.mp3

法语: https ://transcripttests.blob.core.windows.net/testfiles/dialogue50smono44100.wav