问题标签 [azure-speech]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
arrays - 如何在JS中连接Buffer数据和writeFile?
我使用 Azure 语音 SDK 将一组文本文件转换为语音。成功转换所有文本,并为每个文本返回一个 ArrayBuffer 实例。然后我将它们中的每一个都转换为 Buffer 并使用 Buffer.concat() 将所有缓冲区连接成一个。然后我将连接的缓冲区数据传递给 fs.writeFile() 以创建一个 mp3 文件。然而,只有第一个缓冲区包含在音频文件中,而不是连接的缓冲区。我应该怎么办?
azure-speech - 如何使用 azure Speech-to-Text 获得 NBest 替代品
我想使用 azure speech-to-text 为单个语音话语获取多个替代转录。
我已经设置了 format=detailed 参数,并且响应确实包含一个名为 NBest 的字段。但该字段仅包含一个转录。
我还需要在输入端设置什么吗?
谢谢。
python-3.x - 使用来自服务器的数据而不是文件来为 Microsoft azure Speech SDK 转录
我正在尝试将数据发送到 azure Speech SDK 进行转录。我希望它从 python 文件接收数据,放入缓冲区,然后连续转录。我正在使用来自 azure Speech SDK 的这个示例。
我不想从音频文件'callback = WavFileReaderCallback(weatherfilename)'中获取数据,而是想从另一个通过以下方式发送数据的python文件中获取数据:
如何将这些数据放入语音 SDK 转录的缓冲区。请指导,谢谢。
azure - Azure 语音到 react-native wav 文件中的文本传递问题
我想为我的 react-native 应用程序使用 Azure 的 STT REST API 并录制音频。但我尝试搜索如何传递 wav 文件但总是响应“未收到音频数据”或其他错误响应。
我非常确定订阅密钥是有效的,因为当我使用获取令牌时它会响应 200。wav 文件也不是问题。因为当我将文件下载到我的计算机然后将其上传到 Azure STT 的主页时,它会响应正确答案。最后,我试图弄清楚如何以正确的形式传递它,但一切都是为了网站。这是我的代码`
};`
这是我在另一个地方的录音功能,它正在播放。
};
azure - 有没有办法使用 Azure 的认知语音服务进行批量翻译?
我希望使用 Azure 的语音到文本翻译服务,同时还要进行语音分类,而且似乎只有批量转录 API 调用支持分类。以下是一些相关链接:
分类: https ://docs.microsoft.com/en-us/azure/cognitive-services/speech-service/conversation-transcription
批量转录:https ://docs.microsoft.com/en-us/azure/cognitive-services/speech-service/batch-transcription
语音翻译和语音转录 API 似乎相当相同:https ://docs.microsoft.com/en-us/azure/cognitive-services/speech-service/speech-to-text
有什么我想念的吗?我知道对话翻译处于预览状态,所以它可能还不可用。
展望未来,我相信目前最好的解决方案是先进行语音转录,然后再进行文档翻译。能否请我得到一个确认或一些不同方向的指示。
文档翻译:https ://docs.microsoft.com/en-us/azure/cognitive-services/translator/document-translation/overview
azure-cognitive-services - Azure 认知语音 TTS 自定义日语非神经语音不可用
我在 Azure 认知语音服务的 S0 层,正在尝试为日语 TTS 训练自定义语音。我的数据已成功处理。但我无法选择“统计参数”或“串联”作为我的训练方法。“神经”是名单上的唯一选择。
但是,我能够将这些非神经方法用于英语和中文项目。
有谁知道我是否还能训练日本的非神经语音模型?如果是这样,怎么做?
非常感谢您提前。
azure - 有没有办法通过 ARM 模板将加密(CMK-客户托管密钥)和 Vnet 集成添加到 Azure 语音服务(认知)
我们可以在 ARM 模板中实现这一点吗?
python - 如何在不实际将数据发送到 Azure Speech API 的情况下使用 pytest 模拟转录结果
我无法想出一个 pytest 函数来测试以下函数:
有没有办法模拟任何函数/对象,这样我就可以伪造每次运行测试时一致的转录结果,而不向实际的 Azure 语音服务发送任何数据(因此不计费)?
speech-recognition - Azure diarization(扬声器分离)不起作用
我能够运行这段代码并获取音频文件的转录。但它不区分扬声器(结果始终显示“扬声器 1”,“扬声器 2”永远无法识别)。
我一直在使用的文件示例:
英文: https ://transcripttests.blob.core.windows.net/testfiles/pulpfiction.mp3
法语: https ://transcripttests.blob.core.windows.net/testfiles/dialogue50smono44100.wav