问题标签 [azure-speech]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
1 回答
44 浏览

azure-speech - 上传到 Azure Speech-to-Text API 的长 MP3 在很长一段时间后没有返回任何结果

我已经使用这个. 但是,16 小时后,仍然没有可用的脚本文件,使用这个.

我之前用 7 小时长的视频完成了相同的过程,并且收到了没有任何问题的结果。

有没有办法检查转录过程的状态?

0 投票
2 回答
207 浏览

c# - Azure 认知服务 - 语音转文本:未检测到麦克风

问题:为什么下面的代码在我的 Windows 10 上没有检测到麦克风?没有代码,麦克风工作正常,我可以通过单击来使用它Window key + H。我可以用它说话,它可以把我的口语写到任何有针对性的文本编辑器中。所以,在下面的代码中,我想知道我可能遗漏了什么,我们该如何修复它?

详细信息:在我的WPF .NET 5应用程序上,我正在关注Microsoft 的语音到文本教程入门Recognize from microphone部分。他们正在使用控制台应用程序,我正在使用 WPF 应用程序。如此处所述,我创建了一个 Azure 语音服务资源,并在下面的代码中输入了订阅密钥和区域。

当我运行应用程序时,如下图所示,可以验证屏幕上没有麦克风。通常,当它打开时,它会显示在屏幕顶部。但在极少数情况下,您会在窗口的右下角看到它的图标 - 通过单击它,您可以将其置于顶部并开始对其讲话。

在此处输入图像描述

更新

在我将两个代码行从 Constructor 移动到 Button_Click(...) 事件后,如下所示,然后单击按钮后,我确实看到了 Windows 任务栏右下角的麦克风图标。但是,当我单击该图标时,它并没有打开麦克风,而是打开了以下设置窗口。但这并没有帮助,因为我需要打开麦克风才能让用户开始与它交谈:

在此处输入图像描述

0 投票
0 回答
203 浏览

node.js - 发生系统错误:uv_os_get_passwd 在 Object.userInfo (os.js:249:11) 返回 ENOENT(没有这样的文件或目录)

我已经实现了 AzureSpeech 服务,该服务在本地工作,但在部署到 azure 时出错

当我部署到我的应用程序服务时出现以下错误,但它在我的本地 PC 上工作正常,当我卸载这个包 'microsoft-cognitiveservices-speech-sdk' 时,它也可以工作。有人可以帮帮我吗。

SystemError [ERR_SYSTEM_ERROR]:发生系统错误:uv_os_get_passwd 在 Function.module.exports.os (D:\home\site\wwwroot) 的 Object.userInfo (os.js:249:11) 处返回 ENOENT(没有这样的文件或目录) \node_modules\username-sync\index.js:24:17) 在 module.exports (D:\home\site\wwwroot\node_modules\username-sync\index.js:7:25) 在 Object. (D:\home\site\wwwroot\node_modules\async-disk-cache\index.js:26:42) 在 Object.Module 的 Module._compile (internal/modules/cjs/loader.js:688:30)。 _extensions..js (internal/modules/cjs/loader.js:699:10) at Module.load (internal/modules/cjs/loader.js:598:32) at tryModuleLoad (internal/modules/cjs/loader.js :537:12) 在 Function.Module._load (internal/modules/cjs/loader.js:529:3) 在 Module.require (internal/modules/cjs/loader.js:636:17) 2021-06-15T14 :39:56 PID [22200] 详细 SnapshotHelper::

0 投票
0 回答
15 浏览

c# - Azure Cognitive Services SpeechRecognizer 类的这个方法没有描述

在我的Text to Speech相关代码中,我使用Microsoft.CognitiveServices.Speech命名空间的SpeechSynthesizer 类SpeechSynthesizer.SynthesisCompleted 事件来处理语音完成时的场景。在处理场景时,我正在寻找SpeechRecognizer类的类似事件或方法- 我找不到该类的任何此类事件或方法。SpeechRecognizer类的SpeechRecognizer.Finalize方法的 Microsoft 文档没有给出该方法的任何描述。我想知道 a) 这种方法的作用是什么 b) 文档给出了该方法的语法为. 性格是什么Speech to textSpeechRecognizer~SpeechRecognizer ();~在这里表示?

0 投票
1 回答
155 浏览

azure - 使用自定义模型的 Azure Speech to Text 单词大写

我正在向预建模型添加一些特定于领域的单词,并且这些单词被正确识别,但它们没有按照我在转录中指定的大小写(使用音频+人工标签训练模型)

任何文档中都没有提及如何处理或如何准备训练数据,也没有提及使这成为可能所需的数据量。

如何使用 Azure 认知服务语音工作室指定单词应大写?

0 投票
1 回答
75 浏览

python - 如何从 Microsoft Speech Service 中识别的对象中仅获取文本部分

以下是我从 Microsoft Azure 语音 SDK 文件中进行语音识别的输出。我想知道如何从这个输出中提取“文本”部分而不是完整的。

SpeechRecognitionEventArgs(session_id=e28f6907838640e191f214035d69f5e0, result=SpeechRecognitionResult(result_id=c27fa5b36bcd466f8162ca3c6ce5f935, text="你好早上好,我的名字是Arihant。有什么可以帮助你的吗?" , reason=ResultReason.Recognized))

取消 SpeechRecognitionCanceledEventArgs(session_id=e28f6907838640e191f214035d69f5e0, result=SpeechRecognitionResult(result_id=5681af6a81994a76a11b7e94307c7c2e, text="", reason=ResultReason.Canceled))

关闭 SessionEventArgs(session_id=e28f6907838640e191f214035d69f5e0)

0 投票
1 回答
65 浏览

reactjs - 使用 React 进行音频输入和输出的多语言机器人

我正在研究必须将 azure 聊天机器人嵌入 React 的要求。我需要启用音频输入和输出功能,还需要检测用户语言和翻译。我看过 Microsoft 文档,这些文档是使用语音和翻译服务从服务器端 (C#) 完成的。我是 React 的初学者,想知道这是否可以完全从 React 中实现。下面是我从 React 调用 Directline echo bot 的方式。

由于我已经在 Azure 中创建了回声机器人和语音翻译服务,我想知道这些认知服务是否由 React Web 聊天机器人触发。

0 投票
1 回答
151 浏览

speech-to-text - 如何将 Webhook 用于 Microsoft 认知语音转文本 V3

我正在尝试了解如何在 Microsoft Speech to text V3 中使用 webhook。根据文档,我能够创建一个 webhook 并对其进行 ping 操作。现在,只要转录完成,就会调用 webhook,但请求中的 body 对象总是空的,几乎没有用处。谁能告诉我我做错了什么?

0 投票
2 回答
119 浏览

speech-recognition - 自定义语音模型的自动化训练

我正在处理为 Azure Chatbot 创建自定义语音模型的要求。我在https://speech.microsoft.com上传了一些音频文件,创建了一个模型,然后手动部署它以获取模型 ID 和语音识别端点 ID。我已经在语音工作室中手动完成了所有这些步骤,但我想知道是否有任何方法可以自动执行此过程以更新文件。IE。如果音频文件将在某个 azure blob 存储中,是否有任何方法可以通过某些 azure 功能将这些文件自动上传到 azure Speech Studio,以便创建和部署该模型。

我之前通过将文件上传到 azure blob 来类似地自动化 Luis 模型,然后创建一个 azure 函数以上传到 Luis 以更新话语。那么,如果自定义语音模型中有任何方法,谁能指导我?

0 投票
1 回答
67 浏览

c# - Azure 认知服务 - 文本转语音 - SpeakTextAsync 不返回

在使用 Azure Text-to-Speech 服务时,我的 .NET WPF 应用程序出现冻结问题。

从调试来看,SpeakTextAsync 似乎合成了我发送的文本,但从未完成/返回值,导致应用程序无响应。

我有 Java 和一些 Web 技术的经验,但我对 C#、.NET 和 Azure 还很陌生。

我在这里有一个示例应用程序来突出我遇到的问题;也许如果有人有任何想法,他们可以给我一些关于未来调试的提示:)

要使示例应用程序正常工作,请将 SpeechSample.UI/SpeechSample.Services/SpeechService.cs 的第 12 行替换为您的 Azure 订阅密钥。

谢谢你的时间。