问题标签 [azure-speech]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
c# - Azure 认知服务 - 语音转文本:未检测到麦克风
问题:为什么下面的代码在我的 Windows 10 上没有检测到麦克风?没有代码,麦克风工作正常,我可以通过单击来使用它Window key + H
。我可以用它说话,它可以把我的口语写到任何有针对性的文本编辑器中。所以,在下面的代码中,我想知道我可能遗漏了什么,我们该如何修复它?
详细信息:在我的WPF .NET 5
应用程序上,我正在关注Microsoft 的语音到文本教程入门Recognize from microphone
部分。他们正在使用控制台应用程序,我正在使用 WPF 应用程序。如此处所述,我创建了一个 Azure 语音服务资源,并在下面的代码中输入了订阅密钥和区域。
当我运行应用程序时,如下图所示,可以验证屏幕上没有麦克风。通常,当它打开时,它会显示在屏幕顶部。但在极少数情况下,您会在窗口的右下角看到它的图标 - 通过单击它,您可以将其置于顶部并开始对其讲话。
更新
在我将两个代码行从 Constructor 移动到 Button_Click(...) 事件后,如下所示,然后单击按钮后,我确实看到了 Windows 任务栏右下角的麦克风图标。但是,当我单击该图标时,它并没有打开麦克风,而是打开了以下设置窗口。但这并没有帮助,因为我需要打开麦克风才能让用户开始与它交谈:
node.js - 发生系统错误:uv_os_get_passwd 在 Object.userInfo (os.js:249:11) 返回 ENOENT(没有这样的文件或目录)
我已经实现了 AzureSpeech 服务,该服务在本地工作,但在部署到 azure 时出错
当我部署到我的应用程序服务时出现以下错误,但它在我的本地 PC 上工作正常,当我卸载这个包 'microsoft-cognitiveservices-speech-sdk' 时,它也可以工作。有人可以帮帮我吗。
SystemError [ERR_SYSTEM_ERROR]:发生系统错误:uv_os_get_passwd 在 Function.module.exports.os (D:\home\site\wwwroot) 的 Object.userInfo (os.js:249:11) 处返回 ENOENT(没有这样的文件或目录) \node_modules\username-sync\index.js:24:17) 在 module.exports (D:\home\site\wwwroot\node_modules\username-sync\index.js:7:25) 在 Object. (D:\home\site\wwwroot\node_modules\async-disk-cache\index.js:26:42) 在 Object.Module 的 Module._compile (internal/modules/cjs/loader.js:688:30)。 _extensions..js (internal/modules/cjs/loader.js:699:10) at Module.load (internal/modules/cjs/loader.js:598:32) at tryModuleLoad (internal/modules/cjs/loader.js :537:12) 在 Function.Module._load (internal/modules/cjs/loader.js:529:3) 在 Module.require (internal/modules/cjs/loader.js:636:17) 2021-06-15T14 :39:56 PID [22200] 详细 SnapshotHelper::
c# - Azure Cognitive Services SpeechRecognizer 类的这个方法没有描述
在我的Text to Speech
相关代码中,我使用Microsoft.CognitiveServices.Speech命名空间的SpeechSynthesizer 类的SpeechSynthesizer.SynthesisCompleted 事件来处理语音完成时的场景。在处理场景时,我正在寻找SpeechRecognizer类的类似事件或方法- 我找不到该类的任何此类事件或方法。SpeechRecognizer类的SpeechRecognizer.Finalize方法的 Microsoft 文档没有给出该方法的任何描述。我想知道 a) 这种方法的作用是什么 b) 文档给出了该方法的语法为. 性格是什么Speech to text
SpeechRecognizer
~SpeechRecognizer ();
~
在这里表示?
azure - 使用自定义模型的 Azure Speech to Text 单词大写
我正在向预建模型添加一些特定于领域的单词,并且这些单词被正确识别,但它们没有按照我在转录中指定的大小写(使用音频+人工标签训练模型)
任何文档中都没有提及如何处理或如何准备训练数据,也没有提及使这成为可能所需的数据量。
如何使用 Azure 认知服务语音工作室指定单词应大写?
python - 如何从 Microsoft Speech Service 中识别的对象中仅获取文本部分
以下是我从 Microsoft Azure 语音 SDK 文件中进行语音识别的输出。我想知道如何从这个输出中提取“文本”部分而不是完整的。
SpeechRecognitionEventArgs(session_id=e28f6907838640e191f214035d69f5e0, result=SpeechRecognitionResult(result_id=c27fa5b36bcd466f8162ca3c6ce5f935, text="你好早上好,我的名字是Arihant。有什么可以帮助你的吗?" , reason=ResultReason.Recognized))
取消 SpeechRecognitionCanceledEventArgs(session_id=e28f6907838640e191f214035d69f5e0, result=SpeechRecognitionResult(result_id=5681af6a81994a76a11b7e94307c7c2e, text="", reason=ResultReason.Canceled))
关闭 SessionEventArgs(session_id=e28f6907838640e191f214035d69f5e0)
reactjs - 使用 React 进行音频输入和输出的多语言机器人
我正在研究必须将 azure 聊天机器人嵌入 React 的要求。我需要启用音频输入和输出功能,还需要检测用户语言和翻译。我看过 Microsoft 文档,这些文档是使用语音和翻译服务从服务器端 (C#) 完成的。我是 React 的初学者,想知道这是否可以完全从 React 中实现。下面是我从 React 调用 Directline echo bot 的方式。
由于我已经在 Azure 中创建了回声机器人和语音翻译服务,我想知道这些认知服务是否由 React Web 聊天机器人触发。
speech-to-text - 如何将 Webhook 用于 Microsoft 认知语音转文本 V3
我正在尝试了解如何在 Microsoft Speech to text V3 中使用 webhook。根据文档,我能够创建一个 webhook 并对其进行 ping 操作。现在,只要转录完成,就会调用 webhook,但请求中的 body 对象总是空的,几乎没有用处。谁能告诉我我做错了什么?
speech-recognition - 自定义语音模型的自动化训练
我正在处理为 Azure Chatbot 创建自定义语音模型的要求。我在https://speech.microsoft.com上传了一些音频文件,创建了一个模型,然后手动部署它以获取模型 ID 和语音识别端点 ID。我已经在语音工作室中手动完成了所有这些步骤,但我想知道是否有任何方法可以自动执行此过程以更新文件。IE。如果音频文件将在某个 azure blob 存储中,是否有任何方法可以通过某些 azure 功能将这些文件自动上传到 azure Speech Studio,以便创建和部署该模型。
我之前通过将文件上传到 azure blob 来类似地自动化 Luis 模型,然后创建一个 azure 函数以上传到 Luis 以更新话语。那么,如果自定义语音模型中有任何方法,谁能指导我?
c# - Azure 认知服务 - 文本转语音 - SpeakTextAsync 不返回
在使用 Azure Text-to-Speech 服务时,我的 .NET WPF 应用程序出现冻结问题。
从调试来看,SpeakTextAsync 似乎合成了我发送的文本,但从未完成/返回值,导致应用程序无响应。
我有 Java 和一些 Web 技术的经验,但我对 C#、.NET 和 Azure 还很陌生。
我在这里有一个示例应用程序来突出我遇到的问题;也许如果有人有任何想法,他们可以给我一些关于未来调试的提示:)
要使示例应用程序正常工作,请将 SpeechSample.UI/SpeechSample.Services/SpeechService.cs 的第 12 行替换为您的 Azure 订阅密钥。
谢谢你的时间。