问题标签 [intel-tensorflow]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
tensorflow - 使用 NHWC 数据格式的 Tensorflow Intel MKL 优化
TensorFlow使用英特尔 MKL优化编译,许多操作将得到优化并支持 NCHW。
有人可以解释一下,为什么英特尔 MKL 比 NHWC 更支持 NCHW 格式?
tensorflow - 为英特尔至强黄金 6148 构建张量流
我有一台运行两个 Intel xeon gold 6148 和 tensorflow 的服务器。当我使用 pip 安装 tf 时,我收到一条消息,指出我的安装未使用 AVX2 和 AVX512。因此,为了获得最佳性能,我尝试使用 docker 从源代码构建 tf。我是按照https://www.tensorflow.org/install/source这样做的,但是对于我使用的 bazel build 命令:
按照https://software.intel.com/en-us/articles/intel-optimization-for-tensorflow-installation-guide。
但是这个安装比标准的 pip 安装性能差很多。
所以,总结一下:安装 tensorflow 和至强金架构的最佳方式是什么?
python - 如何在 ML.NET 上加载和运行 Intel-Tensorflow 模型
环境:Tensorflow 2.4、Intel-Tensorflow 2.4
据我所知,pb格式的Tensorflow模型可以加载到ML.NET上。
但是,我使用的是一个量化包 LPOT(https://github.com/intel/lpot),它利用了英特尔优化的 Tensorflow(https://github.com/Intel-tensorflow/tensorflow)。尽管 Intel-Tensorflow 是基于 Tensorflow 构建的,但它使用了一些在 Tensorflow 上没有注册 OpKernel 的量化操作(例如,在 TF 上不推荐使用“QuantizedMatmulWithBiasAndDequantize”)。因此,如果不安装 Intel-Tensorflow,量化模型无法在原生 Tensorflow 环境下运行。
我的目标是在 ML.NET 上运行这个量化的 pb Intel-Tensorflow 模型,有人知道 ML.NET 上是否支持 Intel-Tensorflow 吗?或者有没有其他方法可以做到这一点?
非常感谢任何帮助/建议。
python - 英特尔优化的 TensorFlow 不支持 oneDNN
情况1
框架:Tensorflow 2.5.0、Intel-Tensorflow 2.5.0
环境:谷歌 Colab
我有一个由LPOT量化的成功量化模型,可以在不使用 LPOT API 的情况下运行推理,因此我编写了以下推理代码:
运行线路时predictions = sess.run(output, {input_tensor_name: x})
:
无论是否Intel-Tensorflow==2.5.0
安装都会发生此错误,也不会在os.environ['TF_ENABLE_ONEDNN_OPTS'] = '1'
显式设置时解决。
另一方面,当我在 VS Code 中运行相同的代码时,它返回与Case 2Python 3.6.8 64-bit base: Conda
中相同的错误消息。
案例2
框架:Tensorflow 2.4.0、Intel-Tensorflow 2.4.0
环境:谷歌 Colab
这个案例运行良好并打印出预测的 MSE 损失,但是当我卸载并仅使用官方 Tensorflow 运行时,同时在案例 1 ( )Intel-Tensorflow 2.4.0
中运行同一行:predictions = sess.run(output, {input_tensor_name: x})
os.environ['TF_ENABLE_ONEDNN_OPTS'] = '1'
即使明确设置,错误仍然存在。
结论
我相信这两种情况都是由相同类型的错误引起的,即没有注册 OpKernel 来支持 Op ...
我被告知,通过官方Tensorflow v2.5
安装和环境变量TF_ENABLE_ONEDNN_OPTS=1
集(参考),量化模型应该在支持 oneDNN 的情况下运行。但在 v2.4 和 v2.5 中似乎都不是这样。
我的问题是如何在Tensorflow 2.5
无需安装的情况下获得支持 oneDNN 的官方环境Intel-Tensorflow
?或者为什么不起作用Intel-Tensorflow 2.5
?谢谢。
python - 断言错误:未从模型格式中正确检测到框架
我正在尝试英特尔低精度优化工具,我正在关注这个 github(https://github.com/intel/lpot/tree/master/examples/tensorflow/object_detection)。当我运行如下量化命令时
我收到以下错误。
请帮忙!
python - 来自 lpot 的“.prepare_dataset.sh”命令出错
我正在关注 lpot 的这个 github(https://github.com/intel/lpot/tree/master/examples/tensorflow/object_detection),在下载数据集的第 5 步中,我收到以下错误。无法继续。
提前致谢。
intel - “ValueError: numpy.ndarray size changed” 在 tensorflow 模型中尝试 Intel lpot 时
在张量流模型中尝试英特尔低精度优化工具时,出现一些值错误。
请在下面找到我尝试过的命令:
通过运行,我收到以下错误:
将 pycocotools._mask 导入为 _mask 文件“pycocotools/_mask.pyx”,第 1 行,在 init pycocotools._mask ValueError: numpy.ndarray size changed,可能表示二进制不兼容。预期来自 C 标头的 88,从 PyObject 获得 80
提供我遵循的 git hub 链接: https ://github.com/intel/neural-compressor/tree/master/examples/tensorflow/object_detection