问题标签 [ozone]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
linux - linux x86_64上的铬无头臭氧构建失败
我正在尝试在 Linux 上执行 GN buld。我得到以下错误:
obj/content/browser/browser/browser_main_loop.o:../../content/browser/browser_main_loop.cc:function content::BrowserMainLoop::PreMainMessageLoopRun(): error: undefined reference to 'views::WindowManagerConnection::Create (mojo::ApplicationImpl*)'
我的设置是: is_debug = false is_component_build = true
使用臭氧=真臭氧自动平台=假臭氧平台无头=真无头=真工具包视图=假
r - 在 R 中跨多个日期(POSIXt 格式)按特定时间删除行
我有一个数据框,需要删除所有日期的小时数为 0:00、1:00、2:00、3:00、4:00、5:00、6:00 的行,每个日期只留下 17 个数字天而不是 24。然后我需要根据这 17 个值计算每天的最大值,但我坚持摆脱我不需要的 7 个小时。这是我已经尝试过的
任何想法如何摆脱 7 小时?
理想情况下,我想返回:
r - 如何计算 R 中的最大 8 小时移动(滚动)平均值?
我正在使用 R。我知道计算移动平均线是一个在这个网站上有几个答案的主题,但我有一些问题使我的问题独一无二。
我有一个数据框,包括 8784 小时(366 天 * 24 小时)的空气污染物(臭氧)浓度。此数据框包含一些 NaN 值(缺失值)。该过程包含以下步骤:
1-计算每小时浓度的8小时移动(滚动)平均值:即每8个浓度应该以这种方式平均:1到8的平均值,2到9的平均值,3到10的平均值等。这导致获得每天(每 24 小时)有 24 个移动平均线。
2- 对于每一天,我想要最大的 8 小时移动平均线:即在 24 条移动平均线中,应该选择最大的数字。最后,将选择 366 条移动平均线(366 天)。
3- 应创建一个包含 366 个移动平均线的新数据框。
我知道有一些包(openair、zoo、TTR)可以做这样的事情,但是有没有办法在没有任何包的情况下编写代码?
主数据框的名称是“Hourly”。我尝试了这些代码:
但是当我尝试第一行时,会出现以下错误:
更新:我使用了以下代码,但 8 小时平均值的最大值计算不正确:
我将最终结果(最多 366 个 8 小时平均值,每年 1 天)与标准预先批准的数据集进行了比较。在某些日子里,代码计算的平均值是正确的,但在其他日子里却不是!我没有明白它的逻辑。
你可以在这里找到我的原始数据集!
更新 2:
这是下载不同方法产生的最终结果的链接!
更新3:
结果之间的差异是由于计算移动平均线的方法不同。计算移动平均线的方法有左、右、中三种。这里的家伙提出的代码遵循“正确”的方法。
hadoop - 阿帕奇臭氧。较新版本中没有 REST API。如何从第三方应用程序进行通信?
我可以找到 Apache Ozone 的 alpha 版本的 REST API 文档。但是,我可以找到当前版本(0.5.0)它被删除了吗?
有没有一种方法可以在不使用特定 Java 客户端或 shell 命令的情况下从任何应用程序与 OZone 进行通信?
谢谢
hadoop - Apache Ozone + AWS S3 .Net API:PutObject 正在创建存储桶而不是密钥
我正在尝试使用适用于 .NET 的 AWS S3 API 在 apache OZone 中创建密钥。
我尝试创建的密钥必须位于我使用 AWS S3 CLI 创建的名为“test”的存储桶中。
我的代码:
此代码返回 200 代码错误(OK),如果我从 API 调用 GetObjectAsync,我会得到一个带有元数据的 HTML(但目前无法读取文件内容)
然后我去 Apache Ozone 并在臭氧外壳中执行这些命令:
如您所见,该对象被创建为用于 S3 的 Ozone 卷内的新存储桶,而不是作为test
存储桶下方的新键创建的。如果我尝试从 AWS S3 Cli 放置密钥,它会按预期工作
怎么了?
仅供参考,我从 Java API 做了同样的例子,同样的问题发生了!
谢谢
java - 使用 Apache Ozone FileSystem API 会导致错误
我想将文件上传到 Apache Ozone。我使用FileSystem
界面。Java代码如下
爪哇代码:
我将配置文件放在资源文件夹中。
core-site.xml
配置是:
例外是:
pom.xml
hadoop - Prometheus 与 Hadoop 的集成(臭氧集群)
我正在尝试遵循 Apache 文档,以便将 Prometheus 与 Apache Hadoop 集成。初步步骤之一是设置 Apache Ozone 集群。但是,我发现与 Hadoop 同时运行臭氧集群的问题。每当我尝试启动臭氧管理器或存储容器管理器时,它都会为“org.apache.hadoop.ozone.HddsDatanodeService”抛出一个找不到类的异常。
我还发现臭氧 1.0 版本是最近发布的,并且提到它是用 Hadoop 3.1 测试的。我有一个正在运行的 3.3.0 版本的 Hadoop 集群。现在,我怀疑版本是否有问题。
Ozone 的 tar 球也有 Hadoop 配置文件,但我想用我现有的 Hadoop 集群配置 Ozone。我想用我现有的 hadoop 集群配置臭氧。
请让我知道这里的正确方法应该是什么。如果无法做到这一点,请告诉我在生产中监控和提取 Apache Hadoop 指标的好方法。
kubernetes - Pod 无法挂载由臭氧 CSI 供应商创建的持久卷
我正在使用 kubernetes 部署臭氧(hdfs 的子程序),并且基本上遵循了此处和此处的说明(只需几个步骤)。
ozone/kubernetes/example/ozone
首先,我使用本地目录的主机路径创建了几个 pv,然后通过将 nfs 声明更改为主机路径声明,稍微编辑了 yamls :
我注释掉了 datanode-stateful.yaml 中的 nodeAffinity 设置,因为我的 kubernetes 只有主节点。
部署成功。
然后我按照 csi 协议中的说明应用 csi 和 pv-test,pv(s3v 中的存储桶)是自动建立的,pvc 确实绑定了 pv,但测试 pod 停止在containerCreating
.
附加 pv-test pod desc:
为整个过程附加事件:
hive - 如何使用 Ozone 创建 Hive 表?
我们如何使用臭氧对象存储创建配置单元表。