问题标签 [snowplow]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
scala - 在 Confluent Cloud 上将 Snowplow 与 Kafka 连接的问题
我已经成功地使用 Web Tracker、Scala Stream Kafka Collector、Stream Enrich、Druid 和 Metabase 在 Docker 中实现了端到端的本地实现。
在使用 Helm 在 Kubernetes 中构建工作暂存环境之前,我想尝试将 Scala Stream Kafka Collector 连接到我们的 Kafka Confluent Cloud 帐户。但是,我遇到了 SASL 身份验证问题。关于这个主题的文档非常稀少,只是将我们指向 Kafka 文档。这是我的config.hocon
配置 -
但是,当容器启动时,输出中的配置不匹配 -
此外,我在控制台中收到以下错误 -
在搜索常用渠道寻求帮助时,建议此错误是由于 JAAS 配置对生产者不可见造成的,因此我非常确信这只是我这边的配置问题。除非我遗漏了什么,否则我希望生产者可以使用 SASL 身份验证,因为配置表明配置选项可用。
有没有人有这个问题的经验?
google-cloud-platform - 由于验证错误,Snowplow 管道无法提交请求
我在丰富步骤中收到错误“由于验证错误而无法提交请求:INVALID_ARGUMENT:Pubsub 发布请求限制为 10MB,拒绝消息结束以避免超出 byte64 请求编码的限制”。
我使用 Simo Ahava 的教程 在 Google Cloud Platform 上安装 Snowplow | Simo Ahava 的博客
光束富集工作器的数据流步骤出现错误。错误停止所有进程并且数据不会插入 BQ。
错误日志
kubernetes - K8S 上的扫雪机收集器不使用服务帐户
似乎我们无法让 Snowplow 容器(snowplow/scala-stream-collector-kinesis)使用我们提供的服务帐户。它始终使用shared-eks-node-role
但不使用提供的服务帐户。配置都设置default
为.accessKey
secretKey
这是我们使用的服务帐户部分:
当我检查 pod 时,我可以看到该帐户:
然后错误显示不正确的帐户。
linux - 扫雪机收集器不使用 https 协议(端口 443)
我正在尝试在收集器级别启用 ssl 并尝试在端口 443 上运行但无法这样做。收集器在普通 http 端口(端口 80 或其他)上运行良好,但在启用 ssl 的端口 443 上运行良好。我按照扫雪机收集器官方文档中给出的说明进行操作,但仍然遗漏了一些东西。下面是我用于收集器的配置。我已经创建了自签名证书并将其转换为 PKCS12 格式。
如果我注释掉端口 80,收集器会在该行抛出错误。如果不加注释,收集器开始在端口 80 上运行。请帮助我如何配置基于 https 的收集器。
java - 从 PubSub 到 Java API 的 Snowplow 数据处理
我正在使用 Snowplow 进行行为数据跟踪。我可以使用 Snowplow 加载程序(和 mutator)开源代码(https://docs.snowplowanalytics.com/docs/getting-started-on-snowplow-open-source/setup-snowplow- )将数据从 Pub/Sub 消耗到 BigQuery on-gcp/setup-bigquery-destination/),但我想直接使用来自 Pub/Sub 的数据到 Java API。
但是,来自 Pub/Sub 的数据是非结构化的,没有字符串格式的架构。数据包括“\t”作为分隔符以及“{}”来存储一些模式,这可能需要字符串处理来进行数据格式化。
有没有其他更好的方法来将数据从 Pub/Sub 解码到 Java API,而不是编写复杂的字符串处理。谢谢!
ios - 将 Snowplow 添加到适用于 iOS 的 Kotlin 多平台项目
我正在尝试将Snowplow集成到 Kotlin 多平台项目中。
安卓运行良好:
但是集成 iOS Cocoapod 会带来一些麻烦。我添加了 cocoapod 插件:
还有 Snowlow 吊舱:
Gradle 同步导致以下错误:
由于我是 Android 开发人员,我对 pod 及其错误的了解基本上为零。我很感激任何关于解决方案的提示,因为谷歌到目前为止没有帮助。
java - Snowplow RDB 加载程序无法连接到 Redshift 数据库
大家好,当我尝试从我在 EC2 上运行的其他实例连接到 Redshift 上的数据库时,大家好。
我已经能够从我的数据库管理器进行连接,但是当我从另一个实例尝试连接时,我收到以下错误
我已经允许其他实例 IP 和我的本地计算机连接
kotlin - 解决 Kotlin MPP 中的第三方 cocoapod 依赖项
我正在尝试设置一个用 Kotlin Multiplatform 编写的跟踪库来支持我们所有的移动客户端。
Android 的测试进展顺利(通过 gradle 集成扫雪机)。
我还设法通过 cocoapods 将 Snowplow 集成到 MPP 中。
并在 X64 源代码集中编写了以下类:
.framework
这可以很好地编译和构建我们的文件。以下是我们的做法:
之后,我们.xcframework
使用以下命令将其合并到一个文件中:
我们使用 Carthage 将其集成到我们的主应用程序中,但是一旦我尝试构建 iOS 项目,就会弹出以下错误:
奇怪的是:无论我在cocoapods
块中定义哪个版本的 Snowplow - 我的类中的语法都不需要更改。即使更新到 Snowplow 2.x 也不需要我去掉 SP 前缀。
我不知道如何继续并感谢任何帮助。
reactjs - 扫雪机浏览器跟踪器请求在浏览器中被阻止
我正在使用它
{{url}}/com.snowplowanalytics.snowplow/tp2
在网络选项卡中,我可以看到状态被阻止的请求blocked:other
。
google-cloud-platform - Snowplow BigQuery 流加载程序引发错误
最近我设置了扫雪机服务,用于收集、扩充和将事件加载到 BigQuery 中。收集器和浓缩器工作正常,但我用来将事件从浓缩器 pubsub 加载到 BigQuery 的 BiqQuery 流加载器我有时会看到以下错误,我无法理解。当这个错误发生时,它会停止流加载器。你能帮忙看看这个错误是什么意思吗?我该如何解决这个问题?