问题标签 [udf]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
user-defined-functions - 对于同一查询中的多次调用,本机 Impala UDF (Cpp) 随机将同一表中相同输入的结果设为 NULL
我有一个具有两个功能的 Native Impala UDF (Cpp) 这两个功能是相互补充的。
myUDF("myInput")
给出一些输出,什么时候myUDFReverso(myUDF("myInput"))
应该回馈myInput
当我在这样的镶木地板上运行 impala 查询时,
select column1,myUDF(column1),length(myUDF(column1)),myUDFreverso(myUDF(column1)) from my_parquet_table order by column1 LIMIT 10;
输出随机为 NULL。
输出在第一次运行时说,
并假设在第二次运行时,
有时它也会为所有行提供正确的值。
我已经在Impala v1.2.4和v2.1上测试过这 是什么原因?一些内存问题?
编辑1:
java - 无法从字符串中拆分数字值
我正在为 java 中的区域转换程序创建一个 Udf 函数。我有以下数据:
我想像这样拆分上述数据:
我尝试了以下代码:
我只有在处理时才遇到异常。任何帮助将不胜感激。
hadoop - 在 Pig 字段中拆分字符
我有一个带有“|”的文本输入 分隔符为
我使用 PigStorage 拆分
现在我需要根据位置将字段BM901002500109999998拆分 为不同的字段,例如 0-2 = BM - Field1 等等。所以在这一步之后,我应该得到 BM, 90100, 2500, 10, 9999998。Pig 脚本中有什么方法可以实现这一点,否则我打算编写一个 UDF 并将分隔符放在所需的位置。
谢谢。
eclipse - org.apache.spark.sql.catalyst.errors.package$TreeNodeException:执行,树:
我正在尝试注册一个简单的 UDF,以便使用 Scala Luna Eclipse IDE 在 spark 中提取日期功能。这是我的代码:
sqlContext.udf.register("extract", (dateUnit: String, date : String) => udf.extract(dateUnit,date ) )
当我通过 as 执行这个功能时,一个 Eclipse 控制台Select * from date_dim WHERE d_dom < extract('YEAR', '2015-05-01') limit 10"
它抛出 ans 错误为
我无法找出究竟是什么问题,直接定义的简单 udfsqlContext.udf.register("strLength", (str: String) => str.length() )
运行成功。同样的上述函数在 Spark 中通过 Scala shell 成功运行。这里有什么问题。我做错什么了吗?
sql-server-2008 - 将查询作为参数传递给 udf 函数
我想将标量值选择查询作为参数传递给如下函数:
数据库服务器抛出此错误:
有没有办法将查询作为参数传递?
sql-server - 在 SQL Server 的表列中使用 UDF 作为默认值
我在 SQL Server 2012 Express 中创建了一个缩放器 UDF(称为 sCurrentAppUser()),我想在定义表时将此 UDF 用作默认值。但是每次我尝试时,我都会收到“'sCurrentAppUser' 不是可识别的内置函数名称”的错误。
由于我不能发布超过两个链接(声誉),我将在评论中链接到我的研究和参考。
这是我的UDF:
我尝试在第一列上创建具有默认约束的表:
hadoop - PIG UDF 中的表模式
在将数据加载到 Hive 表之前,我必须在平面文件中格式化数据。
该文件是管道分隔的,我需要在平面文件的不同列上应用不同的清理和格式化功能。我对 Clean_Text、Format_Date、Format_TimeStamp、Format_Integer 等有多种功能。
我的想法是将模式作为构造函数传递给我的 UDF,并在 pig 中的平面文件上调用不同的函数。
但是我怎样才能通过模式?DUMP A 实际上转储了整个表,但我只需要元数据。我当前的 UDF 伪代码看起来像
公共类 DataColumnFormatter 扩展 EvalFunc {
}
如何在 PIG UDF 中获取架构,或者有没有其他方法可以实现这一点。
提前致谢。
java - 在单列上应用 Pig UDF 并自动生成所有其他列
我有一个 Pig UDF,可以在我的管道分隔数据文件中将 Ebcidic 字符转换为 ASCII。我有数百列,我希望我的 UDF 应用于第 70 列。如何在该特定列上应用 UDF 并将列数据替换为数据集中的 ASCII。
如果我们像上面那样调用脚本,我只会得到转换后的列作为结果的一部分。如何获取所有列以及应用的 udf 列。
任何帮助表示赞赏。
c# - 如何使用 C# LINQ 查询调用 SQLite 用户定义函数
使用 SQLite 和 C#,有没有人尝试在 LINQ 查询中调用 UDF?
在网上搜索,我发现this about created a UDF function in C#
http://www.ivankristianto.com/howto-make-user-defined-function-in-sqlite-ado-net-with-csharp/
至于在 LINQ to Entities 中调用函数,我这里有解决方案
这是我到目前为止所得到的。我创建了我的数据库模型和 linq to SQLite。
我将其添加到数据库模型文件中:
我添加此代码
如果我尝试这段代码
我收到这个错误
如果我尝试这段代码
我收到这个错误
我能从这里做什么?
sql - 如何使用标准查询或使用 UDF 标记一行并将其特定值存储在 Hive 中?
我需要在 Hive 中编写查询或定义需要执行以下操作的函数:
数据集:
所以现在查询应该通过计算他第一次在一个池中使用机器的时间和他第一次开始在另一个池中使用机器的时间差来找出特定学生在特定计算机池中花费了多长时间。所以这个例子他花费的时间将是:11:00AM - 9:15AM = 1Hour45Mins
我的问题是如何在一个存储时间值中标记第一次使用,并在以后找到下一个池数据时使用它。