问题标签 [eye-tracking]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
java - 在opencv for android中使用运动分析和对象跟踪进行瞳孔运动
我不断地从网络摄像头中获取眼睛的帧。我需要使用适用于 Android 的 OpenCv 的对象跟踪来检测瞳孔相对于其先前位置的位置。
到目前为止,我还没有找到任何有用的指示来说明如何去做。是否有任何链接/教程可以提供帮助?
我已经使用过轮廓检测、霍夫圆等检测算法,这些算法有时会产生误报,所以我想要更强大的东西。
android - 使用 OpenCV 进行凝视检测 - 帮助我在屏幕上找到眼睛的位置
我正在做一个需要用户注视的项目(用户在屏幕上查看的位置)。当然,这不需要非常准确,因为我希望在笔记本电脑上使用内置网络摄像头。最初,我试图弄清楚如何在 Windows 笔记本电脑上完成这项工作。稍后我将继续使用移动设备——可能是安卓平板电脑。
大多数示例有助于非常准确地检测瞳孔,但我找不到任何实际显示眼睛运动/位置在屏幕上的投影的东西。我对 OpenCV 进行了很多研究,这就是我计划使用的,但我真的需要帮助来确定屏幕上的位置(像素)。
我想使用屏幕上的位置来触发事件。例如。如果用户凝视屏幕上的按钮,它将触发其事件。
非常感谢任何帮助。
谢谢!
r - 用于分析眼动追踪数据的 R 包
我想知道是否有人找到了一个不错的 R 包来分析眼动追踪数据?
我遇到了 eyetrackR,但据我所知,没有可用的英文支持文档:
如果需要,我将转向另一个处理眼动追踪数据的免费软件,但我真的希望在 R 中有一些可访问的东西。
想法?
干杯。
c# - 检索屏幕上的注视坐标
我正在使用 emgucv(openCV C# 包装器)实现眼动仪,到目前为止,我能够准确地检测到虹膜中心和眼角。
下一步我想获得用户关注的屏幕坐标(也称为注视点),作为图像处理的初学者,我完全不知道注视映射和注视估计。
如果您提供任何代码片段或算法来执行注视映射以检索屏幕上的注视坐标,我将不胜感激。
提前致谢
python - 在 Python 中分析眼动追踪 EDF 文件
自从我使用 Python 以来已经有一段时间了,因为我最近几个月一直专注于 R。
我最近一直在 Opensesame 中使用眼动追踪。我在试用时间轴中放置了带有内容“PreBeep1_1st_Sketchpad”的 Eyelink 日志“PreBeep1”和带有内容“PostBeep2”的“PostBeep2”。
在这些眼球追踪日志之间是我想要分析眼球运动的每个试验的一部分。
我以前从未分析过眼动追踪数据,我不知道从哪里开始。
任何人都可以提供建议,例如有用的库、如何提取/分析数据等。甚至可能是相关的示例代码。
我希望能够确定参与者是否/何时在感兴趣的时期内远离固定以及移动了多少。
有人告诉我,这不是最复杂的眼动追踪数据,但正如我所说,我对此很了解。
感谢您花时间阅读和考虑这一点。
我附上了一个示例文件:
python - Levenshtein 距离与权重/邻接罚分
我正在使用字符串编辑距离(Levenshtein-distance)来比较眼动追踪实验的扫描路径。(现在我正在使用stringdist
R 中的包)
基本上,字符串的字母指的是 6x4 矩阵中的(注视)位置。矩阵配置如下:
如果我使用基本的 Levenshtein 距离来比较字符串,则字符串中的a
and的比较给出与and的比较g
相同的估计值。a
x
例如:
这意味着字符串同样(不)相似
我希望能够以一种在矩阵中结合邻接的方式对字符串比较进行加权。例如 和 之间的距离应该被加权为大于a
和之间的距离。x
a
g
一种方法是计算矩阵中从一个字母到另一个字母的“步行”(水平和垂直步数)并除以最大“步行”距离(即从a
到x
)。a
例如,从to 到的“步行”距离g
是 1,从a
到x
它的距离是 8,导致权重分别为 1/8 和 1。
有没有办法实现这个(在 R 或 python 中)?
python - 人脸检测两只眼睛重叠
所以我做了一个跟踪脸部的小脚本,然后搜索两只眼睛,然后搜索左眼和右眼。
问题是,即使是左右,它也会重叠。
打印显示:
我尝试用 face.boundingBox(twoeyes) 裁剪脸部,他们搜索左右,但它总是给我(无,无)。
另外,当 findHaarFeatures("face.xml") 给我超过 1 张脸时,我遇到了问题,我通过选择列表中的第一个来克服这个问题,但我想选择其中最大的,如何我可以比较两个功能的大小吗?
最后,有没有更好的方法来查找其他内部的特征,而不是使用裁剪和 if 语句“某事!=无”?
顺便说一句,我正在使用来自相机的原始图像,用一些对比度、饱和度、findedges 或其他任何东西来更好地找到特征会更好吗?
face-recognition - 在 Eclipse 中构建 eyeLike Android OpenCV 眼动仪
我正在研究和开发利用实时眼动追踪的安卓应用程序。我发现的最令人印象深刻的眼动仪是基于点积的。我相信这可能比 haar 级联更好。
Tristan Hume 目前正在开发 eyeLike,这是一种点积方法的实现。项目描述在这里:http ://thume.ca/projects/2012/11/04/simple-accurate-eye-center-tracking-in-opencv/ 。我在 Eclipse 中构建代码时遇到问题,收到错误“启动失败,找不到二进制文件”。我在这个网站和其他网站上搜索并尝试了许多可能的解决方案,但没有结果。Github 是:/trishume/eyeLike
有人可以帮助解释如何在 Eclipse 中使用可执行文件构建此代码吗?有人拥有任何完整的 Android 应用程序项目 zip 源代码吗?
eyeLike 为移动开发人员提供了独特的功能,适用于许多新应用程序,我认为有关在 eclipse 中构建的配置(android 开发的通用 ide)的附加说明对许多人会有帮助。
c++ - 使用 C++ 和 Opencv 的注视点/区域
我使用 OpenCV 制作了一个 C++ 程序,以允许使用我的网络摄像头来识别我的脸和眼睛。然后我想确定我瞳孔的中心,然后确定我屏幕上的注视点或区域。有人知道该怎么做吗?请不要我的程序使用简单的计算机网络摄像头。预先感谢您的建议。
c# - 如何使用 C# 使用网络摄像头跟踪眼球运动?
我正在寻找 C# 中的眼动追踪软件。我查看了 openCV,但无法找到一种简单的方法来跟踪眼睛。我正在进行的项目是在屏幕上显示一系列带有说明的图片,然后检测坐在屏幕前的婴儿在屏幕上注视的位置,并测量他们定位对象所需的时间你已指示他们。我想使用一个简单的网络摄像头进行检测。
任何帮助,将不胜感激。
谢谢