亚洲国产精品久久久久婷蜜芽,啊灬嗯灬啊灬用,日本美久久久,肉精品一区

        當前位置:主頁 > 產品展示 > > ErgoVR虛擬人機交互測評 > 虛擬現實眼動儀

        虛擬現實眼動儀

        型號:瑞典Tobii VR

        產品時間:2020-06-25

        簡要描述:

        Tobii Pro VR虛擬現實眼動儀將眼動追蹤與VR結合,在*受控的實驗設計環境中開展眼動行為研究!

        詳細介紹

        一、產品概述:

        Tobii Pro VR虛擬現實眼動儀將眼動追蹤與VR結合,在*受控的實驗設計環境中開展眼動行為研究!

        Tobii Pro VR虛擬現實眼動儀通過紅外光反射原理,測量眼睛的注視點位置或者眼球相對頭部的運動而實現對眼球運動的追蹤,進而分析視覺加工特征。Tobii Pro VR虛擬現實眼動儀采用高精度的眼動追蹤元件同步記錄個體的眼動軌跡、視線變化、眼動狀態等數據,在多種視覺刺激和環境下開展人類行為研究。可執行對眼動數據質量要求較高的定量與定性研究,滿足各類不同的研究需要。同步記錄如眼部或頭部3D空間位置、注視時間、瞳孔大小、眨眼次數、眼跳、眼瞼閉合度等數據,發現能夠吸引人們注意力的因素,了解人們感知其周圍事物的視覺方式以及驅使人們作出決策的因素,捕獲不受被試者或主試者意識影響的自然反應,并將這些自然反應實時記錄與反饋。

         

        二、產品特點

        虛擬環境下的眼動追蹤

        通過將眼動追蹤與 VR 相結合,可以使研究環境*受控并準確了解操作者每一刻的視覺注意信息。可以按研究需要創建任何模擬環境,研究場景可重復利用,經濟且高效。

        增強虛擬環境體驗

        在虛擬環境中通過凝視實現更自然的互動,揭示在無限數量的假設情景中驅動人類行為反應的諸多因素。

        穩定、高性能的數據采集

        系統為120Hz采樣率,采用先進的滑移補償技術可在頭戴模塊發生偏移時確保數據的準確性和校準的有效性,允許在不影響眼動數據質量的前提下獲得大的自由度,且適用于大多數的測試群體,包括佩戴眼鏡者。

        支持多種實驗刺激材料

        包括360°圖片和視頻,以及3D模型作為刺激材料,同時支持在Unity 3D環境下進行眼動數據采集與回放,提供了可應用于廣泛的人類行為研究的眼動數據與交互行為自動可視化與分析工具。

         

        三、功能應用

        硬件無縫集成

        Tobii Pro VR眼動儀是對HTC Vive頭戴模塊的加裝。眼動追蹤模塊隱藏在鏡片后,使其不影響正常的VR體驗。眼動數據通過具有Tobii Eye Chip芯片來處理,使CPU負載降到低。眼動數據通過標準的HTC Vive線纜傳輸,無需任何外置線纜。


        VR環境下的眼動追蹤分析

        Tobii Pro VR Analytics數據分析工具支持在Unity 3D環境下的眼動數據采集與回放。同時提供了可應用于廣泛的人類行為研究的眼動數據與交互行為自動可視化與分析工具。

         

        Tobii Pro VR眼動儀允許研究人員在*受控的虛擬環境中執行眼動研究,可方便地重復利用研究場景和刺激物,同時保持眼動數據的采集,*不會影響VR的體驗。眼動追蹤與沉浸式VR結合將為研究執行的方式帶來轉變并為專業研究領域帶來了新的可能性。

        VR環境中的眼動研究

        Tobii Pro VR眼動儀允許研究人員在*受控的虛擬環境中執行眼動研究,可方便地重復利用研究場景和刺激物,同時保持眼動數據的采集,*不會影響VR的體驗。該研究工具能夠提供高質量的眼動數據,可有效追蹤絕大多數的被試人群。

        眼動追蹤與沉浸式VR結合將為研究執行的方式帶來轉變并為專業研究領域帶來了新的可能性,如心理學,消費行為研究,培訓和效能評估。

         

        可創建環境中所有元素的可視化結果,并支持按單個或多個被試者來查看,包括:

        • 熱點圖,可展示出不同目標元素之間的視覺注意分配情況以及被試者們在每個目標元素上的視覺停留時間。
        • 彩色顯示的視線向量,揭示被試者在3D環境中到的目標物的視線,幫您了解視覺注意的焦點所在。
        • 彩色顯示的每名被試者在測試過程中的移動路徑,展示出被試者在VR環境中的行走路線,用于導航和尋路應用情境下的運動行為分析。

        眼動追蹤數據分析

        眼動追蹤統計指標可自動計算得出并適用于虛擬現實環境中的所有被試者。這些指標包括:

        • 注視點數量統計 - 那些目標被看到了?
        • 注視點的總共與平均停留時間 - 視線在目標停留了多久?
        • *進入時間 - 第一次看到目標用了多久?

        交互行為數據分析

        Tobii Pro VR Analytics分析工具還可對Unity環境中的交互數據進行衡量,包括:

        • 拾起次數統計 - 與某個目標進行的*交互
        • *拾起時間 - 第一次與某個目標產生交互行為所用的時間
        • 握持時間 (總持續時間) - 與目標交互的持續時間
        • 從看到到拾起的時間 - 第一次看到某個目標到與該目標產生交互行為所用的時間

        所有眼動追蹤和交互行為的統計指標都可以在軟件中實時獲得并支持單個被試一或多被試的疊加。

         

        四、技術參數

        眼動數據輸出頻率

        雙眼120 Hz

        準確度

        0.5°

        校準

        眼動追蹤范圍

        110°

        紅外光源數量

        每只眼睛10

        眼動追蹤傳感器

        每只眼睛1

        瞳孔測量

        支持,相對測量

        眼動追蹤技術

        雙眼暗瞳追蹤

        滑移補償

        自動

        延遲

        10ms (從眼球圖像曝光至數據傳輸到客戶端界面)

        數據輸出 (每只眼睛)

        時間戳(設備與系統時鐘)

        視線坐標

        視線方向

        瞳孔位置

        相對瞳孔尺寸

        3D引擎兼容性

        Unity

        硬件集成

        HTC Vive標準版與Tobii眼動追蹤深度集成定制硬件無任何外置設備或線纜*

        接口

        Tobii Pro SDK (/Matlab/Python/C)
         

         

        五、同步方案

        瑞典Tobii全系列眼動追蹤系統通過結合ErgoLAB人機環境同步云平臺可以實現在不同實驗環境條件下對智能化人機系統進行主觀和客觀定量的人機交互測試、人因與工效學分析與評價:通過ErgoLAB人機環境同步云平臺與廣泛的數據同步,包括常用的生理數據GSR皮膚電,呼吸和心率等、EEG腦電,眼動、fNIRS近紅外腦成像,人體動作,行為觀察、面部表情、生物力學、人機交互。實現極低延遲的同步水平同時確保您的整體方案的便攜性。

        數據分析平臺:如果研究人員希望得到比實時觀察更深入、全面的結論, ErgoLAB平臺可提供數據后期分析的強大工具。

        ErgoLAB人機環境同步云平臺綜合統計分析模塊包含多維度人--環境數據綜合分析、EEG腦電分析與可視化、眼動分析與可視化、行為觀察實時編碼分析、面部表情分析與狀態識別、動作姿態傷害評估與工效學分析、交互行為分析(ErgoLAB/ErgoVR人機交互測試版本)、時空行為分析、車輛與駕駛行為分析(ErgoLAB駕駛版本)、HRV心率變異性分析、EDA/GSR皮電分析、RESP呼吸分析、EMG肌電分析、General通用信號分析(如TEMP/SKT皮溫/體溫分析、EOG眼電分析以及其他環境與生物力學信號分析)。系統具備專門的信號處理模塊以及開放式信號處理接口,可以直接導出可視化分析報告以及原始數據,支持第三方集成與定制開發。

         

         

        產品咨詢

        留言框

        • 產品:

        • 您的單位:

        • 您的姓名:

        • 聯系電話:

        • 常用郵箱:

        • 省份:

        • 詳細地址:

        • 補充說明:

        • 驗證碼:

          請輸入計算結果(填寫阿拉伯數字),如:三加四=7

        人因工程與工效學

        人機工程、人的失誤與系統安全、人機工效學、工作場所與工效學負荷等

        安全人機工程

        從安全的角度和著眼點,運用人機工程學的原理和方法去解決人機結合面安全問題

        交通安全與駕駛行為

        人-車-路-環境系統的整體研究,有助于改善駕駛系統設計、提高駕駛安全性、改善道路環境等

        用戶體驗與交互設計

        ErgoLAB可實現桌面端、移動端以及VR虛擬環境中的眼動、生理、行為等數據的采集,探索產品設計、人機交互對用戶體驗的影響

        建筑與環境行為

        研究如何通過城市規劃與建筑設計來滿足人的行為心理需求,以創造良好環境,提高工作效率

        消費行為與神經營銷

        通過ErgoLAB采集和分析消費者的生理、表情、行為等數據,了解消費者的認知加工與決策行為,找到消費者行為動機,從而產生恰當的營銷策略使消費者產生留言意向及留言行為

        產品中心
        ErgoVR虛擬人機交互測評
        新聞中心
        公司新聞
        技術文章
        關于我們
        公司簡介
        人才招聘
        聯系方式
        北京市海淀區安寧莊后街12號院1號樓一層、三層
        sales@kingfar.cn

        掃一掃,加微信

        版權所有 © 2025北京津發科技股份有限公司(www.zjzheliang.com)
        備案號:京ICP備14045309號-4 技術支持:智慧城市網 管理登陸 GoogleSitemap