风韵丰满熟妇啪啪区老老熟色,国产精品91久久久,国产免费破外女真实出血视频,成人性生交大片免费看蜜芽

歡迎來(lái)到北京津發(fā)科技股份有限公司!
Products產(chǎn)品中心
首頁(yè) > 產(chǎn)品中心 > > 視覺(jué)與眼動(dòng)追蹤 > ErgoLAB Eyetracking眼動(dòng)軌跡分析模塊

ErgoLAB Eyetracking眼動(dòng)軌跡分析模塊

簡(jiǎn)要描述:眼動(dòng)追蹤通過(guò)紅外光反射原理,測(cè)量眼睛的注視點(diǎn)位置或者眼球相對(duì)頭部的運(yùn)動(dòng)而實(shí)現(xiàn)對(duì)眼球運(yùn)動(dòng)的追蹤,進(jìn)而分析視覺(jué)加工特征。ErgoLAB眼動(dòng)追蹤模塊采用高精度的眼動(dòng)追蹤元件同步記錄個(gè)體的眼動(dòng)軌跡、視線變化、眼動(dòng)狀態(tài)等數(shù)據(jù),在多種視覺(jué)刺激和環(huán)境下開(kāi)展人類(lèi)行為研究。同步記錄如眼部或頭部3D空間位置、注視時(shí)間、瞳孔大小、眨眼次數(shù)、眼跳、眼瞼閉合度等數(shù)據(jù),發(fā)現(xiàn)能夠吸引人們注意力的因素,了解人們感知其周?chē)挛锏囊?/p>

  • 產(chǎn)品型號(hào):
  • 廠商性質(zhì):生產(chǎn)廠家
  • 更新時(shí)間:2025-04-29
  • 訪  問(wèn)  量:1473

詳細(xì)介紹

品牌其他品牌產(chǎn)地國(guó)產(chǎn)
產(chǎn)品簡(jiǎn)介

ErgoLAB Eyetracking眼動(dòng)追蹤模塊,通過(guò)紅外光反射原理測(cè)量眼睛運(yùn)動(dòng)過(guò)程,采用高精度的眼動(dòng)追蹤元件同步記錄個(gè)體的眼動(dòng)軌跡、視線變化、眼動(dòng)狀態(tài)、頭部姿態(tài)等數(shù)據(jù),進(jìn)而分析視覺(jué)加工特征,了解人們感知其周?chē)挛锏囊曈X(jué)方式以及驅(qū)使人們作出決策的因素,在多種視覺(jué)刺激和環(huán)境下開(kāi)展人類(lèi)行為研究。

ErgoLAB Eyetracking眼動(dòng)軌跡分析模塊
眼動(dòng)追蹤系統(tǒng)
屏幕式高精度眼動(dòng)儀:高采樣率與高精度數(shù)據(jù)質(zhì)量采集,適用于快速眼動(dòng)狀態(tài)研究。
Glasses可穿戴眼動(dòng)儀:自然的眼動(dòng)追蹤系統(tǒng),專為現(xiàn)實(shí)環(huán)境的眼動(dòng)研究而設(shè)計(jì)。
虛擬現(xiàn)實(shí)眼動(dòng):將眼動(dòng)追蹤與VR結(jié)合,在受控的虛擬實(shí)驗(yàn)環(huán)境中開(kāi)展眼動(dòng)行為研究。
遙測(cè)式眼動(dòng)儀:超薄、便攜式遙測(cè)式眼動(dòng)儀,可方便地在任何場(chǎng)所開(kāi)展眼動(dòng)行為研究。
便攜式手持設(shè)備臺(tái),高精度眼動(dòng)數(shù)據(jù)采集,滿足任何移動(dòng)終端環(huán)境下的可用性測(cè)試研究。
ErgoLAB Eyetracking眼動(dòng)軌跡分析模塊
功能

眼動(dòng)狀態(tài)分析

標(biāo)準(zhǔn)化眼動(dòng)處理參數(shù):系統(tǒng)采用I-VT注視點(diǎn)提取算法,通過(guò)Velocity Calculator、Merge Adjacent Fixation、Discard fixation deration等一系列參數(shù),精確提取注視點(diǎn)、眨眼、以及眼跳等狀態(tài)。支持原始原始、注視數(shù)據(jù)、注意數(shù)據(jù)的自定義選擇性研究。
完整的數(shù)據(jù)分析與導(dǎo)出:支持以Excel或CSV格式導(dǎo)出所有原始數(shù)據(jù)、處理數(shù)據(jù)、分析數(shù)據(jù)。眼動(dòng)分析指標(biāo)主要包括眼跳次數(shù)、眼跳時(shí)間、眼跳幅度、眼跳距離、眨眼次數(shù)、眨眼頻率、總注視時(shí)間、平均注視時(shí)間、注視次數(shù)、瞳孔直徑等。
ErgoLAB Eyetracking眼動(dòng)軌跡分析模塊
ErgoLAB Eyetracking眼動(dòng)軌跡分析模塊

眼動(dòng)可視化分析

支持基于2D刺激材料、APP長(zhǎng)圖、以及360°圖片/視頻或3D虛擬場(chǎng)景分析;
實(shí)時(shí)監(jiān)測(cè)個(gè)體在任何環(huán)境刺激中的注意力和行為模式,輸出實(shí)時(shí)眼動(dòng)注視點(diǎn)數(shù)據(jù);
熱點(diǎn)圖分析:直觀分析個(gè)體的視覺(jué)重點(diǎn)關(guān)注區(qū)域,并形成可視化熱圖的形式展示結(jié)果;
軌跡圖分析:直觀顯示個(gè)體的眼動(dòng)注視順序、每個(gè)注視點(diǎn)的停留時(shí)長(zhǎng),分析視覺(jué)加工機(jī)制;
3D圖分析:顯示個(gè)體的重點(diǎn)關(guān)注區(qū)域,以3D圖等多種可視化圖形方式展示。
ErgoLAB Eyetracking眼動(dòng)軌跡分析模塊
ErgoLAB Eyetracking眼動(dòng)軌跡分析模塊
ErgoLAB Eyetracking眼動(dòng)軌跡分析模塊

AOI統(tǒng)計(jì)與序列性分析

支持2D刺激材料(圖片、視頻等)及3D虛擬環(huán)境中的眼動(dòng)AOI數(shù)據(jù)統(tǒng)計(jì)與分析;
支持對(duì)目標(biāo)物進(jìn)行自動(dòng)Mapping或手動(dòng)劃分興趣區(qū),統(tǒng)計(jì)輸出多維度的分析指標(biāo);
自動(dòng)AOI序列分析,實(shí)現(xiàn)對(duì)不同興趣區(qū)的注視順序進(jìn)行序列性編碼與行為分析統(tǒng)計(jì);
統(tǒng)計(jì)指標(biāo)包括進(jìn)入時(shí)間、進(jìn)入前注視次數(shù)、第一次注視的眼動(dòng)點(diǎn)、注視時(shí)間、總訪問(wèn)時(shí)間、平均訪問(wèn)時(shí)間、訪問(wèn)次數(shù)、總注視時(shí)間、平均注視時(shí)間、注視次數(shù)、平均注視次數(shù)、第二注視時(shí)間、最近鄰近注視點(diǎn)等。
ErgoLAB Eyetracking眼動(dòng)軌跡分析模塊
ErgoLAB Eyetracking眼動(dòng)軌跡分析模塊
ErgoLAB Eyetracking眼動(dòng)軌跡分析模塊

原型網(wǎng)頁(yè)眼動(dòng)交互分析

支持針對(duì)網(wǎng)頁(yè)、原型源代碼內(nèi)容興趣區(qū)的眼動(dòng)數(shù)據(jù)記錄與分析;
支持網(wǎng)頁(yè)、原型、圖片及視頻產(chǎn)品自定義繪制興趣區(qū)的眼動(dòng)數(shù)據(jù)記錄與分析;
提供錄屏、視頻及交互記錄等多種實(shí)驗(yàn)數(shù)據(jù)回放方式;
支持對(duì)虛擬現(xiàn)實(shí)空間中興趣物體及興趣區(qū)域的眼動(dòng)數(shù)據(jù)分析;
采用云架構(gòu)技術(shù),支持多被試眼動(dòng)數(shù)據(jù)同時(shí)采集與選擇性輸出。
ErgoLAB Eyetracking眼動(dòng)軌跡分析模塊
ErgoLAB Eyetracking眼動(dòng)軌跡分析模塊
ErgoLAB Eyetracking眼動(dòng)軌跡分析模塊
同步方案

ErgoLAB人機(jī)環(huán)境同步平臺(tái)采用多模態(tài)數(shù)據(jù)時(shí)鐘同步技術(shù),平臺(tái)可完成完整的實(shí)驗(yàn)和測(cè)評(píng)流程,包括項(xiàng)目管理-試驗(yàn)設(shè)計(jì)-同步采集-信號(hào)處理-數(shù)據(jù)分析-人因智能評(píng)估-可視化報(bào)告,支持基于云架構(gòu)技術(shù)的團(tuán)體測(cè)試和大數(shù)據(jù)管理。

ErgoLAB人機(jī)環(huán)境同步平臺(tái)采用主客觀結(jié)合多模態(tài)數(shù)據(jù)同步采集與多維度驗(yàn)證的方法,數(shù)據(jù)實(shí)時(shí)同步種類(lèi)包含大腦認(rèn)知數(shù)據(jù)(EEG/BCI腦電儀與腦機(jī)接口邊緣計(jì)算設(shè)備、fNIRS/BCI近紅外腦成像儀),視覺(jué)數(shù)據(jù)(Eyetracker眼動(dòng)儀與視線交互系統(tǒng)),生理數(shù)據(jù)(生理儀含:GSR/EDA、EMG、ECG、EOG、HRV、RESP、TEMP/SKT、PPG、SpO2),行為觀察、肢體動(dòng)作與面部表情(基本情緒、情緒效價(jià)、微表情等)數(shù)據(jù)、生物力學(xué)數(shù)據(jù)(拉力、握力、捏力、壓力…),人機(jī)交互數(shù)據(jù)(包含人機(jī)界面交互行為數(shù)據(jù)以及對(duì)應(yīng)的鍵盤(pán)操作,鼠標(biāo)點(diǎn)擊、懸浮、劃入劃出等;移動(dòng)終端人機(jī)交互行為數(shù)據(jù)以及對(duì)應(yīng)的手指軌跡操作行為如點(diǎn)擊、縮放、滑動(dòng)等;VR終端界面人機(jī)交互行為數(shù)據(jù)及對(duì)應(yīng)的雙手操作拾取、丟棄、控制,VR空間行走軌跡)、以及多類(lèi)型時(shí)空行為軌跡數(shù)據(jù)采集(包括室內(nèi)、戶外、以及VR環(huán)境不同時(shí)空的行走軌跡、行車(chē)軌跡、訪問(wèn)狀態(tài)以及視線交互、情感反應(yīng)、交互操作行為等數(shù)據(jù)實(shí)時(shí)同步采集)、以及作業(yè)空間及作業(yè)環(huán)境數(shù)據(jù)(溫度、濕度、噪音、光照、大氣壓、濕度、粉塵等)等客觀量化數(shù)據(jù);為科學(xué)研究及應(yīng)用提供完整的數(shù)據(jù)指標(biāo)。

ErgoLAB Eyetracking眼動(dòng)軌跡分析模塊

ErgoAI人因智能

將人工智能技術(shù)引入人因工程研究工具,人因工程行業(yè)更加深度,使得實(shí)驗(yàn)環(huán)境不會(huì)受限于某一種設(shè)備或數(shù)據(jù)指標(biāo),采集分析不同典型行業(yè)或?qū)W科專業(yè)的人-機(jī)-環(huán)境系統(tǒng)交互過(guò)程中自然狀態(tài)下的人類(lèi)行為數(shù)據(jù),獲取更接近真實(shí)人員狀態(tài)的數(shù)據(jù)。平臺(tái)還提供覆蓋科研實(shí)驗(yàn)全流程的功能模塊,包括項(xiàng)目管理、實(shí)驗(yàn)設(shè)計(jì)、同步采集、數(shù)據(jù)分析、綜合統(tǒng)計(jì)和可視化報(bào)告,結(jié)合ErgoAI人因智能邊緣計(jì)算平臺(tái)為多模態(tài)人機(jī)環(huán)境研究提供一站式人因工程+人工智能解決方案。以ErgoLAB人機(jī)環(huán)境同步平臺(tái)和ErgoAI人因智能邊緣計(jì)算平臺(tái)為核心的多模態(tài)同步人因智能解決方案大大提高了實(shí)驗(yàn)結(jié)果的信效度,同時(shí)節(jié)省了研究的人力、物力、時(shí)間,提高了研究與測(cè)評(píng)的整體效率。

ErgoLAB Eyetracking眼動(dòng)軌跡分析模塊

基于ErgoAI人因智能多元時(shí)序算法底座與人因工程人機(jī)環(huán)境數(shù)據(jù)庫(kù),構(gòu)建人員特定狀態(tài)的預(yù)訓(xùn)練模型,配合高靈活度的訓(xùn)練方案管理功能,用戶能夠在統(tǒng)一環(huán)境中高效構(gòu)建和優(yōu)化模型。 從而實(shí)現(xiàn)對(duì)人員狀態(tài)的精準(zhǔn)實(shí)時(shí)評(píng)估與預(yù)警,如負(fù)荷狀態(tài)、應(yīng)激狀態(tài)、疲勞狀態(tài)、情景意識(shí)和注意能力等。

ErgoLAB Eyetracking眼動(dòng)軌跡分析模塊

Kingfar公司介紹:

北京津發(fā)科技股份有限公司是專精特新重點(diǎn)小巨人,知識(shí)產(chǎn)權(quán)優(yōu)勢(shì)企業(yè)、高新技術(shù)企業(yè)、科技型中小企業(yè);旗下包含北京人因智能工程技術(shù)研究院和北京人因工程設(shè)計(jì)院等科技研發(fā)機(jī)構(gòu),并聯(lián)合共建了北京市企業(yè)技術(shù)中心、北京本科高校產(chǎn)學(xué)研深度協(xié)同育人平臺(tái)、蘇州市重點(diǎn)實(shí)驗(yàn)室、湖南省工程實(shí)驗(yàn)室、山東省工程研究中心等多個(gè)科技創(chuàng)新平臺(tái)。

津發(fā)科技承擔(dān)和參與了多項(xiàng)國(guó)家重點(diǎn)研發(fā)計(jì)劃、工信部高質(zhì)量發(fā)展專項(xiàng)、國(guó)家自然科學(xué)基金等課題基金。擔(dān)任全國(guó)信標(biāo)委XR擴(kuò)展現(xiàn)實(shí)標(biāo)準(zhǔn)化組副組長(zhǎng)單位,工信部元宇宙標(biāo)準(zhǔn)化工作組關(guān)鍵技術(shù)組聯(lián)合組長(zhǎng)單位;津發(fā)科技創(chuàng)新研發(fā)了國(guó)產(chǎn)化自主可控的人因工程與人因智能邊緣計(jì)算系列信創(chuàng)產(chǎn)品與技術(shù),榮獲多項(xiàng)省部級(jí)科學(xué)技術(shù)獎(jiǎng)勵(lì);津發(fā)科技主持和參編國(guó)際/國(guó)家、行業(yè)/團(tuán)體標(biāo)準(zhǔn)20余項(xiàng)、榮獲30余項(xiàng)省部級(jí)新技術(shù)新產(chǎn)品認(rèn)證,全球申請(qǐng)磚利超過(guò)500項(xiàng)、100余項(xiàng)國(guó)際和國(guó)家注冊(cè)商標(biāo)、130余項(xiàng)國(guó)家軟件著作權(quán);已服務(wù)全國(guó)高等院校和裝備科技工業(yè)科研院所應(yīng)用示范,并已支撐國(guó)內(nèi)科研學(xué)者和科技工作者發(fā)表中英文學(xué)術(shù)論文超過(guò)1000篇。


產(chǎn)品咨詢

留言框

  • 產(chǎn)品:

  • 您的單位:

  • 您的姓名:

  • 聯(lián)系電話:

  • 常用郵箱:

  • 省份:

  • 詳細(xì)地址:

  • 補(bǔ)充說(shuō)明:

  • 驗(yàn)證碼:

    請(qǐng)輸入計(jì)算結(jié)果(填寫(xiě)阿拉伯?dāng)?shù)字),如:三加四=7

郵件聯(lián)系我們:sales@kingfar.cn

掃一掃,關(guān)注微信
版權(quán)所有©2025 北京津發(fā)科技股份有限公司   備案號(hào):京ICP備14045309號(hào)