超碰caoporen国产精品_老太奶性BBWBBWBBW_美女高潮喷水13分钟全程露脸_亚洲欧美中文字幕日韩一区二区_久久久精品妇女99_free性玩弄少妇hd

當(dāng)前位置:主頁 > 產(chǎn)品展示 > > ErgoLAB人機(jī)環(huán)境同步 > ErgoLAB人機(jī)環(huán)境同步云平臺

ErgoLAB人機(jī)環(huán)境同步云平臺

型號:ErgoLAB

產(chǎn)品時間:2021-10-18

簡要描述:

ErgoLAB人機(jī)環(huán)境同步云平臺,是集科學(xué)化、集成化、智能化于一體的系統(tǒng)工程工具與解決方案產(chǎn)品,可以與人、機(jī)器、環(huán)境數(shù)據(jù)進(jìn)行同步采集與綜合人機(jī)工效分析;尤其是人工智能時代根據(jù)人-信息-物理系統(tǒng)(HCPS)理論,對人-機(jī)-環(huán)境系統(tǒng)從人-信息系統(tǒng),人-物理系統(tǒng)以及系統(tǒng)整體分別進(jìn)行人機(jī)交互評估以及人因與工效學(xué)的智能評價。

相關(guān)文章

Related articles

詳細(xì)介紹

ErgoLAB人機(jī)環(huán)境同步云平臺,是集科學(xué)化、集成化、智能化于一體的系統(tǒng)工程工具與解決方案產(chǎn)品,可以與人、機(jī)器、環(huán)境數(shù)據(jù)進(jìn)行同步采集與綜合人機(jī)工效分析;尤其是人工智能時代根據(jù)人-信息-物理系統(tǒng)(HCPS)理論,對人-機(jī)-環(huán)境系統(tǒng)從人-信息系統(tǒng),人-物理系統(tǒng)以及系統(tǒng)整體分別進(jìn)行人機(jī)交互評估以及人因與工效學(xué)的智能評價。

智能化人機(jī)環(huán)境測試云平臺支持科研項(xiàng)目的整個工作流程,從基于云端的項(xiàng)目管理、實(shí)驗(yàn)設(shè)計(jì)、數(shù)據(jù)同步采集、信號處理與數(shù)據(jù)分析到綜合統(tǒng)計(jì)與輸出可視化報(bào)告,對于特殊領(lǐng)域客戶可定制云端的人因大數(shù)據(jù)采集與AI狀態(tài)識別。具備ErgoVR虛擬現(xiàn)實(shí)實(shí)時同步人因工程研究解決方案、ErgoAI智能駕駛模擬實(shí)時同步人因工程研究解決方案、ErgoSIM環(huán)境模擬實(shí)時同步人因工程研究解決方案,可以在不同的實(shí)驗(yàn)環(huán)境為人-機(jī)-環(huán)境研究的發(fā)展提供進(jìn)一步的主客觀數(shù)據(jù)支撐與科學(xué)指導(dǎo)。

其中,云實(shí)驗(yàn)設(shè)計(jì)模塊具備多時間軸、隨機(jī)化呈現(xiàn)等功能、可以創(chuàng)建復(fù)雜的實(shí)驗(yàn)刺激,支持任何類型的刺激材料,包括自定義問卷、量表與實(shí)驗(yàn)范式(系統(tǒng)包含常用量表與實(shí)驗(yàn)范式以及數(shù)據(jù)常模,如NASA-TLX認(rèn)知負(fù)荷量表、PANAS情緒效價量表、Stroop任務(wù)、MOT多目標(biāo)追蹤、注意力訓(xùn)練任務(wù)等)、聲光電刺激與實(shí)時API行為編碼/TTL事件標(biāo)記、多媒體刺激編輯如文本、聲音、圖像,視頻(含360度圖片和視頻),在線和手機(jī)應(yīng)用程序,以及所有的原型設(shè)計(jì)材料,也支持與如下刺激實(shí)時同步采集:如場景攝像機(jī)、軟件,游戲,VR,AR程序等。兼容第三方軟件刺激編譯軟件,如E-prime,SuperlabTobiiPro Lab等。

ErgoLAB人機(jī)環(huán)境同步云平臺采用主客觀結(jié)合多維度數(shù)據(jù)驗(yàn)證的方法,數(shù)據(jù)同步種類包含大腦認(rèn)知數(shù)據(jù)(EEG腦機(jī)交互與腦電測量系統(tǒng)、fNIRS高密度近紅外腦功能成像系統(tǒng)),視覺數(shù)據(jù)(Eyetracking視線交互與眼動追蹤系統(tǒng)),生理信號數(shù)據(jù)(生理儀含:GSR/EDA、EMG、ECGEOG、HRV、RESP、TEMP/SKT、PPG、SpO2),行為觀察、肢體動作與面部表情(基本情緒、情緒效價、微表情等)數(shù)據(jù)、生物力學(xué)數(shù)據(jù)(拉力、握力、捏力、壓力…),人機(jī)交互數(shù)據(jù)(包含如網(wǎng)頁終端界面交互行為數(shù)據(jù)以及對應(yīng)的鍵盤操作,鼠標(biāo)點(diǎn)擊、懸浮、劃入劃出等;移動終端界面交互行為數(shù)據(jù)以及對應(yīng)的手指行為如點(diǎn)擊、縮放、滑動等;VR終端界面人機(jī)交互行為數(shù)據(jù)及對應(yīng)的雙手操作拾取、丟棄、控制,VR空間行走軌跡)、以及多類型時空行為數(shù)據(jù)采集(包括室內(nèi)、戶外、以及VR環(huán)境不同時空的行走軌跡、行車軌跡、訪問狀態(tài)以及視線交互、情感反應(yīng)、交互操作行為等數(shù)據(jù)采集)、以及環(huán)境數(shù)據(jù)(溫度、濕度、噪音、光照、大氣壓、濕度、粉塵等)等客觀量化數(shù)據(jù)。

ErgoLAB人機(jī)環(huán)境同步云平臺包含強(qiáng)大的數(shù)據(jù)分析模塊以及廣泛的認(rèn)知和情感生物特征識別(如記憶,注意力,情緒反應(yīng),行為決策,以及警覺、壓力等)。ErgoLAB數(shù)據(jù)分析與綜合統(tǒng)計(jì)分析模塊包含多維度人-機(jī)-環(huán)境數(shù)據(jù)綜合分析、EEG腦電分析與可視化、眼動分析與可視化、行為觀察分析、面部表情分析、動作姿態(tài)傷害評估與工效學(xué)分析、交互行為分析、時空行為分析、車輛與駕駛行為分析(ErgoAI駕駛版本)、HRV心率變異性分析、EDA/GSR皮電分析、RESP呼吸分析、EMG肌電分析、General通用信號分析(如SKT皮溫分析、EOG眼電分析以及其他環(huán)境與生物力學(xué)信號分析)。系統(tǒng)具備專門的信號處理模塊以及開放式信號處理接口,可以直接導(dǎo)出可視化分析報(bào)告以及原始數(shù)據(jù),支持第三方處理與開發(fā)。

津發(fā)科技提供定制開發(fā)服務(wù),與人因工程與工效學(xué)分析評價領(lǐng)域相關(guān)的算法模型、軟硬件產(chǎn)品與技術(shù)可深入研發(fā),詳情咨詢津發(fā)科技!

 

ErgoLAB是一種人類行為研究軟件工具,可 無縫同步35種以上傳感器模式的研究設(shè)計(jì)和數(shù)據(jù)收集。它支持項(xiàng)目的整個工作流程,從實(shí)驗(yàn)方法設(shè)置到數(shù)據(jù)收集和導(dǎo)出以進(jìn)行完整的分析。

毫秒級同步,您將能夠從各種傳感器模式(GSR,ECGEEG,EMG,EEG,眼睛跟蹤...)以及多種刺激(照片,視頻,自由任務(wù), VR體驗(yàn),

...)具有出色的時間表現(xiàn)。因此,您將能夠輕松,準(zhǔn)確地分析來自Excel,SPSS,MatLab等的數(shù)據(jù)。

系統(tǒng)可提供研究設(shè)計(jì)模板,強(qiáng)大的數(shù)據(jù)分析平臺以及廣泛的認(rèn)知和情感生物特征識別(例如記憶,注意力,情感價,激活和影響,參與度等) )。是為那些希望在生理數(shù)據(jù)解碼和分析方面向前邁進(jìn)的人而特別設(shè)計(jì)的,它提供了一種實(shí)用且可行的解決方案。

同步數(shù)據(jù)采集

 

 

刺激性

任何類型的刺激
圖像,視頻,體驗(yàn),,應(yīng)用程序,VR / AR設(shè)置...

第三方軟件刺激
ErgoLABEprime,Tobii Pro Lab ...

實(shí)時應(yīng)用

兼容LabStreamLayer
BCI200
,OpenVie,NeuroPype ...

實(shí)時API

數(shù)據(jù)分析

原始數(shù)據(jù)到第三方

MatlabEEGLAB,BCILAB等)

PythonMNE等)

Neuroguide WE

其他

 

高級分析工具(可選(

軟件分析工具

情緒和認(rèn)知指標(biāo)

Excel導(dǎo)出(單個和匯總)

多媒體資料

 

技術(shù)指標(biāo)

人類行為指標(biāo)

情緒生物識別

價,情緒激活,情緒影響

認(rèn)知生物識別

注意,記憶,參與。

行為指標(biāo)

鼠標(biāo)跟蹤,時間。

眼動追蹤指標(biāo)

視覺注意,注視

內(nèi)隱動機(jī)和行為

隱式聯(lián)想響應(yīng)測試(IAT和啟動)

IPS指標(biāo)

位置追蹤

 

指標(biāo)表示

個人

對于生物識別,時間和隱式關(guān)聯(lián):條形圖和統(tǒng)計(jì)差異表。對于眼睛跟蹤,鼠標(biāo)定位:熱圖,比率圖,時間圖,軌跡圖,感興趣的區(qū)域(*固定時間,花費(fèi)的時間,比率,重新訪問,平均固定時間,以前的固定時間)和匯總的固定視頻。

組合式

情感定位圖,結(jié)合指標(biāo)的視頻,刺激,攝像頭和麥克風(fēng)(匯總,按細(xì)分或個人匯總)。

 

輸出格式

檔案

所有CSV格式的生物特征識別(單獨(dú)和匯總),與第三方工具(MatlabExcell等)兼容

可視化軟件

生物識別可視化軟件。分析間隔和感興趣的區(qū)域。

多媒體資料

包含陳述和視頻以進(jìn)行報(bào)告。

ErgoLAB人機(jī)環(huán)境同步云平臺,是集科學(xué)化、集成化、智能化于一體的系統(tǒng)工程工具與解決方案產(chǎn)品,可以與人、機(jī)器、環(huán)境數(shù)據(jù)進(jìn)行同步采集與綜合人機(jī)工效分析;尤其是人工智能時代根據(jù)人-信息-物理系統(tǒng)(HCPS)理論,對人-機(jī)-環(huán)境系統(tǒng)從人-信息系統(tǒng),人-物理系統(tǒng)以及系統(tǒng)整體分別進(jìn)行人機(jī)交互評估以及人因與工效學(xué)的智能評價。

智能化人機(jī)環(huán)境測試云平臺支持科研項(xiàng)目的整個工作流程,從基于云端的項(xiàng)目管理、實(shí)驗(yàn)設(shè)計(jì)、數(shù)據(jù)同步采集、信號處理與數(shù)據(jù)分析到綜合統(tǒng)計(jì)與輸出可視化報(bào)告,對于特殊領(lǐng)域客戶可定制云端的人因大數(shù)據(jù)采集與AI狀態(tài)識別。具備ErgoVR虛擬現(xiàn)實(shí)實(shí)時同步人因工程研究解決方案、ErgoAI智能駕駛模擬實(shí)時同步人因工程研究解決方案、ErgoSIM環(huán)境模擬實(shí)時同步人因工程研究解決方案,可以在不同的實(shí)驗(yàn)環(huán)境為人-機(jī)-環(huán)境研究的發(fā)展提供進(jìn)一步的主客觀數(shù)據(jù)支撐 與科學(xué)指導(dǎo)。

其中,云實(shí)驗(yàn)設(shè)計(jì)模塊具備多時間軸、隨機(jī)化呈現(xiàn)等功能、可以創(chuàng)建復(fù)雜的實(shí)驗(yàn)刺激,支持任何類型的刺激材料,包括自定義問卷、量表與實(shí)驗(yàn)范式(系統(tǒng)包含常用量表與實(shí)驗(yàn)范式以及數(shù)據(jù)常模,如NASA-TLX認(rèn)知負(fù)荷量表、PANAS情緒效價量表、Stroop任務(wù)、MOT多目標(biāo)追蹤、注意力訓(xùn)練任務(wù)等)、聲光電刺激與實(shí)時API行為編碼/TTL事件標(biāo)記、多媒體刺激編輯如文本、聲音、圖像,視頻(含360度圖片和視頻),在線和手機(jī)應(yīng)用程序,以及所有的原型設(shè)計(jì)材料,也支持與如下刺激實(shí)時同步采集:如場景攝像機(jī)、軟件,游戲,VR,AR程序等。兼容第三方軟件刺激編譯軟件,如E-prime,Superlab,TobiiPro Lab等。

ErgoLAB人機(jī)環(huán)境同步云平臺采用主客觀結(jié)合多維度數(shù)據(jù)驗(yàn)證的方法,數(shù)據(jù)同步種類包含大腦認(rèn)知數(shù)據(jù)(EEG腦機(jī)交互與腦電測量系統(tǒng)、fNIRS高密度近紅外腦功能成像系統(tǒng)),視覺數(shù)據(jù)(Eyetracking視線交互與眼動追蹤系統(tǒng)),生理信號數(shù)據(jù)(生理儀含:GSR/EDA、EMG、ECG、EOG、HRV、RESP、TEMP/SKT、PPG、SpO2),行為觀察、肢體動作與面部表情(基本情緒、情緒效價、微表情等)數(shù)據(jù)、生物力學(xué)數(shù)據(jù)(拉力、握力、捏力、壓力…),人機(jī)交互數(shù)據(jù)(包含如網(wǎng)頁終端界面交互行為數(shù)據(jù)以及對應(yīng)的鍵盤操作,鼠標(biāo)點(diǎn)擊、懸浮、劃入劃出等;移動終端界面交互行為數(shù)據(jù)以及對應(yīng)的手指行為如點(diǎn)擊、縮放、滑動等;VR終端界面人機(jī)交互行為數(shù)據(jù)及對應(yīng)的雙手操作拾取、丟棄、控制,VR空間行走軌跡)、以及多類型時空行為數(shù)據(jù)采集(包括室內(nèi)、戶外、以及VR環(huán)境不同時空的行走軌跡、行車軌跡、訪問狀態(tài)以及視線交互、情感反應(yīng)、交互操作行為等數(shù)據(jù)采集)、以及環(huán)境數(shù)據(jù)(溫度、濕度、噪音、光照、大氣壓、濕度、粉塵等)等客觀量化數(shù)據(jù)。

ErgoLAB人機(jī)環(huán)境同步云平臺包含強(qiáng)大的數(shù)據(jù)分析模塊以及廣泛的認(rèn)知和情感生物特征識別(如記憶,注意力,情緒反應(yīng),行為決策,以及警覺、壓力等)。ErgoLAB數(shù)據(jù)分析與綜合統(tǒng)計(jì)分析模塊包含多維度人-機(jī)-環(huán)境數(shù)據(jù)綜合分析、EEG腦電分析與可視化、眼動分析與可視化、行為觀察分析、面部表情分析、動作姿態(tài)傷害評估與工效學(xué)分析、交互行為分析、時空行為分析、車輛與駕駛行為分析(ErgoAI駕駛版本)、HRV心率變異性分析、EDA/GSR皮電分析、RESP呼吸分析、EMG肌電分析、General通用信號分析(如SKT皮溫分析、EOG眼電分析以及其他環(huán)境與生物力學(xué)信號分析)。系統(tǒng)具備專門的信號處理模塊以及開放式信號處理接口,可以直接導(dǎo)出可視化分析報(bào)告以及原始數(shù)據(jù),支持第三方處理與開發(fā)。

津發(fā)科技提供定制開發(fā)服務(wù),與人因工程與工效學(xué)分析評價領(lǐng)域相關(guān)的算法模型、軟硬件產(chǎn)品與技術(shù)可深入研發(fā),詳情咨詢津發(fā)科技!

ErgoLAB是一種人類行為研究軟件工具,可 無縫同步35種以上傳感器模式的研究設(shè)計(jì)和數(shù)據(jù)收集。它支持項(xiàng)目的整個工作流程,從實(shí)驗(yàn)方法設(shè)置到數(shù)據(jù)收集和導(dǎo)出以進(jìn)行完整的分析。

毫秒級同步,您將能夠從各種傳感器模式(GSR,ECG,EEG,EMG,EEG,眼睛跟蹤...)以及多種刺激(照片,視頻,自由任務(wù), VR體驗(yàn),...)具有出色的時間表現(xiàn)。因此,您將能夠輕松,準(zhǔn)確地分析來自Excel,SPSS,MatLab等的數(shù)據(jù)。

系統(tǒng)可提供的研究設(shè)計(jì)模板,強(qiáng)大的數(shù)據(jù)分析平臺以及廣泛的認(rèn)知和情感生物特征識別(例如記憶,注意力,情感價,激活和影響,參與度等) )。是為那些希望在生理數(shù)據(jù)解碼和分析方面向前邁進(jìn)的人而特別設(shè)計(jì)的,它提供了一種實(shí)用且可行的解決方案。

同步數(shù)據(jù)采集

 

 

刺激性

任何類型的刺激
圖像,視頻,體驗(yàn),應(yīng)用程序,VR / AR設(shè)置...

第三方軟件刺激
ErgoLAB,Eprime,Tobii Pro Lab ...

實(shí)時應(yīng)用

兼容LabStreamLayer
BCI200,OpenVie,NeuroPype ...

實(shí)時API

數(shù)據(jù)分析

原始數(shù)據(jù)到第三方

Matlab(EEGLAB,BCILAB等)

Python(MNE等)

Neuroguide WE

其他

 

高級分析工具(可選(

軟件分析工具

情緒和認(rèn)知指標(biāo)

Excel導(dǎo)出(單個和匯總)

多媒體資料

 

技術(shù)指標(biāo)

人類行為指標(biāo)

情緒生物識別

價,情緒激活,情緒影響

認(rèn)知生物識別

注意,記憶,參與。

行為指標(biāo)

鼠標(biāo)跟蹤,時間。

眼動追蹤指標(biāo)

視覺注意,注視

內(nèi)隱動機(jī)和行為

隱式聯(lián)想響應(yīng)測試(IAT和啟動)

IPS指標(biāo)

位置追蹤

 

指標(biāo)表示

個人

對于生物識別,時間和隱式關(guān)聯(lián):條形圖和統(tǒng)計(jì)差異表。對于眼睛跟蹤,鼠標(biāo)定位和室位:熱圖,比率圖,時間圖,軌跡圖,感興趣的區(qū)域(*固定時間,花費(fèi)的時間,比率,重新訪問,平均固定時間,以前的固定時間)和匯總的固定視頻。

組合式

情感定位圖,結(jié)合指標(biāo)的視頻,刺激,攝像頭和麥克風(fēng)(匯總,按細(xì)分或個人匯總)。

 

輸出格式

檔案

所有CSV格式的生物特征識別(單獨(dú)和匯總),與第三方工具(Matlab,Excell等)兼容

可視化軟件

生物識別可視化軟件。分析間隔和感興趣的區(qū)域。

多媒體資料

包含陳述和視頻以進(jìn)行報(bào)告。

 

產(chǎn)品咨詢

留言框

  • 產(chǎn)品:

  • 您的單位:

  • 您的姓名:

  • 聯(lián)系電話:

  • 常用郵箱:

  • 省份:

  • 詳細(xì)地址:

  • 補(bǔ)充說明:

  • 驗(yàn)證碼:

    請輸入計(jì)算結(jié)果(填寫阿拉伯?dāng)?shù)字),如:三加四=7

人因工程與工效學(xué)

人機(jī)工程、人的失誤與系統(tǒng)安全、人機(jī)工效學(xué)、工作場所與工效學(xué)負(fù)荷等

安全人機(jī)工程

從安全的角度和著眼點(diǎn),運(yùn)用人機(jī)工程學(xué)的原理和方法去解決人機(jī)結(jié)合面安全問題

交通安全與駕駛行為

人-車-路-環(huán)境系統(tǒng)的整體研究,有助于改善駕駛系統(tǒng)設(shè)計(jì)、提高駕駛安全性、改善道路環(huán)境等

用戶體驗(yàn)與交互設(shè)計(jì)

ErgoLAB可實(shí)現(xiàn)桌面端、移動端以及VR虛擬環(huán)境中的眼動、生理、行為等數(shù)據(jù)的采集,探索產(chǎn)品設(shè)計(jì)、人機(jī)交互對用戶體驗(yàn)的影響

建筑與環(huán)境行為

研究如何通過城市規(guī)劃與建筑設(shè)計(jì)來滿足人的行為心理需求,以創(chuàng)造良好環(huán)境,提高工作效率

消費(fèi)行為與神經(jīng)營銷

通過ErgoLAB采集和分析消費(fèi)者的生理、表情、行為等數(shù)據(jù),了解消費(fèi)者的認(rèn)知加工與決策行為,找到消費(fèi)者行為動機(jī),從而產(chǎn)生恰當(dāng)?shù)臓I銷策略使消費(fèi)者產(chǎn)生留言意向及留言行為

掃一掃,加微信

版權(quán)所有 © 2024北京津發(fā)科技股份有限公司(www.4hu88aa.com)
備案號:京ICP備14045309號-4 技術(shù)支持:智慧城市網(wǎng) 管理登陸 GoogleSitemap