ErgoLAB Interaction手指軌跡分析模塊,是津發(fā)科技依據(jù)人因工程和人-信息-物理系統(tǒng)理論自主研發(fā)的面向多模態(tài)數(shù)字化信息產(chǎn)品“以人為中心"的“人-信息系統(tǒng)交互"評(píng)估產(chǎn)品,可以對(duì)信息產(chǎn)品交互設(shè)計(jì)原型進(jìn)行交互行為分析、可用性測(cè)試、人機(jī)交互評(píng)估、人因設(shè)計(jì)與工效學(xué)評(píng)價(jià),廣泛用于移動(dòng)終端APP應(yīng)用程序、AI人機(jī)智能交互程序產(chǎn)品原型等多類(lèi)型數(shù)字化信息產(chǎn)品的交互行為分析和可用性測(cè)試、人機(jī)交互評(píng)估測(cè)試和評(píng)價(jià)。
用戶可在電腦端與移動(dòng)終端同步進(jìn)行實(shí)驗(yàn)設(shè)計(jì),如設(shè)置刺激分組、呈現(xiàn)順序和切換方式等,可實(shí)時(shí)無(wú)線采集被試在移動(dòng)端與原型交互的眼動(dòng)數(shù)據(jù)和交互數(shù)據(jù)。自動(dòng)高效完成實(shí)驗(yàn)流程
自動(dòng)計(jì)算并識(shí)別所有原型組件信息,點(diǎn)選即可將其為興趣區(qū)域;支持自定義繪制任何形狀和位置的興趣區(qū)。實(shí)驗(yàn)設(shè)計(jì)階段與結(jié)果回放階段均可進(jìn)行編輯,交互數(shù)據(jù)自動(dòng)統(tǒng)計(jì)并輸出可視化報(bào)告。
基于任意類(lèi)型的信息化終端載體進(jìn)行產(chǎn)品與原型的可用性測(cè)試,對(duì)于同一產(chǎn)品應(yīng)用于不同尺寸的顯示載體時(shí),用戶只需繪制一次興趣區(qū),系統(tǒng)將自動(dòng)調(diào)節(jié)用于所有尺寸的顯示載體進(jìn)行交互數(shù)據(jù)的計(jì)算與分析。
基于任意類(lèi)型的信息化終端載體進(jìn)行應(yīng)用程序與原型的測(cè)試分析,可直接識(shí)別原型中的所有組件并以像素位置進(jìn)行計(jì)算,實(shí)現(xiàn)在交互測(cè)試過(guò)程中的實(shí)驗(yàn)設(shè)計(jì)階段、結(jié)果回放以及數(shù)據(jù)分析階段,均能保證刺激材料不失真,客觀還原所有交互設(shè)置及數(shù)據(jù)反應(yīng)。
直觀分析用戶的重點(diǎn)交互區(qū)域,提供可視化熱圖、軌跡圖等分析方法。
提供相關(guān)興趣區(qū)連帶分析功能,可將多個(gè)目標(biāo)興趣區(qū)自定義導(dǎo)入序列,包括對(duì)AOI的分析和對(duì)AOI組別的分析,可用于探究一個(gè)興趣區(qū)的內(nèi)容是否促使被試查看另一個(gè)興趣區(qū)的序列性關(guān)系。
提供分析不同記錄相同片段間,被試訪問(wèn)AOI順序的相似度,并計(jì)算矩陣相似度系統(tǒng)。有助于判斷記錄間操作的一致性與合規(guī)性。
實(shí)時(shí)記錄各種刺激材料的交互數(shù)據(jù),如頁(yè)面瀏覽、跳轉(zhuǎn)及切換過(guò)程中發(fā)生的人機(jī)交互行為以及所有AOI的數(shù)據(jù)統(tǒng)計(jì)。
ErgoLAB人機(jī)環(huán)境同步云平臺(tái)可人-機(jī)-環(huán)境多維度數(shù)據(jù)的同步采集與綜合分析,包括眼動(dòng)追蹤、生理測(cè)量、生物力學(xué)、腦電、腦成像、行為、人機(jī)交互、動(dòng)作姿態(tài)、面部表情、主觀評(píng) 價(jià)、時(shí)空行為、模擬器、物理環(huán)境等,為科學(xué)研究及應(yīng)用提供完整的數(shù)據(jù)指標(biāo)。平臺(tái)可完成完整的實(shí)驗(yàn)和測(cè)評(píng)流程,包括項(xiàng)目管理-試驗(yàn)設(shè)計(jì)-同步采集-信號(hào)處理-數(shù)據(jù)分析-人工智能應(yīng)用-可視化報(bào)告,支持基于云架構(gòu)技術(shù)的團(tuán)體測(cè)試和大數(shù)據(jù)云管理。