簡要描述:產(chǎn)品概述:ErgoAI® 肌電交互實訓(xùn)設(shè)備,是面向新工科領(lǐng)域與未來智能產(chǎn)業(yè)的核心教學(xué)工具,聚焦生物電信號采集與智能交互技術(shù)前沿。設(shè)備以高精度肌電信號(EMG)采集為基礎(chǔ),融合傳感器陣列與先進(jìn)信號處理算法,構(gòu)建從原始肌電信號捕捉、特征提取,到模型訓(xùn)練、智能設(shè)備控制的完整技術(shù)鏈路。

產(chǎn)品中心
詳細(xì)介紹
| 品牌 | 其他品牌 | 產(chǎn)地 | 國產(chǎn) |
|---|
設(shè)備名稱 | 設(shè)備介紹 |
ErgoLAB全身表面肌電測試儀 | 全身表面肌電能夠同時采集多個肌肉群及全身的肌電信號,可進(jìn)行小肌群高密度信號檢測(2~8通道)、大肌群多通道信號檢測(8~16通道)、以及全身表面肌電信號檢測(16通道及以上),可搭配動作捕捉傳感器,通過多個電極進(jìn)行復(fù)雜運(yùn)動的肌肉數(shù)據(jù)采集實訓(xùn)教學(xué)。 |
ErgoLAB單通道表面肌電測試儀 | ErgoLAB無線單通道表面肌電測試系統(tǒng),用于測量和記錄單點的肌群活動時產(chǎn)生的肌肉信號,信號源為1通道,將傳感器直接粘貼于待測部位即可。 |
肌電交互邊緣計算終端 | 搭載邊緣計算終端和智能算法模型,基于肌電數(shù)據(jù)對人員狀態(tài)進(jìn)行實時監(jiān)測預(yù)警,同時可以結(jié)合肌電交互智能模型,靈活配置控制外設(shè),滿足多樣化實訓(xùn)教學(xué)場景 |
l 基于自動識別/自定義整段、場景、事件及片段分析,滿足對時間點或時間段內(nèi)數(shù)據(jù)趨勢變化的精確分析。
l 數(shù)據(jù)處理與歸一化:對原始數(shù)據(jù)進(jìn)行濾波降噪處理,根據(jù)MVC進(jìn)行數(shù)據(jù)歸一化與統(tǒng)計分析。支持提前自定義配置處理參數(shù)或使用系統(tǒng)默認(rèn)參數(shù)進(jìn)行多被試數(shù)據(jù)的批處理功能。
l 數(shù)據(jù)統(tǒng)計與可視化報告:EMG時域分析、頻域分析、交叉序列分析、高級統(tǒng)計分析以及基于EMG信號的狀態(tài)識別模型訓(xùn)練,從不同角度挖掘數(shù)據(jù)信息。
l 搭載肌電設(shè)備邊緣計算終端,支持從模型訓(xùn)練到部署的全流程。.
l 通過肌電控制小車、機(jī)械臂、無人機(jī)等任務(wù)交互設(shè)備。
學(xué)生通過該平臺,可系統(tǒng)掌握肌電信號分析、人機(jī)協(xié)同控制、康復(fù)機(jī)器人開發(fā)等關(guān)鍵技術(shù),深度參與智能假肢控制、工業(yè)人機(jī)協(xié)作等創(chuàng)新應(yīng)用實踐。平臺配套階梯式實訓(xùn)課程與項目化教學(xué)資源,將理論教學(xué)與實操訓(xùn)練緊密結(jié)合,助力學(xué)生快速成長為掌握肌電交互核心技術(shù)、適應(yīng)產(chǎn)業(yè)需求的創(chuàng)新型人才 。
ErgoLAB多模態(tài)同步方案:
整體概述
ErgoLAB人機(jī)環(huán)境同步平臺采用多模態(tài)數(shù)據(jù)時鐘同步技術(shù),平臺可完成完整的實驗和測評流程,包括項目管理-試驗設(shè)計-同步采集-信號處理-數(shù)據(jù)分析-人因智能評估-可視化報告,支持基于云架構(gòu)技術(shù)的團(tuán)體測試和大數(shù)據(jù)管理。
ErgoLAB人機(jī)環(huán)境同步平臺采用主客觀結(jié)合多模態(tài)數(shù)據(jù)同步采集與多維度驗證的方法,數(shù)據(jù)實時同步種類包含大腦認(rèn)知數(shù)據(jù)(EEG/BCI腦電儀與腦機(jī)接口邊緣計算設(shè)備、fNIRS/BCI近紅外腦成像儀),視覺數(shù)據(jù)(Eyetracker眼動儀與視線交互系統(tǒng)),生理數(shù)據(jù)(生理儀含:GSR/EDA、EMG、ECG、EOG、HRV、RESP、TEMP/SKT、PPG、SpO2),行為觀察、肢體動作與面部表情(基本情緒、情緒效價、微表情等)數(shù)據(jù)、生物力學(xué)數(shù)據(jù)(拉力、握力、捏力、壓力…),人機(jī)交互數(shù)據(jù)(包含人機(jī)界面交互行為數(shù)據(jù)以及對應(yīng)的鍵盤操作,鼠標(biāo)點擊、懸浮、劃入劃出等;移動終端人機(jī)交互行為數(shù)據(jù)以及對應(yīng)的手指軌跡操作行為如點擊、縮放、滑動等;VR終端界面人機(jī)交互行為數(shù)據(jù)及對應(yīng)的雙手操作拾取、丟棄、控制,VR空間行走軌跡)、以及多類型時空行為軌跡數(shù)據(jù)采集(包括室內(nèi)、戶外、以及VR環(huán)境不同時空的行走軌跡、行車軌跡、訪問狀態(tài)以及視線交互、情感反應(yīng)、交互操作行為等數(shù)據(jù)實時同步采集)、以及作業(yè)空間及作業(yè)環(huán)境數(shù)據(jù)(溫度、濕度、噪音、光照、大氣壓、濕度、粉塵等)等客觀量化數(shù)據(jù);為科學(xué)研究及應(yīng)用提供完整的數(shù)據(jù)指標(biāo)。

將人工智能技術(shù)引入人因工程研究工具,人因工程行業(yè)更加深度,使得實驗環(huán)境不會受限于某一種設(shè)備或數(shù)據(jù)指標(biāo),采集分析不同典型行業(yè)或?qū)W科專業(yè)的人-機(jī)-環(huán)境系統(tǒng)交互過程中自然狀態(tài)下的人類行為數(shù)據(jù),獲取更接近真實人員狀態(tài)的數(shù)據(jù)。平臺還提供覆蓋科研實驗全流程的功能模塊,包括項目管理、實驗設(shè)計、同步采集、數(shù)據(jù)分析、綜合統(tǒng)計和可視化報告,結(jié)合ErgoAI人因智能邊緣計算平臺為多模態(tài)人機(jī)環(huán)境研究提供一站式人因工程+人工智能解決方案。以ErgoLAB人機(jī)環(huán)境同步平臺和ErgoAI人因智能邊緣計算平臺為核心的多模態(tài)同步人因智能解決方案大大提高了實驗結(jié)果的信效度,同時節(jié)省了研究的人力、物力、時間,提高了研究與測評的整體效率。

基于ErgoAI人因智能多元時序算法底座與人因工程人機(jī)環(huán)境數(shù)據(jù)庫,構(gòu)建人員特定狀態(tài)的預(yù)訓(xùn)練模型,配合高靈活度的訓(xùn)練方案管理功能,用戶能夠在統(tǒng)一環(huán)境中高效構(gòu)建和優(yōu)化模型。 從而實現(xiàn)對人員狀態(tài)的精準(zhǔn)實時評估與預(yù)警,如負(fù)荷狀態(tài)、應(yīng)激狀態(tài)、疲勞狀態(tài)、情景意識和注意能力等。

Kingfar公司介紹:
北京津發(fā)科技股份有限公司(津發(fā)科技)是專精特新“小巨人" ,新一輪第一批專精特新重點“小巨人"、知識產(chǎn)權(quán)優(yōu)勢企業(yè)、高新技術(shù)企業(yè)、科技型中小企業(yè);旗下包含北京人因智能工程技術(shù)研究院和北京人因工程設(shè)計院有限公司等新型科技研發(fā)機(jī)構(gòu),并聯(lián)合共建了北京市企業(yè)技術(shù)中心、北京本科高校產(chǎn)學(xué)研深度協(xié)同育人平臺、蘇州市重點實驗室、湖南省工程實驗室、山東省工程研究中心等多個科技創(chuàng)新平臺。
津發(fā)科技承擔(dān)和參與了多項國家重點研發(fā)計劃、工信部高質(zhì)量發(fā)展專項、國家自然科學(xué)基金等課題基金項目。擔(dān)任全國信標(biāo)委XR擴(kuò)展現(xiàn)實標(biāo)準(zhǔn)化工作組副組長單位,工信部元宇宙標(biāo)準(zhǔn)化工作組關(guān)鍵技術(shù)組聯(lián)合組長單位;主持和參編國際、國家、行業(yè)和團(tuán)體標(biāo)準(zhǔn)30余項。
津發(fā)科技創(chuàng)新研發(fā)了國產(chǎn)化自主可控的人因工程與人因智能邊緣計算系列信創(chuàng)產(chǎn)品與技術(shù);通過了歐洲CE、美國FCC、歐盟ROHS,以及ISO9001、ISO14001、ISO45001等多項國際認(rèn)證。累計榮獲30余項省部級新技術(shù)新產(chǎn)品認(rèn)證和多項省部級科學(xué)技術(shù)獎勵;全球申請發(fā)明磚利超過530項,已授權(quán)120余項國際和國家發(fā)明磚利、150余項國際和國家注冊商標(biāo)、130余項國家軟件著作權(quán);已服務(wù)全國高等院校和裝備科技工業(yè)科研院所應(yīng)用示范,并已支撐科研學(xué)者和科技工作者發(fā)表中英文學(xué)術(shù)論文超過1100篇。
郵件聯(lián)系我們:sales@kingfar.cn
掃一掃,關(guān)注微信
電話
微信掃一掃