在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

一文簡析汽車駕駛艙內多模態人機交互

工程師鄧生 ? 來源:智能汽車開發者平臺 ? 作者:Quentin Portes ? 2022-10-08 11:23 ? 次閱讀

摘要

如今,每一個汽車制造商都在思考移動的未來。電動汽車、自動駕駛汽車和共享汽車是最具潛力的機會之一。自動駕駛和共享汽車缺乏權威性,引起了不同的問題,其中一個主要問題是乘客安全。為了確保安全,必須設計能夠理解乘客之間的互動和可能的沖突的新系統。它們應該能夠預測汽車駕駛艙的關鍵情況,并提醒遠程控制器采取相應的行動。

為了更好地了解這些不安全情況的特點,我們在真實的車輛環境中記錄了一個音頻視頻數據集。我們記錄了22名參與者在三個不同的場景("好奇"、"有爭議的拒絕 "和 "沒有爭議的拒絕")下,司機和乘客之間的互動。我們提出一個深度學習模型來識別汽車駕駛艙中的沖突情況。我們的方法達到了81%的平衡準確性。實際上,我們強調了結合多種模式,即視頻、音頻和文本以及時間性的重要性,這是在場景識別中進行如此準確預測的關鍵。

I.簡介

對話、互動、情緒和情感分析是了解人類的關鍵。監測這些元素可以解決行業問題,如社交媒體平臺上的敏感內容過濾或改善人機界面理解。對于汽車行業來說,一個重要的問題是汽車駕駛艙分析。事實上,它將有助于回答與汽車新用途(如社交、車輛共享、自動駕駛汽車等)相關的各種安全問題。

更確切地說,提出了兩個安全問題:由于沒有司機在場而缺乏權威,以及與陌生人共享車輛。這些問題可能會導致嘲諷、欺凌,甚至在最糟糕的情況下,導致攻擊。這些安全問題必須被預見和避免。涉眾者必須在這些類型的情況下采取主動措施。

為此,可以通過攝像頭和麥克風分析乘客的互動。視頻、音頻和文本模式可以提供信息,這些信息一旦被融合,就可以高度準確地預測緊張局勢的發生。 深度學習的各種進展和變壓器模型的成功代表了在這方面的一個新的重大進展。BERT模型(英語)、Roberta和CamemBERT模型(法語)提高了問題回答、文本總結任務等方面的全局性能。

最近的工作也將轉化器模型應用于文本對話分析。這些方法仍然以文本模式為基礎。

今天,由于3D-CNN(C3D)[5]和Residual 3D-CNN(R3D),視頻分析的模型能夠很好地捕捉時空信息。 關于音頻分析,最常見的方法是用開放的SMILE等框架在一個短滑動窗口中提取音頻特征。然后,它們通常被送入一個像LSTM這樣的順序模型。

為了提高性能,一個直觀的策略是將音頻視頻分析與音頻流中的轉錄文本相結合。這種方法比單獨的視頻和音頻模式包含更多的信息。 汽車領域本質上是一個嘈雜的環境:變化的燈光、陽光照射、道路振動或其他駕駛汽車產生的音頻噪音等都是可以降低模型精度的干擾。多模態可以提高交互分析的整體性能,并可以增加模型的穩健性。

然而,在多模式交互分析中發現的三個汽車挑戰如下:

● 公共現場數據集的可用性。

● 視頻、音頻和文本等非異構形式的融合。

模擬人類互動的復雜性。

實際上,據我們所知,文獻并沒有同時處理所有這些問題。我們將在下文中討論它們。

鑒于這些見解,本文著重于為行業應用記錄可開發的數據集,并設計第一種方法來展示多模態對人類交互解釋的的好處。與文獻的不同之處在于我們在車輛背景下的真實數據集和我們的多模式交互策略。

第二節介紹了關于多模態對話分析的文獻回顧。在第三節中,詳細介紹了記錄我們自己的數據集及其規格的協議。第四節詳細介紹了多模態方法,以進行級別交互分類。

II.相關工作

在文獻中,大部分的對話、互動和溝通分析都是基于文本的。最近的調查,如多模態的新方法,顯示了利用不同渠道的信息的好處。每個多模態模型在情感分析領域的表現都優于單模態架構的模型。 這些方法都是基于特征層面的融合,從三種不同的模式,即視頻、音頻和文本中提取特征。

然后,應用一個復雜的后期融合策略。 我們發現最近有一些關于多模態對話分析的工作。他們專注于對話中的情感和情緒分析。所有這些工作都是基于公共數據集如MOSI。 層次注意網絡(HAN)架構在文檔分析上與Transformer的表現非常好。最近的方法,如[3],正在使用Transformer進行對話分析。由于有口語文本和一個小數據集,HAN方法似乎是最適合的。

在交互分析中,說話人以前的行為對于更準確地理解其現在和未來的行為至關重要。如今,深度學習架構無法處理大量的視頻。在我們的方法中使用全狀態的時間模型將能夠在場景持續時間內跟蹤信息。

在駕駛艙乘客互動分析的背景下,這種調查是邊緣化的,因此,仍然是一個科學挑戰。

III.車輛中的多模態對話語料庫

本節詳細介紹了用于記錄多模態數據集的協議。主要目的是對三種不同類型的互動進行分類。第一種類型是 "正常/好奇 "類,兩個參與者進行了友好的討論。第二種類型的互動是 "有爭議的拒絕",即后排乘客誠懇地拒絕了司機的提議。最后一種是完全拒絕司機的提議,被稱為 "沒有爭論的拒絕"。

A.數據集的目的

數據集旨在記錄汽車駕駛艙內兩名乘客之間的互動。一名司機和一名后座乘客(右側)正在扮演預先設定好的場景。參與者是沒有任何表演技能的法國志愿者。 每個參與者的錄音會話持續7分鐘,將每個會話分為四個連續階段。本文只分析了表演階段: 1) 沉默的60秒, 2) 180s的演戲。 3) 沉默的60秒, 4) 與車載信息娛樂系統(IVI)進行120s的互動。 在表演階段,司機始終扮演著堅持不懈的賣家這一角色,而乘客則扮演以下三種行為中的一種: ● "對司機的提議感到好奇" . ● "用論證的方式拒絕該提議" ● "斷然拒絕該提議" . 司機對所發生的情況一無所知,也從不事先知道乘客的行為。他經歷了這種情況。由于協議的原因,我們選擇了堅持不懈的賣家場景,而不是攻擊性場景。

b4a663a8-427b-11ed-96c9-dac502259ad0.png

圖1.記錄裝置的輸入視圖

事實上,如果愿意扮演現實中的攻擊性場景,迫使不同的受試者遵循一個心理協議的設置,將是非常有限制性的。

B.采集設置

對于這樣的記錄場景,我們配備了一輛Dacia duster汽車。錄音裝置由6個攝像頭、4個麥克風和安裝在汽車引擎蓋上的一個屏幕組成。該屏幕位于駕駛員視野前方,乘客也可以看到。它有兩個目的:第一個目的是指示他們何時必須改變行動階段。第二種是通過流媒體播放道路視頻來吸引司機的注意力,因為汽車是靜止的。所有與汽車的交互都是可用的(車輪、變速桿等)。

最后,在錄音過程中播放任何環境聲音,如發動機、大自然、音樂。設置如圖1所示。

1)視頻流:機載相機的分辨率、視角和鏡頭都不同。我們的方法是對2號攝像機(ID=C2,見圖2)給予特權。它是一個手動對焦的攝像機,記錄分辨率為1920×1080像素。它的位置是為了有一個正面的視角,見圖1。 由于天花板上有燈,我們設置了攝像機的可用參數,以獲得車內的最佳圖像質量。

2)音頻流:四個相同的傳聲器Brel&Kjaer預極化1/4英寸的4958型被設置在不同的車輛區域記錄了音頻流。我們的方法只使用天花板上的驅動器麥克風(ID = M1見圖2)。 采樣鏈內的每個傳聲器都用Brel&Kjaer 4231型傳聲器校準器進行校準,所有的輸入信號電平設置為-18dB/1kHz。我們將所有視頻流保存為RAW格式(無實時壓縮)。音頻流也以RAW格式保存,以不損失質量。

C.數據集的預處理和標注

由于錄音設置的配置,后期處理工作是無法避免的。事實上,錄音過程中產生了視頻和音頻流之間的時間延遲。

圖2.2號攝像機的視角 為了使六個視頻和四個音頻流同步,我們使用了Adobe premiere pro。最后,這些視頻被壓縮成mp4格式。因為它具有最好的圖像和燈光質量,所以在我們的實驗中只使用2號攝像機(見圖2)。所有其他相機將被考慮用于未來的調查。

為了獲得三種模式的數據集,我們從音頻流中轉錄文本。經過一些實驗,避免使用自動語音轉錄(ASR),如Amazon transcribe或Google speech to text,因為它們的單詞錯誤率非常高。在這種口頭語境中,有大量的重復、感嘆詞和孤立的詞語。此外,這些句子的結構可能很奇怪(不一定是主謂互補)。

在這種情況下,ASR的表現是不充分的。 ELAN1軟件被用來轉錄數據集。它是一個手動注解工具,旨在為視頻和音頻數據創建、編輯和可視化注解。將每個演員的音頻流轉錄成語料,從而產生了2026個語料的總數。作為提醒,語詞是一個連續的語音單位,以明確的停頓開始和結束。轉錄稿由一名同行審核。

為了節省時間,與其他數據集相比,我們決定在場景層面進行注釋,因為其他數據集的注釋是在語料層面。這個標簽是在錄音開始時為整個表演序列確定的。這種選擇的后果是,如果被試者扮演的角色非常糟糕,就會引起錯誤的標簽。我們將在定性分析中再來討論這些問題(見V-B節)。

D.語料庫的規范和理解

數據集包括22名參與者(4名女性/18名男性)的44個視頻。每個參與者按隨機順序扮演一次司機和一次乘客。所有的互動加起來,每個視頻大約有46個句子,總共有2026個句子。它總共代表了21 966個單詞,包含2082個獨特的單詞。總共有1小時48分鐘的視頻,即54分鐘的好奇場景,27分鐘的有爭議的拒絕場景,27分鐘的無爭議的拒絕場景。我們自愿在記錄的數據量中加入不對稱性,以考慮到在真實情況下,好奇類將是通常的行為。
b6ed1ce2-427b-11ed-96c9-dac502259ad0.png

當進行行為或情感分析時,說話者的依賴性是一個關鍵點。這個想法是為了評估算法在處理新說話者時的泛化能力。為此目的,通過選擇20名受試者進行培訓和2名受試者進行驗證,生成了所有不同的培訓/驗證文件。分別代表80%的訓練數據,代表20%的驗證數據。 在實踐中觀察到視頻模式比音頻和文本模式的信息量要少。

在汽車環境中,由于安全帶的作用,乘客大多是靜止的,而司機則專注于駕駛任務,限制了頭部的運動。在基于多模態數據集的情感或對話分析中也能觀察到這種見解。見[19]、[14]的結果。 當對數據集的時間進行統計分析時,可以發現司機和乘客行為的有趣模式。

由于人類并不是每隔10秒就會改變他們的情緒或行為,我們在15秒的分析窗口中繪制特征。這個Github link2 提供了繪制的圖表。 平均交談、平均持續時間和平均沉默繪圖對應這15s內數值的平均值,對于眼神接觸和乘客能見度我們計算頻率。這個15s只是為了統計分析的目的。大于40s的值會使曲線呈平面狀,沒有可能進行推導。

本地描述符圖的設計靈感來自于[20]。 在檢查了音頻視頻流并分析了圖表后,我們能夠專注于以下手工制作的功能。一共計算了7個值,其中4個來自兩位乘客的平均談話和平均持續時間,剩下的3個是平均沉默度、眼神接觸和乘客能見度,即:

● 平均交談。在一個正常的對話中,平均說話量往往在參與者之間公平分配。

● 平均持續時間。它是指講話的平均時間。作為對平均說話時間的補充,講話的長度是一個很好的指標,表明誰在主導對話,誰想結束對話。 ● 平均沉默。平均沉默度是衡量對話強度的指標。沉默越多,討論就越差,并趨向于拒絕的情況。

● 眼睛接觸。它是指司機看向內部后視鏡的頻率。目光接觸是與人交談時的一種自然行為。由于司機專注于道路和駕駛任務,他沒有其他選擇,只能看后視鏡以看到對話者。

● 乘客能見度。它是指乘客被攝像機看到的頻率。這是一個很好的指標,表明乘客對談話的興趣。當我們參與討論時,會自然地縮短與對話者的距離。在汽車討論的語境中,后排乘客向前推進到兩個前排座位之間。

在視頻流中,它的結果是看到(或看不到)后排乘客。 關于文本模式,我們專注于詞的頻率分布和TF-IDF[21],以確定是否有與特定場景相關的詞的特定分布。這些方法在文本挖掘和分析中非常普遍。 我們計算兩個相反類別("好奇 "和 "未辯駁的拒絕")之間的絕對TF-IDF delta值,得到以下10個最重要的delta詞:je, pas, vous, ouais, tu, non, moi, oui, donc和ah interjection。文本模式其實并不豐富,只有2082個不同的詞。

由于受試者不是真正的演員,我們觀察到兩個階段的過渡。第一階段是設置階段:在每個場景的前30秒,受試者不能堅持或斷然拒絕導致 "糟糕的演技"。第二個是在最后:受試者的靈感耗盡,在每個場景的最后20秒內造成呼吸短促。

IV.多模態分析

在完成記錄和注釋數據集的過程后,我們設計了一個基于視頻、音頻和文本分析的多模態方法。我們的任務是設計一個模型,能夠將視聽流分為三個類別,對應于三種情況("好奇"、"有爭辯的拒絕"、"無爭辯的拒絕")。

A.視頻和音頻分析

我們的方法包括為音頻和視頻模式提取高水平的手工制作的特征。在視頻分析中,汽車背景的優勢在于乘客是靜態的??梢岳眠@一點來了解乘客在視頻中的位置。如果在橫軸的中間切開畫面,司機在右邊,后排乘客在左邊。為了提取 "司機眼神接觸 "的特征,使用openCV作為人臉提取器,然后使用hyperface來提取每一幀上人臉的歐拉角。

最后,在Yaw和Pitch軸上的K-means聚類算法確定了司機在看后視鏡時的幾個歐拉角(圖3中的綠色)。傾斜度不提供額外的信息。 對于后座乘客的能見度,再次使用openCV在每一幀上檢測后座乘客的臉。 然后,在語料層面重新調整音頻和視頻特征,以便在所有三種模式完全一致的情況下向神經網絡模型提供信息。

b7044ec6-427b-11ed-96c9-dac502259ad0.png

圖3.駕駛員頭部方向的聚類推斷聚類推斷 我們計算了上述所有特征的皮爾遜相關矩陣,如公式(1)中所規定的。其目的是通過強調特征對X和Y之間的線性相關性來證實對這七個手工制作的特征的選擇。

b73d4a96-427b-11ed-96c9-dac502259ad0.png

其中cov是協方差,σ指X的標準差,σx是Y的標準差,μ是X的平均值,μx是Y的平均值,i指加權平均的廣義。 表二和表三顯示了音頻和視頻特征之間明顯的相關性。有趣的關聯是司機眼神接觸的增強和乘客能見度的關聯。沉默的平均值也與眼神接觸特征的減少相關。這種相關性證明了在人際交往中視頻和音頻之間存在著聯系。

我們為這七個特征定義了以下縮寫。Msp指的是平均發言,Mdur指的是平均持續時間,nbrE指的是交流次數,eyeC指的是眼神接觸,Pvisi指的是乘客可見度,Nsil指的是沉默的次數。 最后,這七個特征被送入多層感知器(MLP)。它被設計為有兩個隱藏層和一個輸出層來生成預測。一些評估顯示,這七個特征帶來了最好的性能。

b754afb0-427b-11ed-96c9-dac502259ad0.pngb76aaec8-427b-11ed-96c9-dac502259ad0.png

B.文本分析

關于文本分析,面臨三個主要問題。一個是由于使用了法語。事實上,每一個框架和預訓練的模型,如Spacy,NLTK,BERT都很適合英語分析,但在法語上的表現非常糟糕。對于法語來說,存在少數替代方案,但它們非常有限,因為它們是基于古老或書面的法語。

因此,我們在名為Camen- BERT的轉化器模型上獲得了糟糕的結果,該模型是在139個維基百科文本中訓練出來的。文本的貧乏使得基本的方法(TF-IDF和嵌入+LSTM模型)是不可行的。 取代這些不精確的模型,我們實現了層次注意網絡(HAN),它最初是為文本文檔分類器設計的。選擇這個架構是因為它有能力關注單詞和句子兩個層面,這要歸功于它的注意力機制。

這個神經網絡是由兩個階段建立的:

● 注意力神經網絡集中在單詞層面,

● 側重于句子層面的注意力神經網絡。 從詞的層面上提取的特征為另一個層面提供支持。 我們修改了原來的實現,將句子層的基本GRU層替換為滿狀態GRU。這種修改使模型能夠隨著時間的推移跟蹤隱藏的狀態,從而提高全局性能。 這個模型的超參數是根據經驗調整的:

● 嵌入層的輸入是數據集中代表度最高的500個詞。輸出是一個大小為100的特征向量。

● 64個單元的單詞和句子GRU。

● 一個大小為100的向量,用于單詞模型的嵌入層的輸出。

C.線索融合

本節詳細介紹了基于音頻、視頻、文本和時間演變的后期融合方法。晚期融合是在非異質模態情況下的通常策略。圖4描述了模型。綠色部分是指從所有模式中提取特征,橙色部分是指這些特征的時間融合。 融合后,從三種模式中提取的所有特征。前32個特征是利用HAN模型從文本中提取的,剩下的4個特征是從III-D節中定義的7個手工制作的特征中提取的:司機和乘客的平均談話時間和平均持續時間,沉默的平均值,乘客的能見度和司機的眼神接觸。


b7b3a592-427b-11ed-96c9-dac502259ad0.png

圖4.我們的融合模型

它的結果是,在串聯之后,形成一個大小為36的向量。然后,這個向量被送入一個名為GRU的兩個全狀態時空循環神經網絡(RNN)的堆棧。關于RNN的完整評論見[8]。然后,給出一個全連接(FC)層提供信息,以進行情景預測。全狀態模型的概念將在下一節詳述。

D.實施細節

當研究多模態和時間背景時,一些自由參數、模型和訓練過程是再重要不過了。 根據經驗,滑動分析窗口被設定為T=35,因為它導致了最佳結果。 各窗口之間的上下文是提高模型精度的關鍵。特別是在對話中,情景會發生變化,捕捉這種變化會提供很多信息。

作為人類,如果我們有多個按時間順序排列的分析窗口,就比打亂順序的分析窗口更容易理解情況。我們通過使用全狀態的GRU來實現這一概念。RNN只記得在一個序列中發生的事情。一個序列可以是一組句子,一組特征,等等。在每個通過的序列的初始時間點,隱藏狀態被初始化并設置為0,這意味著沒有以前的信息。

在該方法中,用前一個分析窗口的隱藏狀態來取代零初始化。在融合中應用,它可以跟蹤視頻從開始到結束的所有特征的演變。 全狀態的RNN必須逐個視頻進行訓練。每個視頻在?y上被切割成大約180/35=5個子序列視頻片段。然后,它們被按時間順序逐一送入模型。這種訓練方法只產生了44*5=220個訓練樣本。

為了增加訓練集,我們轉移了分析窗口的起點,以產生400個樣本。這種移位在每個視頻上進行四次,在每次迭代中,分析窗口的起點被移位10s。 如前所述,數據集的限制迫使我們丟棄訓練樣本的前30秒。在訓練和驗證階段,我們會刪除這些文件。 為了訓練多模態模型,我們使用預訓練技術。HAN模型首先被訓練了大約80個歷時。

然后,當它達到最佳精度點時,就被保存起來。最后,在多模態訓練階段的開始,保存的HAN模型被加載以初始化多模態模型的HAN權重。沒有這種方法,多模態模型將無法銜接。除了最后一個FC層之外,凍結加載模型的權重也被考慮,但它會導致較差的性能結果。 由于正在處理一個多類問題,所以使用交叉熵損失,其定義如公式(2)。


b7d06272-427b-11ed-96c9-dac502259ad0.png

其中y?是模型對C類的輸出分數。

V.評估和相關分析

首先,本節介紹定量評估。其次,提出了一個定性的分析,并給出了一些預測。

A.定量評估

為了訓練和驗證我們的模型,隨機產生了五種不同的訓練/驗證文件。每次,將數據集分別分成80%(18名參與者)和20%(4名參與者),用于訓練和驗證階段。使用平衡精度作為衡量標準來評估我們的模型。平衡準確率的定義見公式(3)。當在每個類別中沒有平衡的樣本數量時,它是強制性的。
b7ef04b6-427b-11ed-96c9-dac502259ad0.png

它是每個類i的召回分數的宏觀平均數,其相關權重i相對于其真實類yi的反向流行率。y?i是樣本i的推斷值。

b81477f0-427b-11ed-96c9-dac502259ad0.png

表四總結了結果。音頻和視頻特征獲得了60%的平衡準確率,考慮到模型的大小和特征數量的限制,這是很有希望的。

b82590d0-427b-11ed-96c9-dac502259ad0.png

圖5.平衡精度與時間的關系實例

文本模型執行了70%的平衡精度。該融合方法導致了良好的結果,因為與純文本模式相比,它提高了11%的平衡準確性。標準差是由交叉驗證策略引起的五個標準差的平均值。 圖5顯示了一個驗證集的例子。圖中的指標是隨時間變化的平衡精度。更具體地說,它是對窗口T中的時間t存在的文件的平衡準確性。當模型考慮到視頻的90%時,它能夠以99%的準確率預測類別。

B.定性評估

我們恢復所有被錯誤分類的文件,以實現對方法正確理解。 得出了以下結論。主要的限制在于數據集部分,受試者有時不能按照要求的行為發揮他們的作用。駕駛艙環境也是視頻模式的一個限制,因為乘客在這個環境中大部分時間是靜止的,限制了視覺信息。其余的誤差是由于模型的錯誤分類造成的。我們期望 "有爭論的拒絕 "類別的數據分布在其他兩個類別的中間。該模型有時很難將 "有爭論的拒絕 "歸入正確的類別。見圖6中的混淆矩陣。

另一個導致錯誤分類的問題是一些受試者的糟糕演技。例如,一些受試者在拒絕場景中的表演階段中笑場?;蛘咭粋€受試者在回頭看后排乘客時表現得很反常。

VI.結論和未來工作

本文描述了一個真實車輛環境下的多模態交互數據集。用該模型得到的性能是很有希望的。多模態和全狀態RNN方法顯著提高了性能。

b86db036-427b-11ed-96c9-dac502259ad0.png

圖6.混淆矩陣的例子

通過5個不同的交叉驗證集,我們得到了81%的最終平衡精度。 未來的工作將按以下方式進行:將設計一個新的端到端模型來攝取視頻和音頻數據,而無需手工制作過程。它將遵循本文提出的方法。然后,我們將在考慮到計算資源的情況下,在真正的汽車嵌入硬件中實現我們兩種方法中最好的一種。




審核編輯:劉清

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 電動汽車
    +關注

    關注

    156

    文章

    12087

    瀏覽量

    231262
  • 控制器
    +關注

    關注

    112

    文章

    16361

    瀏覽量

    178050
  • 汽車駕駛
    +關注

    關注

    0

    文章

    10

    瀏覽量

    8560
  • 轉化器
    +關注

    關注

    0

    文章

    26

    瀏覽量

    10508

原文標題:汽車駕駛艙內多模態人機交互分析

文章出處:【微信號:阿寶1990,微信公眾號:阿寶1990】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    理解模態大語言模型——下

    /understanding-multimodal-llms ? 《理解模態大語言模型 - 上》介紹了什么是
    的頭像 發表于 12-03 15:18 ?129次閱讀
    <b class='flag-5'>一</b><b class='flag-5'>文</b>理解<b class='flag-5'>多</b><b class='flag-5'>模態</b>大語言模型——下

    上海交大團隊發表MEMS視觸覺融合模態人機交互新進展

    驅動的可拉伸觸覺陣列捕捉可形變物體的力學交互)為題,在國際著名期刊《Nature Communications》上發表。 研究背景 觸覺感知是獲取環境信息的重要渠道之,在人機交互、虛擬
    的頭像 發表于 11-28 10:50 ?753次閱讀
    上海交大團隊發表MEMS視觸覺融合<b class='flag-5'>多</b><b class='flag-5'>模態</b><b class='flag-5'>人機交互</b>新進展

    芯??萍糉orceTouch3.0:重塑人機交互新境界

    在追求極致用戶體驗的智能時代,每次技術的革新都是對未來的深度探索。芯??萍?,作為業界領先的芯片設計企業,憑借其ForceTouch3.0技術,正引領著人機交互的變革,為智能手機、智能穿戴、家電乃至
    的頭像 發表于 11-28 09:20 ?204次閱讀
    芯??萍糉orceTouch3.0:重塑<b class='flag-5'>人機交互</b>新境界

    新的人機交互入口?大模型加持、AI眼鏡賽道開啟百鏡大戰

    電子發燒友網報道(/莫婷婷)隨著智能眼鏡的出現,加之AI技術的應用,AI智能眼鏡被認為是下一代人機交互的入口。在今年,不少品牌廠商都推出了AI智能眼鏡新品,包括李未可推出的Meta Lens
    的頭像 發表于 11-21 00:57 ?2841次閱讀
    新的<b class='flag-5'>人機交互</b>入口?大模型加持、AI眼鏡賽道開啟百鏡大戰

    具身智能對人機交互的影響

    在人工智能的發展歷程中,人機交互直是研究的核心領域之。隨著技術的進步,人機交互的方式也在不斷演變。從最初的命令行界面,到圖形用戶界面,再到現在的自然語言處理和語音識別,每
    的頭像 發表于 10-27 09:58 ?339次閱讀

    聚徽-工控體機是如何實現人機交互

    工控體機實現人機交互的方式是多種多樣的,結合搜索結果,我們可以歸納出以下幾種主要的實現方式:
    的頭像 發表于 09-10 09:31 ?358次閱讀

    基于傳感器的人機交互技術

    基于傳感器的人機交互技術是現代科技發展的重要領域之,它極大地推動了人機交互的便捷性、自然性和智能性。本文將詳細探討基于傳感器的人機交互技術,包括其基本原理、關鍵技術、應用領域以及未來
    的頭像 發表于 07-17 16:52 ?812次閱讀

    人機交互界面是什么_人機交互界面的功能

    人機交互界面(Human-Computer Interaction Interface,簡稱HCI或HMI),也被稱為人機界面(MMI)、操作員界面終端(OIT)、本地操作員界面(LOI)或操作員
    的頭像 發表于 06-22 11:03 ?2533次閱讀

    工業平板電腦在人機交互中的應用

    工業平板電腦在人機交互(Human-Machine Interaction,HMI)中扮演著至關重要的角色,它們通過直觀的界面和強大的計算能力,極大地提升了工業環境下的操作效率和用戶體驗。以下是工業平板電腦在人機交互中的具體應用:
    的頭像 發表于 06-18 12:00 ?297次閱讀

    人機交互與人機界面的區別與聯系

    隨著信息技術的飛速發展,人機交互(Human-Computer Interaction,HCI)已成為現代社會不可或缺的部分。人機交互技術,作為實現人與計算機之間有效通信的橋梁,不僅改變了我們
    的頭像 發表于 06-07 15:29 ?1000次閱讀

    芯??萍肌皦喝荻?b class='flag-5'>一SoC”系列芯片打造極致人機交互體驗

    5月7日晚,蘋果春季新品發布特別活動推出全新升級的Apple Pencil Pro,持續深度布局壓力觸控人機交互領域。
    的頭像 發表于 05-11 10:00 ?501次閱讀
    芯??萍肌皦喝荻?b class='flag-5'>一</b>SoC”系列芯片打造極致<b class='flag-5'>人機交互</b>體驗

    數據駕駛艙是什么意思?數據駕駛艙的作用

    數據駕駛艙種數據分析工具,它可以幫助企業快速有效地收集、分析和可視化數據。它是個集成的數據管理平臺,提供多種數據來源的集成、數據挖掘、數據分析、數據可視化和數據應用等功能。 數據駕駛艙
    的頭像 發表于 04-26 15:57 ?716次閱讀

    人機交互的三個階段 人機交互的常用方式

    交互經歷的三個階段:命令行界面交互階段、圖形用戶界面交互階段、自然和諧的人機交互階段。
    的頭像 發表于 03-13 17:25 ?3073次閱讀

    人機交互技術有哪幾種 人機交互技術的發展趨勢

    人機交互技術是指人與計算機之間通過各種交互方式進行信息傳遞、操作和控制的技術。隨著科技的進步,人機交互技術也在不斷發展創新。以下將介紹人機交互技術的幾種常見形式以及當前的發展趨勢。
    的頭像 發表于 01-22 17:47 ?3652次閱讀

    瑞薩推出帶觸控功能的汽車駕駛艙解決方案

    隨著汽車新四化進程的不斷推進,汽車已經從簡單的交通工具逐漸向智能終端轉變。其中,汽車駕駛艙作為實現智能駕駛的重要環,最先為駕乘人員帶來了智
    的頭像 發表于 01-19 16:38 ?954次閱讀
    瑞薩推出帶觸控功能的<b class='flag-5'>汽車駕駛艙</b>解決方案
    主站蜘蛛池模板: 日本不卡在线观看| 欧美天天爽| 国产精品午夜久久久久久99热| 韩国午夜影院| 很黄很污的视频网站| 欧美精品videosex极品| 久久99精品久久久久久久野外| 天天爱夜夜| 男女性接交无遮挡免费看视频| 日本高清视频成人网www| 一级不卡毛片免费| 4455四色永久免费| 欧美一级色视频| 天天草夜夜操| 久久久久久午夜精品| 美女视频很黄很暴黄是免费的| 手机在线看片国产日韩生活片| 老师啊灬啊灬用力啊快224视频| 女人张开腿让男人桶免费最新 | 午夜性视频| 日本黄色激情视频| 色综合图片二区150p| 黄网站色视频大全免费观看| 九月丁香婷婷| 成人爽a毛片在线视频网站| 亚洲高清免费| 爱婷婷视频在线观看| 六月丁香啪啪| 日本国产高清色www视频在线| 特黄一级| 亚洲九色| 一级特黄a 大片免费| 欧美一区二区三区不卡免费观看| 美女黄色在线| www.射| 色秀视频免费高清网站| 五月天婷婷视频在线观看| 最新国产在线播放| 成人激情站| 一区二区三区视频在线观看| 五月情网|