在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

自動(dòng)駕駛領(lǐng)域的技術(shù)變革呼之欲出,深度學(xué)習(xí)進(jìn)入“視頻學(xué)習(xí)”時(shí)代

JsPm_robot_1hjq ? 來(lái)源:未知 ? 作者:李倩 ? 2018-04-20 11:06 ? 次閱讀

自動(dòng)駕駛領(lǐng)域的技術(shù)變革呼之欲出。

如果說(shuō),自動(dòng)駕駛大規(guī)模落地的痛點(diǎn)在于深度學(xué)習(xí)的范疇僅限于圖像等靜態(tài)材料,那很快,自動(dòng)駕駛深度學(xué)習(xí)的范圍將擴(kuò)展到視頻領(lǐng)域。

近日,眾安信息技術(shù)服務(wù)有限公司(以下簡(jiǎn)稱(chēng)“眾安科技”)數(shù)據(jù)科學(xué)實(shí)驗(yàn)室的論文"Dense Dilated Network for Few Shot Action Recognition"(《基于密集擴(kuò)展網(wǎng)絡(luò)的少樣本視頻動(dòng)作識(shí)別》)被ICMR(國(guó)際多媒體圖像分析峰會(huì))錄用,這是深度學(xué)習(xí)在視頻分類(lèi)領(lǐng)域的創(chuàng)新應(yīng)用,在駕駛行為分析、視頻檢索等領(lǐng)域有重要的業(yè)務(wù)價(jià)值。

深度學(xué)習(xí)進(jìn)入“視頻學(xué)習(xí)”時(shí)代

“讀圖”已經(jīng)無(wú)法滿(mǎn)足機(jī)器的學(xué)習(xí)胃口。深度學(xué)習(xí)是機(jī)器學(xué)習(xí)中一種基于對(duì)數(shù)據(jù)進(jìn)行表面特征的方法,其概念源于人工神經(jīng)網(wǎng)絡(luò)的研究。目前,深度學(xué)習(xí)的主要素材來(lái)源于文字、圖片,而隨著智能手機(jī)等設(shè)備的發(fā)展,視頻沉淀了大量深度學(xué)習(xí)素材。近年來(lái)人工智能、神經(jīng)網(wǎng)絡(luò)的發(fā)展更是促進(jìn)了視頻的分類(lèi)、識(shí)別的研究。

不過(guò),機(jī)器想要學(xué)習(xí)視頻素材絕非易事。一般來(lái)說(shuō),訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)需要大量標(biāo)記良好的數(shù)據(jù)。對(duì)于機(jī)器來(lái)說(shuō),由于視頻動(dòng)作、視角較多,且視頻每秒都包含了20-30幀畫(huà)面,數(shù)據(jù)規(guī)模較大,機(jī)器的標(biāo)注難度比標(biāo)注圖像復(fù)雜很多倍。另一方面,就視頻本身而言,雖然不同的視頻內(nèi)容差異很大,但同一類(lèi)的視頻在語(yǔ)義上有著很高的相似性,對(duì)于機(jī)器學(xué)習(xí)來(lái)說(shuō),如何避免“重復(fù)勞動(dòng)”也是擺在現(xiàn)實(shí)面前的一道難題。

針對(duì)上述難題,眾安科技通過(guò)在視頻多樣性中提取高層共有的特性來(lái)實(shí)現(xiàn)機(jī)器學(xué)習(xí)。

眾安科技方面表示,基于機(jī)器學(xué)習(xí)視頻的痛點(diǎn),數(shù)據(jù)科學(xué)實(shí)驗(yàn)室研發(fā)了一種新穎的神經(jīng)網(wǎng)絡(luò)架構(gòu)來(lái)同時(shí)捕獲局部信息和整體時(shí)空信息。具體來(lái)看,眾安科技采用了擴(kuò)張卷積網(wǎng)絡(luò),在這個(gè)網(wǎng)絡(luò)的不同層之間,使用密集連接的方式組合,由此可以融合每一層的輸出,從而學(xué)習(xí)視頻的高級(jí)特征。

和其他網(wǎng)絡(luò)架構(gòu)相比,眾安科技的這款神經(jīng)網(wǎng)絡(luò)架構(gòu)利用每層與之前所有層相連的方式,可以得到從最初局部特征到總體視頻的所有特征信息。而每層網(wǎng)絡(luò)使用了擴(kuò)張卷積(dilated convolution),相比原始的卷積方式,可以更加充分利用時(shí)空信息。因此不需要很深的層數(shù),在少量數(shù)據(jù)下就可以訓(xùn)練效果較好的網(wǎng)絡(luò)。

以目前動(dòng)作類(lèi)別數(shù)、樣本數(shù)較多的數(shù)據(jù)庫(kù)之一UCF101為例,眾安科技在此數(shù)據(jù)庫(kù)的通用視頻數(shù)據(jù)集上進(jìn)行了大量實(shí)驗(yàn),在僅有20%的訓(xùn)練數(shù)據(jù)時(shí)(模擬對(duì)新任務(wù)的快速學(xué)習(xí)),利用該神經(jīng)網(wǎng)絡(luò)架構(gòu),機(jī)器仍然可以學(xué)到每類(lèi)視頻的高層語(yǔ)義特征。

視頻深度學(xué)習(xí)下個(gè)落地場(chǎng)景:出行、醫(yī)療

視頻深度學(xué)習(xí)有望率先在出行和醫(yī)療領(lǐng)域落地。

眾安科技研發(fā)的這款神經(jīng)網(wǎng)絡(luò)架構(gòu)在實(shí)戰(zhàn)中也有很高的應(yīng)用價(jià)值,由于該架構(gòu)只需要少量訓(xùn)練數(shù)據(jù)就可以促進(jìn)不同任務(wù)之間的遷移學(xué)習(xí),幫助系統(tǒng)快速上線(xiàn),從而減少了大量采集數(shù)據(jù)和訓(xùn)練過(guò)程。

如在車(chē)險(xiǎn)領(lǐng)域,可以使用該方法對(duì)路口監(jiān)控或行車(chē)記錄儀等視頻進(jìn)行快速分析,識(shí)別碰撞和高危駕駛片段,從而對(duì)車(chē)主的駕駛行為進(jìn)行建模,實(shí)現(xiàn)車(chē)險(xiǎn)的自主定價(jià)。

此外,在醫(yī)療方面,目前人工智能輔助醫(yī)療的手段除了CT圖片等,還有許多造影等多樣的數(shù)據(jù)有待分析。該方法利用時(shí)序信息,可以針對(duì)造影進(jìn)行識(shí)別診斷,尤其是對(duì)于病例較少的罕見(jiàn)病分析更為高效。

眾安科技數(shù)據(jù)科學(xué)實(shí)驗(yàn)室認(rèn)為,該神經(jīng)網(wǎng)絡(luò)架構(gòu)針對(duì)出行和醫(yī)療領(lǐng)域會(huì)有較大的幫助,這也是該團(tuán)隊(duì)未來(lái)產(chǎn)學(xué)研結(jié)合的落地方向之一。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:從圖像識(shí)別走向視頻識(shí)別,眾安科技推出視頻深度學(xué)習(xí)利器

文章出處:【微信號(hào):robot-1hjqr,微信公眾號(hào):1號(hào)機(jī)器人網(wǎng)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    GPU深度學(xué)習(xí)應(yīng)用案例

    能力,可以顯著提高圖像識(shí)別模型的訓(xùn)練速度和準(zhǔn)確性。例如,在人臉識(shí)別、自動(dòng)駕駛領(lǐng)域,GPU被廣泛應(yīng)用于加速深度學(xué)習(xí)模型的訓(xùn)練和推理過(guò)程。 二、自然語(yǔ)言處理 自然語(yǔ)言處理(NLP)是
    的頭像 發(fā)表于 10-27 11:13 ?415次閱讀

    激光雷達(dá)技術(shù)的基于深度學(xué)習(xí)的進(jìn)步

    信息。這使得激光雷達(dá)在自動(dòng)駕駛、無(wú)人機(jī)、機(jī)器人等領(lǐng)域具有廣泛的應(yīng)用前景。 二、深度學(xué)習(xí)技術(shù)的發(fā)展 深度
    的頭像 發(fā)表于 10-27 10:57 ?431次閱讀

    人工智能的應(yīng)用領(lǐng)域自動(dòng)駕駛

    的核心技術(shù) 自動(dòng)駕駛汽車(chē)的核心依賴(lài)于人工智能,尤其是機(jī)器學(xué)習(xí)深度學(xué)習(xí)技術(shù)。這些
    的頭像 發(fā)表于 10-22 16:18 ?598次閱讀

    Mobileye端到端自動(dòng)駕駛解決方案的深度解析

    強(qiáng)大的技術(shù)優(yōu)勢(shì)。 Mobileye的端到端解決方案概述 1.1 什么是端到端自動(dòng)駕駛? 端到端自動(dòng)駕駛解決方案是一種新型的智能系統(tǒng)架構(gòu),旨在通過(guò)AI學(xué)習(xí)從感知到?jīng)Q策再到操作的全流程。M
    的頭像 發(fā)表于 10-17 09:35 ?383次閱讀
    Mobileye端到端<b class='flag-5'>自動(dòng)駕駛</b>解決方案的<b class='flag-5'>深度</b>解析

    NVIDIA推出全新深度學(xué)習(xí)框架fVDB

    在 SIGGRAPH 上推出的全新深度學(xué)習(xí)框架可用于打造自動(dòng)駕駛汽車(chē)、氣候科學(xué)和智慧城市的 AI 就緒型虛擬表示。
    的頭像 發(fā)表于 08-01 14:31 ?631次閱讀

    FPGA在自動(dòng)駕駛領(lǐng)域有哪些優(yōu)勢(shì)?

    FPGA(Field-Programmable Gate Array,現(xiàn)場(chǎng)可編程門(mén)陣列)在自動(dòng)駕駛領(lǐng)域具有顯著的優(yōu)勢(shì),這些優(yōu)勢(shì)使得FPGA成為自動(dòng)駕駛技術(shù)中不可或缺的一部分。以下是FP
    發(fā)表于 07-29 17:11

    FPGA在自動(dòng)駕駛領(lǐng)域有哪些應(yīng)用?

    控制。在視覺(jué)算法方面,F(xiàn)PGA利用自身并行處理和高速存儲(chǔ)器的特點(diǎn),極大地加快了算法的執(zhí)行速度,提高了運(yùn)算效率。 五、未來(lái)發(fā)展趨勢(shì)隨著自動(dòng)駕駛技術(shù)的不斷發(fā)展,F(xiàn)PGA在自動(dòng)駕駛領(lǐng)域的應(yīng)用
    發(fā)表于 07-29 17:09

    深度學(xué)習(xí)自動(dòng)駕駛中的關(guān)鍵技術(shù)

    隨著人工智能技術(shù)的飛速發(fā)展,自動(dòng)駕駛技術(shù)作為其中的重要分支,正逐漸走向成熟。在自動(dòng)駕駛系統(tǒng)中,深度學(xué)習(xí)
    的頭像 發(fā)表于 07-01 11:40 ?789次閱讀

    中級(jí)自動(dòng)駕駛架構(gòu)師應(yīng)該學(xué)習(xí)哪些知識(shí)

    隨著自動(dòng)駕駛技術(shù)的成熟,對(duì)系統(tǒng)架構(gòu)師的需求逐漸增加。自動(dòng)駕駛系統(tǒng)架構(gòu)師負(fù)責(zé)設(shè)計(jì)整個(gè)系統(tǒng)的結(jié)構(gòu)、組件、接口和數(shù)據(jù)流;需要協(xié)調(diào)不同領(lǐng)域的專(zhuān)業(yè)知識(shí),確保系統(tǒng)的可靠性、安全性和性能。總之,
    的頭像 發(fā)表于 06-20 21:47 ?300次閱讀

    初級(jí)自動(dòng)駕駛架構(gòu)師應(yīng)該學(xué)習(xí)哪些知識(shí)

    隨著自動(dòng)駕駛技術(shù)的成熟,對(duì)系統(tǒng)架構(gòu)師的需求逐漸增加。自動(dòng)駕駛系統(tǒng)架構(gòu)師負(fù)責(zé)設(shè)計(jì)整個(gè)系統(tǒng)的結(jié)構(gòu)、組件、接口和數(shù)據(jù)流;需要協(xié)調(diào)不同領(lǐng)域的專(zhuān)業(yè)知識(shí),確保系統(tǒng)的可靠性、安全性和性能。總之,
    的頭像 發(fā)表于 06-20 21:45 ?325次閱讀

    智能駕駛大模型:有望顯著提升自動(dòng)駕駛系統(tǒng)的性能和魯棒性

    智能駕駛大模型是近年來(lái)人工智能領(lǐng)域自動(dòng)駕駛領(lǐng)域最為前沿的研究方向之一,它融合了深度學(xué)習(xí)、多模態(tài)
    的頭像 發(fā)表于 05-07 17:20 ?1624次閱讀
    智能<b class='flag-5'>駕駛</b>大模型:有望顯著提升<b class='flag-5'>自動(dòng)駕駛</b>系統(tǒng)的性能和魯棒性

    未來(lái)已來(lái),多傳感器融合感知是自動(dòng)駕駛破局的關(guān)鍵

    /L4級(jí)自動(dòng)駕駛賽跑的元年。 馬斯克評(píng)論FSD 12.3版本的左轉(zhuǎn)彎操作就像人類(lèi)司機(jī)一樣。如果FSD 12.3版本成功,將基本顛覆目前市場(chǎng)上的智能駕駛技術(shù)路線(xiàn)。基于“數(shù)據(jù)/算法/算力”的無(wú)人
    發(fā)表于 04-11 10:26

    FPGA在深度學(xué)習(xí)應(yīng)用中或?qū)⑷〈鶪PU

    、筆記本電腦或機(jī)架式服務(wù)器上訓(xùn)練神經(jīng)網(wǎng)絡(luò)時(shí),這不是什么大問(wèn)題。但是,許多部署深度學(xué)習(xí)模型的環(huán)境對(duì) GPU 并不友好,比如自動(dòng)駕駛汽車(chē)、工廠、機(jī)器人和許多智慧城市環(huán)境,在這些環(huán)境中硬件必須忍受熱、灰塵、濕度
    發(fā)表于 03-21 15:19

    為什么深度學(xué)習(xí)的效果更好?

    導(dǎo)讀深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)子集,已成為人工智能領(lǐng)域的一項(xiàng)變革技術(shù),在從計(jì)算機(jī)視覺(jué)、自然語(yǔ)言處
    的頭像 發(fā)表于 03-09 08:26 ?638次閱讀
    為什么<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>的效果更好?

    端到端自動(dòng)駕駛的基石到底是什么?

    深度學(xué)習(xí)(DL)與自動(dòng)駕駛(AD)的融合標(biāo)志著該領(lǐng)域的重大飛躍,吸引了學(xué)術(shù)界和工業(yè)界的關(guān)注。配備了攝像頭和激光雷達(dá)的AD系統(tǒng)模擬了類(lèi)似人類(lèi)的決策過(guò)程。
    發(fā)表于 02-22 09:50 ?415次閱讀
    端到端<b class='flag-5'>自動(dòng)駕駛</b>的基石到底是什么?
    主站蜘蛛池模板: 日本黄色电影在线| 色又色| 亚洲一区小说区中文字幕| 91大神成人偷拍在线观看| 在线视频 二区| 欧美美女福利视频| 亚洲字幕久久| 四虎4hu永久在线观看| 人人射人人干| 国产一区二区在线观看免费| 综合色影院| 热99re久久精品2久久久| 成人午夜久久| 一区二区免费播放| 一级在线观看| 日日噜噜夜夜狠狠久久aⅴ| 美脚连裤袜老师正在播放| 国产精品美女免费视频观看| 夜夜福利| 久久手机看片| 一区二区中文字幕| 亚洲天堂首页| 日本a级在线| 操碰视频在线观看| 青青操久久| 黄色三级欧美| 亚洲网在线观看| 美女黄色在线| 五月婷婷丁香色| 欧美毛片网站| 伊人久久成人成综合网222| 三级在线观看视频| 国产香港三级理论在线| 天天干天天干天天干天天干天天干| 国产成人悠悠影院| 精品无码中出一区二区| 色视频观看| 97人人看| 网站在线观看视频| 亚洲精品卡1卡二卡3卡四卡| 免费人成网站|