1. STM32 嵌入式機(jī)器學(xué)習(xí)(TinyML)實戰(zhàn)教程-01 | 邊緣智能實驗室
第1部分:總體介紹 在STM32H747I Discovery開發(fā)板上,使用機(jī)器學(xué)習(xí)技術(shù),開發(fā)機(jī)器視覺應(yīng)用,本教程由ST(意法半導(dǎo)體)官方發(fā)布。 邊緣智能實驗室原創(chuàng)中文字幕,感謝支持。視頻中涉及的文檔(也可到ST官網(wǎng)下載):
鏈接:https://pan.baidu.com/s/1K1Dr2vMUZ8UmtVbZHkKAVA
提取碼:w41p
2. 為AI而生,打破存儲墻,佐治亞理工等提出新型嵌入式無電容DRAM | 機(jī)器之心
當(dāng)今計算中最大的問題之一是「存儲墻」,即處理時間與將數(shù)據(jù)從單獨的 DRAM 存儲器芯片傳送到處理器所花費時間之間的差距。AI 應(yīng)用的日益普及只會加劇該問題,因為涉及面部識別、語音理解、消費商品推薦的巨大網(wǎng)絡(luò)很少能容納在處理器的板載內(nèi)存上。 在 2020 年 12 月舉行的 IEEE 國際電子設(shè)備會議(IEDM)上,一些研究小組認(rèn)為:一種新型的 DRAM 可能成為「存儲墻」問題的解決方案。他們表示:「這種新型的 DRAM 由氧化物半導(dǎo)體制成,并內(nèi)置在處理器上方的各層中,其位長是商用 DRAM 的數(shù)百或數(shù)千倍,并且在運行大型神經(jīng)網(wǎng)絡(luò)時可以提供較大的區(qū)域,節(jié)省大量能源?!?新型嵌入式 DRAM 僅由兩個晶體管制成,沒有電容器,簡稱為 2T0C。之所以可以這樣做,是因為晶體管的柵極是天然的電容器(盡管有些小)。因此代表該位的電荷可以存儲在此處。該設(shè)計具有一些關(guān)鍵優(yōu)勢,特別是對于 AI 來說。
原文鏈接:https://spectrum.ieee.org/tech-talk/semiconductors/memory/new-type-of-dram-could-accelerate-ai
3. 明年,我要用 AI 給全村寫對聯(lián) | HyperAI超神經(jīng)
春節(jié)接近尾聲,你是否還沉浸在年味里? 年前的臘月二十九、三十,家家戶戶都要開始貼春聯(lián)了。今年,各種 AI 寫春聯(lián)應(yīng)用都紛紛上線,幫大家寫春聯(lián),要不來試試? 對聯(lián)對聯(lián),講究的就是「成對」,要對仗工整,平仄協(xié)調(diào)。不過現(xiàn)代人的對對聯(lián)技能,已經(jīng)遠(yuǎn)不如古代的文人墨客,甚至有時候可能連上下聯(lián)都傻傻分不清楚。而聰明的 AI 已經(jīng)學(xué)會自己寫對聯(lián)了。
測試地址:
https://ai.binwang.me/couplet/
Github:
https://github.com/wb14123/couplet-dataset
數(shù)據(jù)集地址:
https://hyper.ai/datasets/14547
4. DeepMind最新研究NFNet:拋棄歸一化,深度學(xué)習(xí)模型準(zhǔn)確率卻達(dá)到了前所未有的水平 | 機(jī)器之心
Paper:
https://arxiv.org/abs/2102.06171
DeepMind 還放出了模型的實現(xiàn):
https://github.com/deepmind/deepmind-research/tree/master/nfnets
我們知道,在傳遞給機(jī)器學(xué)習(xí)模型的數(shù)據(jù)中,我們需要對數(shù)據(jù)進(jìn)行歸一化(normalization)處理。 在數(shù)據(jù)歸一化之后,數(shù)據(jù)被「拍扁」到統(tǒng)一的區(qū)間內(nèi),輸出范圍被縮小至 0 到 1 之間。人們通常認(rèn)為經(jīng)過如此的操作,最優(yōu)解的尋找過程明顯會變得平緩,模型更容易正確的收斂到最佳水平。 然而這樣的「刻板印象」最近受到了挑戰(zhàn),DeepMind 的研究人員提出了一種不需要歸一化的深度學(xué)習(xí)模型 NFNet,其在大型圖像分類任務(wù)上卻又實現(xiàn)了業(yè)內(nèi)最佳水平(SOTA)。 該論文的第一作者,DeepMind 研究科學(xué)家 Andrew Brock 表示:「我們專注于開發(fā)可快速訓(xùn)練的高性能體系架構(gòu),已經(jīng)展示了一種簡單的技術(shù)(自適應(yīng)梯度裁剪,AGC),讓我們可以訓(xùn)練大批量和大規(guī)模數(shù)據(jù)增強(qiáng)后的訓(xùn)練,同時達(dá)到 SOTA 水平?!?/p>
5. 在游戲里還原自己的臉,給AI一張照片就行,網(wǎng)易&密歇根大學(xué)出品 | AAAI 2021 開源 | 量子位
論文地址:
https://arxiv.org/abs/2102.02371
GitHub地址:
https://github.com/FuxiCV/MeInGame
給AI一張毛不易的照片,它自動就能生成一個古風(fēng)毛大俠。
現(xiàn)在,想在游戲里定制化自己的臉,你可以不用自己花時間琢磨參數(shù)了。 熟悉游戲的小伙伴可能認(rèn)出來了,這一套AI捏臉術(shù),來自網(wǎng)易伏羲人工智能實驗室和密歇根大學(xué)。 現(xiàn)在,最新相關(guān)研究登上了AAAI 2021。 據(jù)作者介紹,這個名為MeInGame的方法,可以集成到大多數(shù)現(xiàn)有的3D游戲中,并且相比于單純基于3DMM(3D Morphable Face Model )的方法,成本更低,泛化性能更好。
6. 谷歌開源計算框架JAX:比Numpy快30倍,還可在TPU上運行! | 新智元
Github:
https://github.com/google/jax
快速入門鏈接:
https://jax.readthedocs.io/en/latest/notebooks/quickstart.html
相信大家對numpy, Tensorflow, Pytorch已經(jīng)極其熟悉,不過,你知道JAX嗎? JAX發(fā)布之后,有網(wǎng)友進(jìn)行了測試,發(fā)現(xiàn),使用JAX,Numpy運算可以快三十多倍!下面是使用Numpy的運行情況:
1importnumpyasnp#使用標(biāo)準(zhǔn)numpy,運算將在CPU上執(zhí)行。 2x=np.random.random([5000,5000]).astype(np.float32) 3%timeitnp.matmul(x,x)
運行結(jié)果:
1 loop, best of 3: 3.9 s per loop
而下面是使用JAX的Numpy的情況:
1importjax.numpyasnp#使用"JAX版"的numpy 2fromjaximportrandom#注意JAX下隨機(jī)數(shù)API有所不同 3x=random.uniform(random.PRNGKey(0),[5000,5000]) 4%timeitnp.matmul(x,x)
運行情況:
1 loop, best of 3: 109 ms per loop
我們可以發(fā)現(xiàn),使用原始numpy,運行時間大概為3.9s,而使用JAX的numpy,運行時間僅僅只有0.109s,速度上直接提升了三十多倍! 那JAX到底是什么? JAX是谷歌開源的、可以在CPU、GPU和TPU上運行的numpy,是針對機(jī)器學(xué)習(xí)研究的高性能自微分計算框架。簡單來說,就是GPU和TPU加速、支持自動微分(autodiff)的numpy。
7. 大年初四,宜學(xué)習(xí):MIT 6.S191視頻、PPT上新!網(wǎng)友:這是最好的深度學(xué)習(xí)入門課之一 | 機(jī)器之心
課程主頁:http://introtodeeplearning.com/
原文標(biāo)題:【20210219期AI簡報】嵌入式機(jī)器學(xué)習(xí)(TinyML)實戰(zhàn)教程、谷歌開源計算框架JAX...
文章出處:【微信公眾號:RTThread物聯(lián)網(wǎng)操作系統(tǒng)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
-
嵌入式
+關(guān)注
關(guān)注
5088文章
19158瀏覽量
306486 -
STM32
+關(guān)注
關(guān)注
2270文章
10915瀏覽量
356778 -
AI
+關(guān)注
關(guān)注
87文章
31294瀏覽量
269656 -
開源
+關(guān)注
關(guān)注
3文章
3381瀏覽量
42606 -
機(jī)器學(xué)習(xí)
+關(guān)注
關(guān)注
66文章
8428瀏覽量
132846
原文標(biāo)題:【20210219期AI簡報】嵌入式機(jī)器學(xué)習(xí)(TinyML)實戰(zhàn)教程、谷歌開源計算框架JAX...
文章出處:【微信號:RTThread,微信公眾號:RTThread物聯(lián)網(wǎng)操作系統(tǒng)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論