寫在前面
三月面試了好幾輪,寫個帖子記錄一下問過的問題,為接下來的其他公司的面試查漏補缺一下,也給大家一些準備的方向。
騰訊
一面(涼)
自我介紹
問做過的項目,同時在過程中穿插用過的模型的問題,比如
word2vec兩個模型的損失函數是什么
cbow和skipgram的比較,為什么skipgram會更好,哪個的計算復雜度高
為什么使用隨機森林
決策樹的分裂方式是什么,根據什么變量來決定分裂變量
手撕代碼
給一個數N,k,每一輪可以進行兩種操作的其中一種:①所有的數拆分成兩個更小的數;②所有的數-1。已知拆分操作只能進行k次,問 最少需要多少次把所有數都消去
給一串數列,這串數列有正有負,但是總和為0。每個數xi代表一個村莊,正的表示村莊想賣出xi份水果,負的表示想買入xi份水果。兩相鄰村莊間的距離是相同的,單位距離運送一份水果的運費均相同,每份都是k。問,把每個村莊的需求和供給都解決掉需要的最少運送費是多少?
這是第一次面試,涼得很徹底,因為很多算法細節都沒有好好復習,而且代碼寫的也不夠整潔快速
阿里螞蟻
一面
面我的是多方安全團隊,問了很久他們做的東西,具體還是不太懂,大概意思就是法規限制了我們獲取的數據規模和維度,要用有限的數據進行風險評估(比如銀行貸款啊之類的)
問了我們碩士是授課型還是論文型,問了我們現在專業學習的東西和機器學習相關的部分有哪些,
然后問了我做詞向量的項目,問優化方向之類的,有沒有根據文本特征做定制化的算法調整
然后問了xgboost和randomforest的區別。什么場景表現會更好之類的。
然后問了一道邏輯題:兩個人抽100個球,你是先手,每次兩個人只能取1-6個球,問怎么抽才能使得你是最后一個把球抽完的
問了一道挺基礎的算法:找出有序數組中位數,想優化時間復雜度。
感覺不是很匹配,面試官的意思是想要的是那種潛力型,會融合很多算法,開發新算法的人才,我太菜了
美團
美團的筆試還是做的挺差的,五題只做了兩題,兩題都只有27%。。
一面
word2vec
訓練過程訓練原理
訓練的損失函數
我看到你做多分類情感分析多分類問題的損失函數是什么
Soft max的計算公式是什么?為什么使用指數函數?
LSTM的信息傳遞機制是什么?他和RNN相比有什么優勢。
Bert
他和普通的Word2Vec模型相比優勢在哪里
他為什么會有這樣的優勢(優勢,指的是他能生成語境化的向量
Bert中的 transformer
注意力機制的運行過程是什么樣的?
注意力機制中對于每一個詞的分數會進行標準化,請問這一步的目的是什么
你剛剛提到batch normalization
BN的作用是什么?它有四個公式,每一個公式分別是什么,有什么各自的作用
我對于每一個Batch 都計算出來了他對應的均值跟方差這些,它們相互獨立的嗎?還是會相互影響。
我看你大多數是自然語言處理的事件,你有做過計算機視覺相關的任務嗎?回答:有機器學習課上嘗試手寫卷積神經網絡的代碼
卷積神經網絡的權重是怎么更新的,平均池化和最大持化的反向傳播是怎么運作的?
沒有手撕代碼,但是讓我直接實現kmeans的偽代碼,不用編譯
總結來說,美團一面問的都很基礎的深度學習問題,都答出來了,因為準備過,所以說的時候比較有自信,然后挺流暢的。面試官就說覺得我基礎知識挺扎實的挺好的(這個小哥人很nice,也是第一個這么夸我的面試官,挺受鼓舞的,很謝謝他
二面
大部分問題和一面的很接近,但是面試官好像是一面面試官的老大,會從更多維度來問你
word2vec訓練過程的最后一步有什么辦法可以優化softmax的計算,我沒答上來,他就告訴我說是指數函數的計算會用查表來近似代替
你大部分用的神經網絡都是比較淺層的,有沒有試過更深的神經網絡
有做過圖像方面的深度學習項目嗎
有沒有在實踐中應用過transformer
最后面試官的評價是基礎知識比較好,但是實踐經歷和業界場景有差距emmm,然后面試才剛剛開始,沒這么快能給你答復(好的我知道我是備胎了55555美團是我很想去的公司,我面試的部門是做美團外賣的推薦廣告業務的,在他們場景中會用到很多的深度學習的模型(圖像+nlp)來提取特征和做推薦預估, 而且關注了美團的技術博客,他們做的很多東西我都覺得和自己做過的項目很match。
原文標題:算法崗面經整理!查漏補缺
文章出處:【微信公眾號:算法與數據結構】歡迎添加關注!文章轉載請注明出處。
-
算法
+關注
關注
23文章
4625瀏覽量
93132 -
程序員
+關注
關注
4文章
953瀏覽量
29828
原文標題:算法崗面經整理!查漏補缺
文章出處:【微信號:TheAlgorithm,微信公眾號:算法與數據結構】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論