小心!
別有用心的人,正在盯著你放在社交網絡上的美照,還可能已經被Deepfake拿去生成果照。
最近,外媒The Verge曝光了這個現象:
在Telegram上,Deepfake機器人泛濫,隨便一張社交網絡上的照片,即可自動生成開車圖。
還可以直接攜圖分享。
跟日常我們發送圖片、接收圖片一樣簡單~
與此相關的數據令人咋舌。
關注Deepfake傳播的研究機構「Sensity」發現,截至到2020年7月,在Telegram公共頻道中已經生成并分享了超過10萬張。
這意味著,生成的圖片總數,包括那些未曾分享過、或是7月以來制作的照片,是遠遠高于這個數字的。
Sensity表示,這些頻道中的大部分用戶,大概有70%來自俄羅斯和周邊國家。
目前,仍然有很多渠道處在活躍狀態中。
Deepfake機器人
這些機器人可以免費使用,不過會生成帶有「FAKE」的紅色字樣水印,或只有部分果體的果體照片。
想要「升級」照片,用戶需要一定的費用,來「揭開」這些照片。
比如,「初級收費」。
用戶需要支付100盧布,折合人民幣8.63元,就可以在7天內生成100張、沒有水印的果體照。
說到這里,是不是有人覺得很熟悉?
這像是去年夏天火爆網絡,但幾天即下架的「DeepNude」。
對對對,就是那個「一鍵脫衣」。
Sensity也表示,這是DeepNude經過反向工程來打造的一款機器人。不同的是,這個機器人可以自動處理收款。
當然,這些果體照都是假的!
生成出來的果體照會存在斑點、像素化的現象,但也有些很容易被誤認為是真實圖片。
按照去年我們的DeepNude實測結果,果體生成是有諸多「講究」的。
比如,穿的越少,效果越好。如果給了一個衣服特別多的圖片,處理效果非常暴力。
所以,總體來說,美照穿得越少,被生成那種照片的難度越小。
沒錯,技術被濫用,逼得互聯網也得“保守”。
「一鍵脫衣」原理
去年,就有人曾揭秘過DeepNude背后的技術原理。
DeepNude主要使用了計算機視覺領域的3項技術。
圖像修復:Image Inpainting。
這是英偉達研究團隊提出的一個模型,當畫面被嚴重涂抹后,模型仍然能夠恢復出“原來”的圖像。此外,還可以做到去掉圖像中的某些物品。
Pix2Pix:使用條件對抗網絡作為圖像到圖像轉換問題的通用解決方案。
以及2018年SIGGRAPH最佳博士論文獎得主朱俊彥提出的CycleGAN。
CycleGAN使用循環一致性損失函數來實現訓練,而無需配對數據。它可以在普通的馬和斑馬之間進行轉換,也能把夏天的景色變成冬天的景色。
背后的隱憂
正如去年DeepNude所帶來的道德爭議,Sensity對這個機器人表現出一定的擔憂。
曾經一項民間調查顯示,近7成民眾更想要看「私人」的果體照(也就是不是大明星、模特的那種),當中90%的用戶想要看現實生活中熟悉的女生。
那么,有了這個Telegam機器人,任何在社交網絡上自拍照的女生都可能成為潛在的受害者。
甚至,如果遇到被陌生人偷拍,拿去生成照片,那就更加不堪設想了。
The Verge和Sensity都聯系了Telegram,詢問他們為何允許在其應用上發布這種內容。
目前尚未得到回復。
而且對這種技術濫用,當前似乎也沒有比較好的治理方法。
如果你有思考和建議,也歡迎分享~
責任編輯:lq
-
機器人
+關注
關注
211文章
28502瀏覽量
207485 -
計算機視覺
+關注
關注
8文章
1698瀏覽量
46031 -
DeepFake
+關注
關注
0文章
15瀏覽量
6681
原文標題:小心,你放在社交網絡上的圖,正被Deepfake機器人用來生成果體照
文章出處:【微信號:TheBigData1024,微信公眾號:人工智能與大數據技術】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論