人工智能時代逐漸到來,新聞行業到底還能堅持多久?
2017年,科技可謂是快速發展的一年,人工智能的快速發展,讓許多產品都進行了變革。電視坐上了人工智能列車,智能語音的產生,讓很多人逐漸解決了雙手;音響坐上了人工智能列車,購物,聽歌,即說即停,更加智慧。
隨著時間的流逝,2017年也即將結尾,嶄新的2018年,人工智能必然也會成為新氣象,在新的一年,引領大家走向更為智慧的一年。
而就在最近,國家通訊社新華社在成都發布的中國第一個媒體人工智能平臺——“媒體大腦”成為了大家關注的焦點,引起中外媒體強烈期待。“媒體大腦”平臺,主在向海內外媒體提供服務,共同探索大數據時代媒介形態和傳播方式的未來。
人工智能已經超前發展?
據了解,此次發布的“媒體大腦”,提供基于云計算、物聯網、大數據、人工智能(AI)等技術的八大功能,覆蓋報道線索、策劃、采訪、生產、分發、反饋等全新聞鏈路。而這八大功能包括:2410(智能媒體生產平臺)、新聞分發、采蜜、版權監測、人臉核查、用戶畫像、智能會話、語音合成。國內的各媒體機構,均可在認證后使用“媒體大腦”的各項功能和產品。
同時,新華社還發布了首條MGC(機器生產內容)的視頻新聞,該視頻新聞時長2分8秒,由“媒體大腦”中的“2410(智能媒體生產平臺)”系統制作,計算耗時只有10.3秒。
說到這首條MGC視頻新聞,其主要是運用人工智能技術,由機器智能生產新聞。生產過程分為:首先通過攝像頭、傳感器、無人機等方式獲取新的視頻、數據信息,然后經由圖像識別、視頻識別等技術讓機器進行內容理解和新聞價值判斷,依托于大數據的“媒體大腦”將新理解的內容與已有數據進行關聯,對語義進行檢索和重排以智能生產新聞稿件。
而且,人工智能還將基于文字稿件和采集的多媒體素材,經過視頻編輯、語音合成、數據可視化等一系列過程,最終便會生成一條富媒體新聞。
新華社副社長劉思揚強調,“媒體大腦”和MGC新聞的出現,不是要取代記者和編輯,而是在更高層面上,把人的延伸與物的延伸連接起來,更快、更準、更智能地獲得新聞線索和新聞素材,幫助媒體提高生產力。
新聞行業受到沖擊?
“媒體大腦”一經發布,就引起了大家前所未有的關注,人工智能的全面布局,媒體智能生產平臺的產生,新聞行業真的要受到大浪洗刷了嗎?
其實客觀的講,人工智能的產生,的確會對很多行業,包括傳統媒體,傳統制造業等,度會產生一定的沖擊,所以我們一定要嚴肅且理性的看待。
智能時代,的確會讓我們的生活變得便捷起來,連工作也變得不再繁瑣。但是一旦你的工作僅僅只是機械勞動,那么就要小心了,單純地機械勞動性的工作,肯定是要被人工智能所取代的,包括新聞行業。就像新華社副社長所說,人工智能時代,不是要取代,而是幫助更多的產業提高生產力。所以,只有創造性勞動的工作,才能完全不被取代,不然,高速發展的時代,終有一天,你將被淘汰。
人工智能時代逐漸到來,我們的工作,生活都會變得無比的便捷與時尚。智能生活我們該如何對待?當然是不斷的緊跟潮流,創造性的工作,才能在智能時代獲得一席地位。畢竟,機器人與人類相比,缺乏更多的創造性。
槍能保家,也能犯罪,AI亦如是
我們在一片對18歲照片的花樣贊美中,迎來了又一個新年。
最近幾天,各種對2018年的科技預測層出不窮,其中對AI的暢想占了大頭,內容差不多是一片喜慶祥和。
但事有兩來,當我們開始從AI中收獲價值的時候,技術升級后帶來的潛在風險也在升溫。這就像汽車當然好過牛車,但汽車也會帶來各種各樣的交通事故。我們當然不能因此禁止汽車上路,但是也不能對交通問題視而不見。
今天我們來預測幾個,很可能在2018年進入我們眼簾的「人工智能負能量」。
畢竟做好準備,是解決問題的前提條件。
一、人工智能倫理問題開始出現個案
2017年1月,在加利福尼亞州阿西洛馬舉行的BeneficialAl會議上,近千名人工智能相關領域的專家,聯合簽署了著名的《阿西洛馬人工智能23條原則》。
隨后,各種關于人工智能倫理道德的討論、會議,以及相關協會和科技組織開始出現在公眾視野里。
《23條原則》的主要內容,就是呼吁人工智能不能損害人類的利益和安全,同時人工智能必須可以被人類控制,同時人類要盡量尊重人工智能和機器人的安全。
聽起來頗有點科幻的味道,但是在各行各業開始部署AI,尤其開始利用AI進行自動化決策的時候,人工智能的倫理與道德問題或許真的會浮出水面。
比如說,自動駕駛車輛在馬上要發生事故時,是優先保護路人還是乘客?假如AI診斷系統,給出的建議是安樂死,那么它算是殺人嗎?為了避免更大損失,AI系統是否能打破規則,自行其是?
這其中最著名的,大概就是去年谷歌批評上海交大某團隊進行的「看臉定罪犯」研究。引發了媒體對于AI價值觀的大量討論。
在各個產業場景開始使用AI技術時,隨之而來的邊界問題、責權問題、道德選擇問題這些在實驗室中不會出現的矛盾將很可能被引發。
人類還從未真正討論過這些。假如2018年人工智能的落地化足夠快,倫理問題的苗頭或許會臨近。
二、難以根治的的算法歧視
記得2016年,微軟推出過聊天機器人Tay,卻因為用戶教給它大量種族歧視和臟話,一天內就被暫時下線。這引出了一個極具爭議的話題:機器學習會吸收人類的知識和信息來塑造自己,那么假如它吸收的信息含有大量「不那么純良」的東西呢?
2017年,算法歧視問題非但沒有被解決,各種各樣新的問題還應運而生。比如谷歌大腦會給女性圖片打上很多關于家庭、弱勢的標簽,顯然有悖于女權主義精神;而把黑人識別為大猩猩,則點燃了AI種族歧視的話題關注度。
所謂的算法歧視,對于普通消費者來說,最有可能在內容推薦和電商推薦兩個地方感覺到。比如說消費者剛看過寬大的衣服,電商就推薦減肥藥,很可能讓消費者聯想到算法在歧視自己胖;再比如打開今日頭條這類軟件的時候,大家可能都出現過這種情況:偶爾點了一個推薦來的獵奇或者偽色情內容,然后再一刷新。好嘛,蜂擁而至的類似內容啊,你本來想看的興趣內容和專業內容瞬時間化為烏有。甚至你怎么點我不關心不喜歡,平臺還是給你推薦。這就是因為算法的歸類方式給你貼上了標簽。這種歧視感也蠻嚴重的,好像背后有個人奸笑著對你說:「承認吧,你就是這么低俗…」
這類問題的根源,是機器學習技術進行個性推薦,今天還必須建立在兩個邏輯的基礎上:以過去算將來,以群體算個體。算法會吸收以前有過的經驗來給你特定的某些東西,但很有可能歧視信息就包含在機器吸收的經驗里。
在個性推薦系統越來越多場景應用可能的今天,我們恐怕短期內還難以根治算法的歧視。
三、私人數據與機器
學習的矛盾日益凸顯
人工智能和個人隱私,似乎從來都是一對天敵。
因為人工智能技術假如想要提供個性化、完全符合個人習慣的服務,那么就必然要學習和理解用戶本身。而這其中,就涉及對用戶私人數據的學習。
但出于隱私的考慮,以及對網絡安全的不信任,大部分用戶顯然是不希望透露自己數據給機器的。
從而「雞生蛋蛋生雞」的矛盾就產生了。
近兩年,用AI來讀取用戶個人數據這件事一直處在被壓抑和不能提的狀態。更早一點的時候,蘋果和谷歌等大公司都推出過讓AI讀懂用戶的產品,但很快就被輿論抨擊給關停了。即使這樣,谷歌去年推出的家用AI相機還是飽受詬病。
在2017年后半段,我們看到了AI芯片拉開了風云際會的爭奪序幕。但是搭載AI芯片的硬件一定要有的放矢,有任務可以完成。于是讓硬件讀懂用戶、讓系統根據用戶數據提供千人千面的服務,勢必會重新回到公共視野里。
其實從大趨勢上看,把個人數據交給機器似乎是人類不可避免的歸宿。無論是醫療健康、金融服務還是社會安全,機器肯定都比人類更靠譜。只是這其中經歷的不適感和安全風險是巨大的。
在2018年,無論是手機、音箱、穿戴設備、VR,在啟用了機器學習能力后,似乎都要重新沾惹隱私數據這條紅線。
究竟怎么處理這個矛盾,也是挺讓人頭疼的。
四、真假越來越難分
就目前來看,希望AI能像人一樣對話和理解,顯然還是為時過早的一件事。但是讓AI來造假,似乎已經問題不大了。
此前我們討論過視頻和直播換臉的可能,其實從整個技術進度來看,基于GAN的仿真和替換技術正在整體成熟。無論是模擬替換音頻還是視頻文件,AI都已經能夠得心應手的處理。
但這肯定不會是什么好事。在著名的Face2Face軟件推出的時候,國外網友就驚呼,假如跟我視頻聊天的人被替換了怎么辦?
而在開發框架和數據資源越來越豐富、算法越來越強勁的今天,大概我們可以很肯定的說:2018年用AI來偽造視頻音頻將更加天衣無縫。
這是AI對未來技術的探索,卻很可能引發社交媒體和網絡傳播的動蕩:當我們看到的視頻都可以完全造假的時候,這個世界還有什么可以相信呢?
假作真時真亦假,只能期望反AI造假的AI系統也盡快出現吧。
五、黑客攻擊有更多花樣
2017年年末,谷歌TensorFlow被驚人的爆出框架漏洞,雖然是被白帽子找到,沒有造成危險,但這還是點醒了我們一點:AI并不安全。
至此,我們已經見識過了各種黑客攻擊和AI技術結合的可能性:用AI來偽造文件信息實施攻擊和詐騙;利用AI技術來提升黑客攻擊效率;以AI系統為目標的攻擊。隨著AI和物聯網體系的結合,未來物聯網攻擊中很可能也會加入AI的身影。
AI技術的成熟,讓網絡黑客們找到了更多的目標、更多的工具以及更多的技巧。雖然AI同樣給我們提供了各種保護互聯網安全的方式。但無論如何,AI帶給了黑客更多可能性是毫無疑問的。
2017年的網絡安全世界并不平穩,各種各樣的病毒和黑客肆虐不絕于耳。進入2018,我們很可能會在這個戰場看到更激烈的搏殺。
結束語
就像任何一種技術革新一樣,AI也同樣在帶來價值的同時創造了危險。而且憑借著識別和學習能力的特征,AI帶來的負面影響說不定會比過往更大。
但是無論如何,技術就是這么一步步推進的。更好的風景總是伴隨著更難走的路途。認識風險,并探索解決方案,或許才是人類與AI相處時更舒服的方式。
評論
查看更多