2020年10月14日,距離上次發布會不到一個月,蘋果就迎來了秋季的第二場發布會。而這次發布會的主角,就是之前已經被全方位曝光的iPhone12系列了。
第一款5GiPhone、5.4英寸的iPhone12mini、回歸iPhone4時代的直角邊框,最高支持5倍光學變焦攝影,空前強大的視頻拍攝能力,以及新的配色……這些都是新一代iPhone身上的「爆款」標簽,依然對消費者有著不小的吸引力。
可以說,iPhone12系列是繼iPhoneX之后變化最大的新旗艦手機。正如庫克所說:今天標志著iPhone新紀元的開始。
但這場發布會最吸引我眼球的,并不是萬眾矚目的新款iPhone12,而是另外一款硬件產品——HomePodmini。
與「標準版」相比,這款mini版HomePod的外觀變得更小、更圓了,但由于蘋果重新設計了HomePodmini內部的聲學結構,還給它內置了S5芯片和U1芯片,以實現「計算音頻」的功能,因此,這款mini版HomePod的功能反而變得更加強大。
最驚喜的是,這款HomePodmini還加入了Siri智能助理的功能,Siri可識別說話者,并能根據他們的喜好推薦音樂和播客,還能響應他們的個人請求,比如訪問信息、提醒事項、備忘錄和日歷上的約會,以及接打電話等。Siri還能為用戶提供個性化更新,幫他們快速預覽當天各項信息。只需詢問Siri“今天有什么更新”,即可聽到最新資訊、天氣、交通、提醒事項和日歷上的約會。
其實,Siri這個由語音識別和語義識別結合起來的產品,已經算是人工智能的范疇了,它和傳統的語音識別產品區別在于,一般的語音識別系統可以識別“現在是幾點鐘”這樣的問句,并作出響應。但是這個問法必須是固定的,如果你使用其他的問法,它們就無法作出響應。比如你問“現在很晚了么”,一般的語音識別系統是不會搭理你的,而Siri就會告訴你,現在是晚上9點,有點晚。
說到這里,不管你擔心、恐懼還是期待,隨著越來越多像Siri這樣的東西走進家庭、工廠和社會,人工智能必將進入我們的生活,甚至慢慢改變它。因此,人工智能絕對是新時代最熱門的詞匯之一,這是毋庸置疑的。
不過,人們對于人工智能的大部分想象,還是來自于科幻電影、科幻小說。以至于現在講起“AI”兩個字母,很多人的第一反應還是斯皮爾伯格的那部同名電影。但你有沒有想過這樣一些問題:
人工智能會不會產生情感?它會渴望一具能吃東西、能觸碰別人的肉身嗎?人工智能又是怎么看待死亡和永生的?
中國傳媒大學播音主持藝術學院副教授、碩士生導師張鸝女士,從包括《2001太空漫游》《終結者》《黑客帝國》等15部經典的科幻電影出發,并以計算機科學、物理學、生物學、哲學等多學科的角度進行思辨,寫就了《人工智能在想什么:從科幻電影看AI未來》這本專著,向我們描繪了一幅未來可能的人機共存的圖景。
在張鸝教授看來,關于人工智能的未來,一切都是未知數,因此,我們只能到科幻電影里尋找答案。
很多人對人工智能心懷警惕,他們想知道:人工智能產生自我意識,究竟是福是禍?有了自我意識的人工智能,最終會將人類毀滅嗎?
經典科幻電影《2001太空漫游》,也許就是對這個問題的最好詮釋。
在這部電影中,有一個重要角色,就是太空飛船上的一套9000型計算機,它有一個特別的名字“哈爾”,這臺擁有人工智能的計算機的任務,就是協助人類宇航員完成星際飛行和考察任務。
在影片中,飛船上的9000型計算機哈爾,在飛船的例行故障報修和檢測中,竟然產生了一次無厘頭的誤報。也就是說,它和地球上的同型號計算機,根據一模一樣的數據、一模一樣的程序,竟然得出了不同的計算結果,這就意味著,兩臺計算機之間形成了某種“區分”。
然而,身為一臺最頂級的計算機,自負的哈爾不承認自己計算錯誤,于是它把所有的錯誤都推到了“愚蠢的人類”身上。
在哈爾表現出死不認錯的太多后,宇航員們發現了它的異常,于是,他們商量著要重裝哈爾的系統。但這個計劃被哈爾發現了,于是它先下手為強,宣稱飛船上的某個部件即將失靈,以此作為誘餌,趁機殺死了艙內的幾位宇航員。
哈爾作為人工智能,為何會產生殺人的邪念?
原著作者克拉克在小說《太空漫游》的第二部里向我們揭示出,導致這場悲劇的根本原因就是,哈爾產生了自我意識。換言之,哈爾有了“自我意識”,它的“我”就和人類形成了“你死我活”的對立關系,因此才想要殺死人類!
那么,人工智能有了自我意識,就一定會對人類產生不利影響嗎?人類作為人工智能的創造者,是否可以提前避免這種情況發生呢?
要解答這個問題,我們就要從大名鼎鼎的“機器人三定律”說起了。
“機器人三定律”是由科幻作家阿西莫夫在《我,機器人》這本書里首次提出的,其內容為:
第一定律:機器人不得傷害人類個體,或者目睹人類個體將遭受危險而袖手不管。
第二定律:機器人必須服從人給予它的命令,當該命令與第一定律沖突時例外。
第三定律:機器人在不違反第一、第二定律的情況下要盡可能保護自己的生存。
后來阿西莫夫又在《機器人與帝國》一書中,提出了凌駕于“機器人三定律”之上的“第零定律”:
機器人必須保護人類的整體利益不受傷害(其它三條定律都是在這一前提下才能成立)。
然而,“機器人三定律”和“第零定律”,真的能保護人類不受人工智能威脅嗎?
首先,這幾條定律本身就包含許多無法自洽的BUG,例如“人類的整體利益”究竟是啥?這種模棱兩可的概念,就連人類自己都搞不明白,更不必說那些用0和1來想問題的機器人了。正因如此,另一位著名科幻作家威爾·史密斯才一針見血地評論說:機器人沒有問題,科技本身也不是問題,人類邏輯的極限才是真正的問題!
再者,當機器人面臨兩難選擇時,它的運算邏輯就會受到巨大的考驗。就拿那個著名的“電車悖論”來說吧:假如一輛電車正駛向一個岔口,并準備左轉。左邊岔路上綁著5個人,右邊岔路上綁著1個人,此時,站在控制臺上的機器人,該不該控制轉向?
也就是說,在邏輯層面上,一個遵守三大定律的機器人,遲早會遇到一個在數學模型上與“電車悖論”完全等價的困境——它要么救5個人害死1個人,要么為了不害死1個人而通過不作為害死了5個人。
正因如此,艾迪亞金融預測公司首席科學家格策爾才表示:“設立三定律的目的就是以有趣的方式出問題,這也正是為何圍繞它們的小說如此有趣,所以三定律只能告訴我們,用具體的定律來規范道德倫理是必定行不通的!”
但不管人類是否已經做好了萬全的準備,隨著科技的不斷發展,“強人工智能”的出現,或許只是一個時間問題,而“蘇醒”后的人工智能,也未必會遵循人類制定的游戲規則——但這個宇宙自有其底層邏輯,人類和人工智能也都必然要遵循宇宙的游戲規則,正如張鸝女士在《人工智能在想什么:從科幻電影看AI未來》這本書的結尾所說的那樣:
人類創造了人工智能,并不斷在它們身上賦予自己的希望,這一切讓我們看到了人類與這個世界相處的另一種可能性!
責任編輯:YYX
-
iPhone
+關注
關注
28文章
13473瀏覽量
202035 -
人工智能
+關注
關注
1792文章
47497瀏覽量
239214 -
iphone12
+關注
關注
1文章
215瀏覽量
8846
發布評論請先 登錄
相關推薦
評論