也許你能找到所有關于人工智能的內容,都有一個共性:它們都是在用人類的視角看待人工智能,對其評頭論足,前瞻后顧。有沒有想過把鏡頭徹底調換過來,站在人工智能這邊看看人類?那些長有四肢和頭顱,總是有各種情緒、想法、意見的奇怪生物到底是什么樣的?人類在與人工智能打交道的漫長歷史里,展示出了怎樣的自己?于是我們策劃了這個新系列《AI窺人》。在三篇故事里,我們希望把AI當作一面鏡子,從中查看一下那些日常被視而不見的人類自我。
問題或許在于,AI是一面反射鏡,透光鏡,還是黑鏡呢?人工智能發展至今,已經經歷了三次技術浪潮和兩次技術低谷。而現在我們正深處在人工智能第三次技術浪潮之中。關于人工智能的一片繁榮景象,難免讓我們產生一種過分的期待。我們仿佛正在一往無前地邁向那個實現通用人工智能(AGI)的“智能時代”。這種期待之下,我們對AI技術產生了兩種截然不同的情緒。
一種是對AI技術的普及歡欣鼓舞,把AI技術視為全新的生產力工具,AI將大幅改善人類的生產效率,改善人類的生活,可以將人們從繁重、重復的體力勞動和那些枯燥、機械的基礎性腦力勞動中解放出來。另一種則對AI技術的發展憂心忡忡,甚至一些科技產業大佬也在親自站臺告誡大眾,“擔心人工智能的失控”。而在大眾輿論中,也不時地傳遞出對于“工作被AI替代”“遭遇AI偏見歧視”,以及被科幻片洗腦擔心我們人類被具有“自我意識”的AI所控制和奴役的終極擔心。
似乎每一次一個AI的噱頭話題都能引起人們的“細思極恐”。除了媒體用“標題黨”賺取眼球,那么這一群體認知的背后一定暗合了大眾的某一種共通心理。上世紀的1970年,日本機器人學家森昌弘,根據人類對高度擬人化的人性機器人在某個相似度區間產生從喜愛到極端厭惡的一個心理變化。這一心理現象被稱為“恐怖谷”效應。
事實上,人們對于那些高度仿真但是面目生硬的人形機器人或者電腦特效CGI人物、人與動物合成的怪誕形象等,會觸發人類的一種對“似人非人”之物的生理性厭惡,其根源可能在于人類將對病態、死亡的恐懼投射到這些形象身上的本能防御機制。顯然,“恐怖谷”效應不僅于此。不僅是外在形象這一維度,在內在心智中人們一旦意識到有著人類智能的非生命體(如AI)出現,也會同樣產生這種或類似“恐怖谷”的心理作用,其背后根源可能就在于發生了過度的心理投射。
我們究竟是如何產生這種內在心智層面的“恐怖谷”心理,我們又如何能夠打破這種過度的心里投射,這是回答人類和AI在未來長期相處的一個關鍵問題。
AI“恐怖谷”:人類對“異己”的本能畏懼
去年,一段“波士頓機器人反抗人類”的視頻曾一度引發人們的恐慌。在視頻中,實驗人員對機器人進行了一系列故意且惡劣的攻擊,一開始機器人則似乎對這種攻擊毫無反應,但隨著攻擊越來越嚴重,機器人突然做出了反抗動作,到最后開始直接反擊人類。如果不是事后澄清這是用CGI技術做的假視頻,很多人甚至以為自己看到了一場“終結者”的現實版本。
在不知情的情況下,想必大多數觀眾的情緒也都是從對機器人的同情轉向因機器人反抗而感到的恐懼。
我們到底在害怕什么?一直以來,無論是那些科幻影視作品,還是我們自己的想象,我們對AI最大的恐懼就是害怕其產生“自我意識”。因為按照人類的生存法則推演,一旦具有“自我意識”的AI出現, AI一定就會首先控制或者消滅人類這個能夠掌握AI生存權利的“他者”主體。當然,目前的所謂第三代人工智能仍然處在模擬人類最初級的感知智能的階段,正在向具有分析推理能力的認知智能階段艱難演進,而更高層次具有綜合推理判斷能力的通用人工智能更是遙遙無期,而具有自我意識的超級人工智能則更是一件沒有影子的事情。
但是盡管我們知道這一事實,我們也仍然會不由自主地產生“AI終將崛起,從而將人類取而代之”的邏輯推演,其根源就在于我們對威脅到自己生存的要素的本能恐懼。這些恐懼存在于數百萬年的進化史當中,包括我們對“外星生物”的恐怖想象,也包括我們對“非我族類,其心必異”的先驗判斷。而這一次,恰好輪到與我們“似像非像”的人工智能而已。
格式塔效應:我們對AI投射了過多的愛和怕
對于“AI終將超越人類”的恐懼想象,其實只是我們對于AI進行過度心理投射的一種極端狀態,因為話題過于刺激,已經到了撩撥起我們的生存本能的地步。但實際上,我們對于AI的種種心里投射,其實是普遍存在的。記得在一部講述人類和AI進行精神戀愛的電影《her》當中,當男主陷入對AI沙曼薩的迷戀之時,AI坦誠地告訴他,自己正在同時跟8316個人交流時,還同時和641個人戀愛。深陷其中的男主對AI產生了仿佛被背叛的憤怒,以及陷入無力扭轉局面的失落感當中。
現在,這樣的情形,已經越來越多發生在現實當中。比如,有一次,我愛人想通過電話客服急于解決一個問題,再跟電話那頭的客服解釋、爭論半天之后,突然意識到電話那頭只是一個AI客服,立刻感到莫名的羞惱和一種被冒犯的感覺。同樣,我們也會對那些具有高超模仿能力的AI軟件所生成的文本、圖像和視頻,也會投入很多真實的情緒和想象,即使我們知道這些東西是“偽造”而成的,但我們同樣將這些東西視為一種“智能”的產物。
但實際上,無論是AI創作的音樂、繪畫,還是寫出的報道、詩歌,制作的圖像和視頻,其背后并無任何目的性,其所產生的“智慧”或者“意圖”,不過是我們的心理投射。而這種投射來自于我們的一種難以破除的被稱為“格式塔”的心理效應。也就是我們的認知容易給任何看起來陌生的事物以補全我們熟悉的東西,也就是我們總愛做心理上的完形填空。
其中,我們非常擅長從非生命的物體上面看出屬于人的形象特征,尤其是人臉,這也許是人類對于自我過于迷戀的一種外化功能。同樣,我們也總想從其他動物、植物和各種物理現象中解讀出屬于人類意志的東西,比如古代的“祥瑞”“河圖洛書”之類的玄學。如今,我們只是再一次把這種天生的認知方式投射到了人工智能,這個天然就是要仿照人類認知能力去構造的系統上面。一旦再給人工智能配上人形身材和眼耳鼻嘴這樣的面孔,人類就更加無法從這種對智能的過度投射中抽身而出了。
通常在大多數時候,產生這種“格式塔”效應的心理投射是無傷大雅的,甚至還能給我們的生活帶來許多的樂趣,比如,調戲AI機器人一直是很多人生活中快樂的源泉。當然,凡事皆有度,一旦我們產生對于AI的過度樂觀或者過度悲觀的心理投射,對于我們人類自身和AI的發展來說,未必是一件正常的事情。
打破過度投射:AI的歸AI,人類的歸人類
對于AI技術的過度心理投射,會產生這樣兩種完全不同的相處心態。一種是對AI技術過于信任,從而過于依賴AI提供給人的信息和答案。這種時候人們往往并不太理解人工智能的技術原理和能力范圍,很多人會高估AI的發展水平,陷入到對AI的狂熱崇拜中,比如去相信什么AI彩票、AI算命等毫無根據的事情,也有可能過于依賴AI的意見進行決策,而忽視AI算法可能存在的歧視、偏差等問題。
另一種是對AI技術過于懷疑,從而失去跟AI協同工作和生活的意愿。這些人們同樣會陷入到對AI技術的不切實際的判斷中,但是他們通常把AI視為一種威脅,認為AI技術正在無時不刻地竊取人類的隱私,干擾你的意圖,并最終控制你的一切喜好和消費。前面一種容易陷入到假AI的“小白鼠”套路里,而后一種則更容易陷入到被迫害的“妄想癥”當中。那么,我們該如何打破這種對AI的過度心理投射呢?
歷史上,基督教在處理世俗權力和精神權力紛時,提出了“上帝的歸上帝,凱撒的歸凱撒”這樣的高級智慧。依樣畫瓢,現在我們在處理人類和AI的相處關系之時,也可以用“AI的歸AI,人類的歸人類”的解決方案。在AI技術開始影響我們日常生活的各種決策的時候,我們需要分辨清楚哪些是影響我們的事實判斷,哪些會影響我們的價值判斷。比如,AI會給我們提供更加合理的路線規劃、更加嚴謹的外文翻譯,給出更準確的搜索數據,但同時AI也會給我們推送我們更符合我們偏好的新聞、視頻、社交好友、商品等,而我們需要對后者保持高度警惕。
而在我們在對各種AI應用,進行心理投射時,我們也要有主動意識地分辨出哪些是基于事實的理性判斷,哪些是基于情感的非理性判斷。比如,對于今天的AI技術發展,我們可以大膽放心地將其視作人類可靠的實用性工具,而不必擔心那個將要“取代人類”的邪惡AI的出現。再比如,我們可以對眾多AI應用產生一種信賴但又能寬容其出錯的心態。就像在開車時,面對一個在前面小心翼翼行駛的自動駕駛汽車,我們自然不會產生過多的不滿情緒。
另外,隨著人工智能的持續演進,以腦機接口、機械外骨骼為典型代表的人機交互技術也在逐步走向現實世界。越來越多的人可能成為兼具生物屬性和人工智能屬性的賽博格(Cyborg)人類。顯然,按照人類所普遍具有的這種過度投射心理,我們自然會對這些跨物種的新型人類產生這種“恐怖谷”的情感反應,人類種群也必然要掀起一場對于究竟何種程度的賽博格人類可以與主流人類社會共存的討論。
那么,如何將這些討論限制在可以和平對話,合理合法推進的軌道,而不是淪為非理性的情感紛爭,甚至無端的仇視敵對,這可能也是今天我們就需要對于這種心理投射的弱點展開主動的練習的原因之一吧。區分事實和評價,區分理性和情感,讓自己足夠配得上AI時代的心智水平,這或許是我們能夠在未來飛躍“恐怖谷”的一門必修課。
fqj
-
AI
+關注
關注
87文章
30897瀏覽量
269111 -
人工智能
+關注
關注
1791文章
47279瀏覽量
238513
發布評論請先 登錄
相關推薦
評論