人機競爭的理論基礎及人工智能與人類競爭問題分析
人類主宰地球并演化發展到今天,除了人
與人之間的競爭,已經沒有任何對手能與人競
爭了,但是,還是有一種對手會讓人從骨子里
感到畏懼和憂慮,那就是人類不甘寂寞而創造
智能是人們認識和改造世界的綜合能力,
人工智能則是人創造的類似于自己智能的智
能,表現為兩種。一是弱人工智能,只要機
器、軟件表現得像人一樣就可以算作有智能,
圖靈試驗是衡量標準。另一種是強人工智能,
其特點是完全與人一樣,會思考、能學習,是
具有人類智慧的機器,能夠檢測的標準是約翰·
塞繆爾設計的“中文屋思想試驗”。
人機競爭的理論基礎
人工智能無所不在地潛藏、萌發、產生和
應用于人們生活的各個方面和各個角落,凡有
人類足跡和活動的地方,都可能出現人工智
能,除了替代人們工作和服務于人之外,人工
智能還必然會與人產生激烈的競爭,隨后形成
事實上的出乎于人的意志之外的結果——人工
智能對人類造成威脅,并可能最終戰勝人。
這一點,以霍金為代表的科學家已經頻頻
提出。人工智能對人造成潛在的威脅可以體現
在各個方面,包括自主型殺人武器的失控和對
人類大開殺戒、對經濟的破壞,甚至人工智能
可以發展出與人類完全沖突的屬于自我的意
志。人工智能的崛起可能是人類遇到的最好的
事情,也可能是最壞的事情。如果是后者,則
人工智能的發明可能是人類歷史上最大的災
難。如果不加以恰當管理,會思考的機器可能
終結人類文明。
這種假設的理論和事實依據在于,人工智
能有強大的快速復制的能力。復制原本是生物
把遺傳信息傳遞下去的一種機制,通過DNA到
RNA的轉錄,再把DNA的信息精確地傳遞到下
一代。但是,這只是基因的復制,而非實際能
力的復制。人的所有能力只是潛藏在基因中,
從基因到能力的再現或實現還需要經歷如同
人工智能與人類的競爭
■ 李蕓蕓
4
ChaoXing
2017.2B 百科知識
前 沿 QIANYAN QIANYAN 前 沿
DNA到RNA轉錄一樣的或更為復雜的機制,也
就是后天的實踐、練習、開發、擴展和創新。
一名優秀運動員的后代,如喬丹的兒子不會因
為繼承了喬丹的基因就會打籃球,甚至青出于
藍而勝于藍,而是需要后天的訓練和努力才能
激活基因中的潛能。也可以說,這也是人類智
慧或智能的短板。
但是,人工智能不同于人類智慧,它是一
種機器智能,最大的特點是可以迅速復制一種
技術或技能。一旦某一個人工智能機器通過深
度學習而擁有97%以上的人臉識別正確率,在頃
刻之間,世界所有同類的人工智能機器都可以
具備這樣的正確識別率。這種無成本復制和持
續向前的演化能力是人工智能相對于人類智能
的最大優勢,因此有可能產生“冰,水為之而
寒于水”的結果。
更讓人擔心的是,人類基因中一種與生物
演化相關的特點,將可能讓人類難以承受智能
機器人 (人工智能) 的挑戰。人性中包含有原
欲和原惡兩個部分。人類的原欲中包括食欲、
性欲和知欲。這三種欲望是人類世世代代、生
生不息的原動力。沒有食,人類會絕種;沒有
性,人類也會絕種;沒有知,人類在一個物競
天擇的演化環境中亦會絕種。所以,人類的原
欲與人類共生、共存、共進、共殃。
但是,沒有節制的原欲恰恰又是人類原惡
的根源,這種根源又來自基因所固有的特點,
即自我復制和自私,因為基因的自私是其存在
和延續的手段。所以,當人工智能擁有了人類
的特點并超過人類基因的復制能力,并且有了
自我意識時,對人類的挑戰就會超過歷史上人
與人的戰爭所產生的最為殘酷和悲慘的結局。
殺人機器人的標本解析
智能“殺人機器人”將是人工智能挑戰或
毀滅人類的最直接的形式和體現。盡管阿西莫
夫提出了機器人三定律,后來又補充為四定
律,即,第一定律:機器人不得傷害人類,或
坐視人類受到傷害;第二定律:除非違背第一
定律,否則機器人必須服從人類的命令;第三
定律:在不違背第一及第二定律下,機器人必
須保護自己;第零定律:機器人不得傷害人類
族群,或因不作為使人類族群受到傷害,但
是,殺人機器人的出爐或即將出爐意味著機器
人四定律將可能是一張廢紙。
迄今為止,殺人機器人還沒有問世,但是美
國軍方曾表達過這種意愿,而且無人機技術的發
展,以及美國等國四足型、巡邏用機器人的開發
應用,已經使得實質意義上的殺人機器人呼之欲
出,擁有人工智能的殺人機器人的問世是早晚的
事。因為,研發和使用此類機器人有諸多理由,
例如,有助于減少實際戰爭中人類士兵的犧牲,
是一種具有實際價值的行為。為避免機器人的濫
殺無辜,可以為機器人安裝“基于國際法的系統
程序”,如此它們將不會進行非人道的殺傷。
然而,殺人機器人有利于人類社會的觀念
面臨社會現實和技術等多方面的嚴峻考驗。例
如,在機器人出現機能障礙,或被恐怖分子獲
得時,其危險性不可估量;使用殺人機器人可
能意味著國家無需顧及士兵的性命,使得戰爭
發生的危機顯著增大;同時是否將人類的生死
問題委托給機器人也關系到人類重大倫理問題。
不過,最大的問題是,當殺人機器人擁有
了自我意識和自主性時,它將不可能受機器人
定律或國際法的約束而自行其事。其最終的行
為是,當遇到程序設計的原則,或遇到可能危
害自己的安全時,殺人機器人就會自主和主動
殺人。程序設計的一個例子是,當機器人察覺
到對手有武器并且在準備射擊時,會自動和率
先擊斃對方,而不可能先經過人的同意,而且
也不會分辨對方拿的是玩具槍還是其他類似槍
的工具,如大棒,抑或是對方在開玩笑。
自我意識在以前被視為是智能機器人不可
能擁有的,但是,人工智能的發展讓人觳觫不
安,因為智能機器人可能會慢慢擁有自我意
識,盡管這種自我意識還并非真正意義上的人
的意識。現在,人工智能的意識已經發展到認
非常好我支持^.^
(0) 0%
不好我反對
(0) 0%