在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

詳細分析人工智能犯罪的理論與立法問題

工業4俱樂部 ? 來源:cc ? 2019-02-25 10:11 ? 次閱讀

現代技術發展所帶來的社會問題越來越突顯,如何對技術進行有效控制和反思愈發成為各個領域所關注的重要問題{1}。在互聯網不斷發展的基礎上,多功能互動、人工智能、虛擬世界、注意力經濟、在線視頻等各方面的科學技能不斷改進{2}。特別是近半個世紀以來人工智能飛速發展,帶來一系列的法律問題。在人工智能逐漸完善的過程中,其所涉及的法律問題也開始由民事領域、知識產權領域向刑事領域轉向。2017年9月22日,紹興市公安機關破獲全國首例利用人工智能技術實施的“特大侵犯公民個人信息案”,即“全國首例利用AI犯罪案”,利用人工智能犯罪活動已開始在我國出現。但是人工智能犯罪究竟帶來何種新的刑法命題與難題?現有刑法理論又該秉持何種態度?目前國內尚缺乏關于這一問題的專門研究,一些基本問題亟需厘清,進而契合相關犯罪的治理需要。

一、風險語境下的人工智能

對社會風險的權衡與回應始終是刑事立法所需關切的理論與現實命題,人工智能技術的發展延伸了社會風險的圖景,也為刑法帶來新的難題。

1.人工智能的發展與風險

人工智能(Artificial Intelligence,簡稱AI)這一概念的出現一般認為可以追溯至1956年。此后,隨著人工智能概念的不斷發展,學界也在努力對其做出精確的界定。較具代表性的是從類人、理性、思維、行為這4個方面給出的定義。有學者進而認為可以從“能力”和“學科”兩個方面給出人工智能的解釋:從能力的角度看,人工智能是指用人工的方法在機器(計算機)上實現的智能;從學科的角度看,人工智能是一門研究如何構造智能機器或智能系統,使它能夠模擬、延伸和擴展人類智能的學科{3}。根據諸多學者對于人工智能的界定,人工智能是人為創造的智慧,即在計算機或其他設備上模擬人類思維的軟件系統{4}。筆者認為,以上界定大都肯定人工智能這一核心內涵:即人工智能是基于人類的設定或要求,通過計算機信息系統實施一定智能行動的實體或程序。

隨著人工智能技術的發展和完善,其智能水平和社會意義也愈發彰顯。美國國家科學技術委員會、美國網絡和信息技術研發小組委員會2016年10月公布的《美國國家人工智能研究和發展戰略計劃》指出, AI系統在專業任務上的表現經常勝于人類。AI首次超越人類表現的主要里程碑包括:國際象棋(1997年)、Trivia(2011年)、Atari游戲(2013年)、圖像識別(2015年)、語音識別(2015年)和Go(即AlphaGo圍棋,2016年)。人工智能的社會應用也愈發廣泛,如在醫療領域、人工智能軟件特別是包含機器學習的軟件、其提供了無需基于規則編程的數據學習的能力、可以簡化將微量元素從初始化到市場化的過程{5}。目前其應用領域包括博弈、自動推理與定理證明、專家系統、自然語言理解、模擬人的性能、規劃與機器人、 AI語言和環境、機器學習、神經網絡與遺傳算法、AI與哲學等{6}。我國也正在逐步推廣和應用人工智能,其普及和發展已經在相當程度上改變著社會的發展和人們的認知。

但是,人工智能的發展也伴隨著莫大的風險。如美國自動駕駛汽車特斯拉頻頻出事故:2016年5月間,在佛羅里達的一條高速公路上,一輛開啟了Autopilot模式的特斯拉發生了車禍,致駕駛員死亡;2016年6月至8月間,特斯拉的自動駕駛汽車也屢屢發生車禍造成車主與其他人員傷亡。2016年9月,央視《法治在線》欄目曝光了特斯拉自動駕駛在中國出現首例死亡事故,特斯拉處于“定速”的狀態,并未能識別躲閃而撞上前車。而2015年7月英國《***》報道的大眾機器人“殺人事件”中,大眾承包商的一名工作人員不幸身亡,事發時其正與同事一起安裝機器人,但機器人卻突然抓住他的胸部,然后把他重重地壓向一塊金屬板,最終導致這名工作人員因傷重不治身亡。新技術經常引起公眾的焦慮,但人工智能進步帶來的影響尤為顯著{7}。就人工智能的風險,2015年霍金等簽發***,警告稱在進行人工智能研究的同時必須相應地采取防范措施,避免人工智能給人類社會造成潛在傷害。***指出:在短期內,人工智能技術將讓數百萬人失業。在長期內,人工智能可能潛在地讓機器的智商遠遠超過人類,做出違背編程的舉動。而在社會層面,如何從法律特別是刑法角度思考和回應上述風險也正是需要思考的問題。

2.人工智能的刑法命題

風險社會的發展變遷是現代刑法所必須面對的社會現實。自德國學者烏爾里希?貝克1986年出版《風險社會》一書以來,“風險”成為理解和詮釋社會變遷的一個關鍵性概念,“風險社會”隨之也成為解釋世界的全新范式{8}。在這一過程中,風險社會的到來無疑對于刑法理論與實踐產生了巨大的影響。由于風險的增大和嬗變,風險社會中公共管理的基本方略發生了重大變化,根除風險幾乎已經不可能,如何防控和分配風險成為社會管理的新命題,刑事立法與實踐的導向也因此發生重大變化。據此,有學者提出通過制度規范適應變動的社會是現代社會的法律傳統{9}。而在風險社會的邏輯支配下,一種新的刑事法律體系和一種新的刑法理論應當而且必須建立{10}。有學者已將人工智能的風險延展至風險社會的范式下予以研究:認為人工智能的首要問題是安全問題,可以置于風險社會理論的研究范疇之中。進而指出人工智能時代的社會風險具有以下特點:一是風險的共生性;二是風險的時代性;三是風險的全球性{11}。

縱觀世界各國,關于人工智能法律及相關規則體系的探索正在進行之中。決策者和學者正在越來越多地關注法律和道德秩序如何適應愈來愈多的機器、機器人和人工智能設備的問題{12}。立法者、法院和監管者都需要思考人工智能是否有任何特殊性以至于需要新的規則,以及如何以合適的方式介入人工智能新問題{13}。即需要回應這樣一個全新命題——現有的法律條文是否可以應付人工智能帶來的全新和技術復雜的挑戰?2016年5月,歐盟議會法律事務委員會發布《就機器人民事法律規則向歐盟委員會提出立法建議的報告草案》(Draft Report with Recommendations to the Commission on Civil Law Rules on Robotics);同年10月,發布研究成果《歐盟機器人民事法律規則》(European Civil Law Rules in Robotics)。2016年12月,電氣電子工程師學會(IEEE)發布《合倫理設計:利用人工智能和自主系統最大化人類福祉的愿景》(IEEE Ethically Aligned Design Document Elevates the Importance of Ethics in the Development of Artificial Intelligence and Autonomous Systems),具體包括8大主題,即一般原則、將價值觀嵌入自主智能系統、指導倫理研究和設計的方法論、通用人工智能和超級人工智能的安全與福祉、個人數據與個人訪問控制、自主武器系統、經濟和人道主義問題以及法律。在(人工智能)自動駕駛領域,2016年3月23日,聯合國關于道路交通管理的《維也納道路交通公約》獲得修正;美國道路交通安全管理局(NHTSA)于2013年發布《自動駕駛汽車的基本政策》;德國立法機構2016年對《德國道路交通條例》所規定的“駕駛員在車輛行駛過程中全程保持警惕”“駕駛員的手不能離開方向盤”等條文啟動立法修正{14}。但是迄今為止,關于人工智能犯罪的立法還處在探索階段。

與此同時,人工智能犯罪卻已成為必須面對的現實問題。2016年荷蘭人Jeffry van der Goot編寫了一個Twitter木馬程序,借此對當地的時尚秀發出死亡威脅。該木馬是一段算法隨機混入Jeffry個人Twitter狀態。Jeffry堅稱他無意威脅任何人,也不能預判木馬會做什么。最終他沒有受到任何指控,僅是在警方的要求下撤下了該木馬。同年,在全球領先的信息安全系列活動Black Hat(黑帽大會)上,美國國防高級研究計劃局讓自動化系統相互對抗,找到對手代碼中的漏洞并利用它們。如果相互對抗的自動化系統指向涉及國家安全等重要領域的計算機信息系統,那么無疑會轉化成相關的計算機犯罪。而且,我國也出現了人工智能相關犯罪案件。在“全國首例利用AI犯罪案”中“他們通過運用人工智能機器深度學習技術訓練機器,可以讓機器如AlphaGo一樣自主操作識別,有效識別圖片驗證碼,輕松繞過互聯網公司設置的賬戶登錄安全策略,給網絡詐騙、‘黑客’攻擊等網絡黑產提供犯罪工具?!痹谖覈牒蛯W習人工智能的過程中也不可避免地遇到人工智能犯罪問題,然而對其如何理解和解決目前還缺乏相關的研究。

筆者認為進行人工智能犯罪問題研究的必要性有以下3點:第一,信息網絡犯罪本就存在較大的犯罪黑數(即未被查證的犯罪數量),“全國首例利用AI犯罪案”僅是首例被發現的人工智能犯罪案件,很可能不是首例發生的人工智能犯罪案件,而且隨著我國人工智能技術和實踐的發展,相關案件肯定會愈來愈多,確有必要早關注、早研究、早治理。第二,人工智能犯罪不僅在內容上不同于傳統犯罪和一般的信息網絡犯罪,而且由于介入了人工智能的判斷與行為,在主體等問題認定上為既有刑法理論提出了全新的難題,也必須予以深入研究和探討。第三,在全球網絡化的今天,跨國家、跨法域犯罪十分普遍,人工智能犯罪往往和計算機信息系統和互聯網關聯,完全可以由他國主體對我國主體予以實施,如果國內刑法理論與立法缺乏必要的準備與實踐,那么很可能導致無法對他國主體利用人工智能實施的犯罪(如前述利用自動化系統相互對抗)予以規制,從而無法實現我國《刑法》第八條所規定的保護原則。由此,及時、果斷地進行人工智能犯罪研究具有重要的理論和實踐價值。

二、人工智能犯罪的理論難題

人工智能犯罪由于人工智能的介入使得其中各個要素之間的關系更為復雜,也對既有的刑法理論產生較大的沖擊,特別是對于既有的刑事主體理論提出新的挑戰,進而延展至罪過理論和行為理論。

1.主體難題:人工智能的刑法地位

人工智能的主體難題是其刑法命題的根本所在。隨著人工智能的發展,其智能的發展程度和獨立性也愈發突顯。雖然人工智能不免受預設程序的要求與目的影響,但是并不意味著人工智能不具有相當程度的獨立性。如“微軟聊天機器人Tay散布種族主義、性別歧視和攻擊同性戀言論”案件中, Tay是微軟2016年在Twitter上推出的聊天機器人,僅上線一天, Tay就開始有一些種族歧視之類的偏激言論,微軟不得不緊急關閉了Tay的Twitter賬號。Tay的設計原理是從對話交互中進行學習。于是一些網友開始和Tay說一些偏激的言論,刻意引導她模仿。該案也被稱為“2016年人工智能的10大失敗案例”之一。以我國語境為參照,發表特定言論可以構成犯罪(如散布危害國家安全、恐怖主義、誹謗他人等言論),如果他人誘導人工智能散布相關言論該如何認定?特別是該人工智能是基于自身的“學習”并“發表”以上言論該如何認定和處理?

在傳統刑法領域,只有自然人才是刑法規制的主體。行為是生物的基本特征,在某種意義上可以把行為與生命相提并論,沒有行為也就沒有生命。刑法中的行為,雖然是一種犯罪的行為,應當受到刑罰處罰,但它仍然具有人的一般行為的特征{15}。刑事古典學派與刑事近代學派雖然觀點上大相徑庭,但是其思考起點并無二致,如龍布羅梭的“犯罪認定型說”(生來犯罪人論)雖否認人具有自由意志,但認為犯罪人比起其他非犯罪人較為退化、原始和野蠻,此現象成為隔代遺傳或祖型重現{16}。即便是后來的刑法理論也一直秉持自然人作為刑法的首要甚至唯一規制對象這一前提,如“新社會防衛論”則在尊重人的價值與權利的前提下考慮犯罪人的復歸,將人視為社會防衛的目的{17}。而刑法的規制主體如果是機器人,那么這將面臨兩個基本的問題:其一,刑法要能保證道德主體的權利;其二,機器人應該遵守刑法上的義務{18}。而現階段人工智能顯然不具備自然人的特征,在其世界里只有“0”和“1”構成的信息及其處理,不僅在實施犯罪的前提與依據上存在障礙,在事后的處罰層面也面臨無從下手的問題。就此而言,人工智能并不能作為傳統體系的適格主體進入刑法視野。但同時,如Tay基于自身“學習”而后發表偏激言論的行為卻又在相當程度上脫離于設計者的意思,該如何對其主體性予以看待仍有待思考和研究。

2.罪過難題:人工智能犯罪的主觀方面

人工智能的一些獨立判斷和決定也帶來了罪過認定的難題。隨著人工智能的發展,機器人逐漸能夠從周圍環境的刺激中學習,并從自己的行為中獲得知識和技能,進而使機器人會越來越難以被它們的用戶和設計師預測。國外學者進而指出,我們必須確定機器人的意圖,因為其可能影響對機器人懲罰的正確性,所以應首先分析刑法(而不是民法)領域的原則、規則和概念{19}。如在“Jeffry van der Goot案”中,他所編寫的木馬程序脫離于本人的預判和控制,對于木馬“獨立”發動的攻擊行為的主觀方面該如何予以考量?再如BBC地平線系列紀錄片《尋找人工智能》(BBC Horizon: The Hunt for AI(2012))所報道的針刺機器人,機器人會根據自己的判斷是否會刺傷人的手指,對于其行為的主觀方面該如何認定?人工智能所帶來的主觀方面認定的難題已經成為現實。

這里需要說明“Tay案”與“Jeffry van der Goot案”的區別: Tay案完全基于人工智能的自主學習而發表偏激言論,不存在教唆或就發表偏激言論的相關指令,其行為系人工智能自身學習而后實施,故關注重點在于人工智能的主體性;“Jeffry van der Goot案”和針刺機器人系自然人賦予人工智能就侵害行為一定的決定權,而人工智能自行決定是否實施侵害,因而重點在犯罪的主觀方面。

一直以來,只有自然人的主觀罪過才進入刑法的視野?,F代刑法的主觀罪過理論確立了人的主體性以及自由、平等及相關權利,(自然)人成為主體與客體兩分的二元世界的主導,(自然)人的獨立意志成為權利、義務、責任包括處罰的前提基礎。構成這一思想的核心是主張尊重理性的觀點。人根據自己的理性,能決定自己的行為{20}。如費爾巴哈的心理強制說認為,人具有追求快樂、逃避痛苦的本能。為了防止犯罪,必須抑制行為人的感性的沖動,即科處作為害惡的刑罰,并使人們預先知道因犯罪而受刑的痛苦大于因犯罪所能得到的快樂,才能抑制其心理上萌生犯罪的意念{21}。其后,費爾巴哈的觀點雖經揚棄,但是人的自由意志一直作為刑法罪過理論的重要基石。如有學者指出,意志自由,這里主要是指相對意志自由是罪過心理的基礎,而罪過心理是一個犯罪構成的問題。因此,建立在意志自由之上的可歸責性應當是犯罪構成的題中之義{22}。黑格爾甚至還將自由意志納入了法益侵害的層面予以理解:當人侵犯了具體意志的存在,侵犯了人的自由意志,違背了抽象法的時候,人就構成了犯罪{23}。而人工智能的“意志”又和傳統刑法理論中的意志自由有所區別,既包括意志主體方面,也包括意志依據方面。人工智能的“意志”并非來源于天賦人權,而是來源于預設的程序和指令,但是其可以根據預設的程序和指令自行決定一定的行動,并可能導致一定的社會后果,二者的前提和討論范圍均不一致。所以前述理論并不能夠為人工智能基于獨立判斷和決定所實施侵害的主觀方面認定問題提供有效的闡釋依據。

而且這一問題還有必要結合人工智能的不同形態予以研究。人工智能可以分為強人工智能和弱人工智能。強人工智能的觀點認為未來能夠真正制造出能進行推理和解決問題的智能機器,這種智能機器像人一樣有知覺和意識。而弱人工智能的觀點認為,智能機器只是看起來像是智能的,它的智能只是表面的、非實質性的,不會像人類一樣真正擁有智能和意識{24}。雖然目前這一爭論尚無最終的定論,但是兩個層面的人工智能已經出現:第一個層面是比較低級的人工智能,即只是在特定領域、特定用途的智能化,人工智能不具備獨立的判斷與決定能力;第二層面是比較高級的人工智能,人工智能具備一定獨立的判斷與決定能力。如果說前者的人工智能犯罪主觀方面問題可以借助傳統的計算機犯罪范式予以闡釋,后者的人工智能犯罪主觀方面問題則需要進行新的研究和探討。

3.行為難題:人工智能犯罪的客觀方面

人工智能犯罪也為犯罪客觀方面的認定提出新的命題。從行為層面,人工智能犯罪可能涉及以下2種類型:第1種類型為人工智能本就應用于社會之中,由于人工智能出現問題或者其他原因產生危害社會的后果。如前文所述的特斯拉自動駕駛導致交通事故等嚴重后果的情形。在這種情形中人工智能本身用途無害,但是客觀上造成了法益侵害,這也是學界已經關注和研究的情形。如有學者對其再予展開,認為機器人致人損害有兩種情形:一是侵權人對智能系統進行非法控制而造成的損害。例如,黑客、病毒等人為因素侵入互聯網,進而控制人類家庭的兒童看護機器人、助老機器人、護士機器人或其他智能系統,由此導致危及人類的后果。二是智能系統自身的產品瑕疵而造成的損害{11}。第2種類型為人工智能被直接用于犯罪。如在“全國首例利用AI犯罪案”中,其通過人工智能將OCR文本識別技術用于非法獲取個人信息,人工智能被直接用于犯罪目的。

在傳統意義上,刑法中的行為只能是人的行為。如有學者指出,刑法上的行為,是指行為主體實施的客觀上侵犯法益的身體活動。首先,行為是人的身體活動,包括消極活動與積極活動。其次,行為上必須是客觀上侵犯法益的行為,這是行為的實質要素{25}。并以此區別犯罪行為與天災等造成現實侵害的事件,從而明確刑法所規制的行為界限。然而人工智能犯罪中的行為卻正是在兩者之間:第一,人工智能的“行為”并非自然人所直接發出的,有些甚至并非自然人所直接指令其發出的(如“Jeffry van der Goot案”),人工智能的“行為”在歸因于自然人的過程中存在一定障礙。第二,人工智能的“行為”又與自然人有一定的關聯,自然人縱然不直接指令人工智能實施一定的“行為”,但是至少會對人工智能的模式和范式做出設定。由此,如何認定自然人行為與人工智能“行為”的性質與界限是刑法理論必須思考的問題。

前述人工智能犯罪可能涉及的兩種情形更深化了這一問題:就第1種情形而言,自然人并非積極追求人工智能所造成的危害后果,甚至自然人所設定的人工智能運行規則是有益于社會的,那么對人工智能本身的“行為”可否追責?比如自動駕駛的特斯拉汽車交通肇事,在犯罪層面該如何認定“交通肇事行為”?其與自然人相關行為的關系如何,自然人的行為是否涉及監督過失等問題?就第2種情形而言,人工智能被用于犯罪目的,然而人工智能的“行為”不符合前述傳統理論的行為標準,那么是否應當、可以直接歸因與歸責于自然人?比如“全國首例利用AI犯罪案”中,雖然在侵犯計算機信息系統安全的整體框架下可以直接追究自然人的刑事責任,但如果其中自然人并未直接以行為的方式侵入計算機信息系統,從行為外觀上更像是制造侵入計算機信息系統的工具,是被制造的“工具”自行識別驗證碼和侵入計算機信息系統。如果該案中的情形尚可通過對實行行為擴大解釋予以解決,那么“Jeffry van der Goot案”中人工智能基于其判斷所實施的“行為”又該如何和相關自然人相區別?這些問題尚需要細致的探討和研究。

三、人工智能犯罪的刑法理論立場

刑法理論具有時代性,其總需要與特定歷史發展階段的犯罪治理相適應。就人工智能犯罪相關的理論而言也不例外,也需要基于人工智能犯罪發展乃至社會發展的階段來構建和展開。在現階段人工智能的發展已經在相當程度上挑戰著既有傳統理論,但同時人工智能的獨立性仍然較為有限,基于此,應在發展和適用傳統理論的基礎上推動人工智能犯罪主體問題的解決,進而推動罪過、行為等方面問題的解決。

1.當下路徑:堅持以自然人為中心

關于人工智能刑法立場的討論應基于人工智能發展現狀以及人工智能犯罪的現狀。前文已述人工智能有弱人工智能與強人工智能的劃分,目前的人工智能總體而言還屬于弱人工智能的階段。有學者認為,與人類主體的社會和文化屬性不同, AI的本質屬性是自然性和機械性。AI復制和強化了大腦思維的物質基礎和局部功能,它只是執行人類指令而并不考慮社會意義、社會責任和社會后果,也就不能形成主體真正的實踐活動和社會屬性{26}。雖然這樣的論述有否定人工智能未來智能性發展之嫌,但是總體而言現階段人工智能的發展仍未能全面突破這樣的論斷。即人工智能的發展目前整體上仍處于弱智能(Weak AI)階段,對其界定仍然是以機器——物來定義的{27}。

刑法理論和實踐的發展要與社會發展的階段相適應,人工智能犯罪領域也不例外。比如根據(人工智能)現有技術不能提供可能的充分安全保障或可以被要求的安全措施,那么能否普遍適用關于損害的賠償責任尚不能肯定{28}。而在現階段,不同于其他產品和發明,人工智能沒有人的完全控制,不能完全規劃和掌握相關的風險{29}。從主體承擔責任的前提來講,相關實體必須至少有能力認識到自己行為的道德后果,并且能夠獨立行動{30}。也有學者從其物理形態(機器人)來解讀人工智能(體),認為機器人不是具有生命的自然人,也區別于具有自己獨立意志并作為自然人集合體的法人,將其作為擬制之人以享有法律主體資格,在法理上尚有商榷之處。模擬和擴展“人類智能”機器人雖具有相當智性,但不具備人之心性和靈性,與具有“人類智慧”的自然人和自然人集合體是不能簡單等同的{11}。在主體層面,如果要使人工智能成為獨立的責任主體,需要人工智能的高度發展與完整責任主體的轉型發展,在現階段條件尚不夠成熟。所以有學者指出,德國關于經濟企業可罰性的深入討論已經非常清楚地表明,目前的刑罰體系并不適合非人類的對象{31}。基于以自然人為中心的刑法立場,對于既有理論予以發展和延伸,才是當下人工智能犯罪的應然路徑。具體而言,可從以下方面發展既有理論:

第一,間接故意理論。傳統上,我國刑法學界對于間接故意的理解是從認識因素和意志因素兩方面入手:在認識因素上,是“明知會發生危害社會的結果”;在意志因素上,則表現為“放任”的心理{32}。間接故意是介于故意與過失之間的罪過形態,在性質上間接故意與直接故意同屬于故意的范疇,但是其在認識因素與意志因素層面又不同于直接故意。對于“Jeffry van der Goot案”和“針刺機器人案”,對其中自然人的主觀方面可以通過間接故意進行有效評價——行為人對于人工智能是否造成損害結果持放任態度,既不積極追求,但是也不反對,符合間接故意的認識內容和意志內容。而且,這樣也不會對既有罪過理論產生過大的沖擊。傳統意義上,間接故意的行為是自然人實施的,只不過行為人對自己行為的后果持放任態度,而在以上思路中自然人的行為指向的是人工智能,對人工智能行動的后果持放任態度,客觀上擴展了間接故意的輻射范圍,使之適用于人工智能犯罪。也有學者指出,間接故意犯罪的存在范圍在以往的著作中向來是不明確的{33}。本身間接故意作為一種中間形態,也是為了解決介于直接故意與過失之間罪過形態的思路,發展間接故意理論以解決人工智能犯罪的理論難題具有適當性。

第二,監督過失的理論。過失理論經歷了舊過失論、新過失論、新新過失論的爭論,并加入被允許的危險與信賴原則、監督過失等內容,形成了豐富的理論體系。其中與人工智能犯罪關系最密切的為監督過失理論。監督過失就是有義務監督被監督人在行動時不發生錯誤的責任,其具體內容為事前的指示、提示、指揮、命令,行動中的監督或事后的檢查{34}。監督過失責任并不是讓監督者承擔被監督者的責任,不是代位責任,而是讓監督者承擔自己因監督過失而必須承擔的責任,監督過失責任與其他責任形式一樣,具有直接性{35}。基于此,可以直接對負有監督義務的自然人予以處罰。但是在傳統意義上,無論監督者還是被監督者均需為自然人。監督過失還分為廣義與狹義之分,廣義的監督過失還包括管理過失。所謂管理過失,是指由于管理者沒有建立相應的安全管理體制或者建立的安全管理體制不完備,或者對自己管理、支配范圍內的危險源管理不善而直接導致危害結果發生的情況,如管理者沒有制訂健全有效的安全管理制度,沒有盡職盡責地配置、維護好各種設備,沒有做好統籌的人事安排,或者對自己管領支配力范圍內的事務管理不當等{36}。如果從不涉及自然人主體的角度似乎管理過失更適用于人工智能犯罪,不過筆者認為監督過失是對一定主體對象的監督,而管理過失則是對于管理制度或危險物品疏忽的行為。從自然人和與其相關的人工智能關系來看,理解為監督關系更為恰當。比如特斯拉人工智能駕駛汽車,車主對于汽車并沒有實際的管理和控制,汽車的運行系人工智能所控制,其罪過層面理解為監督過失更為妥當。所以對于監督過失理論予以發展,使其被監督者從自然人擴展到人工智能對象更為妥當。

第三,直接因果關系理論。因果關系理論是犯罪客觀方面之中非常重要和內容豐富的理論范疇。因果關系的一個重要分類就是直接因果關系與間接因果關系。沒有介入其他原因,只有一個因果環節的,就是直接因果關系;介入了其他原因,有兩個以上因果環節的,就是間接因果關系{37}。而人工智能犯罪往往是自然人作用于人工智能,人工智能又基于其行動導致一定的危害后果。這又可以分為兩種情形討論:第1種情形,人工智能程序本身設定了固定的運算結果。比如“全國首例利用AI犯罪案”中,“快啊”打碼平臺所運用的人工智能本身指向識別驗證碼以實現非法登陸。第2種情形,人工智能程序本身僅設定了或然的運算結果。如前文所述“Jeffry van der Goot案”和“針刺機器人”。但無論哪種情形,在自然人行為與危害結果之間均介入了人工智能運算,從形式上看不是簡單的直接因果關系。筆者認為,應對直接因果關系的涵射范圍予以擴展,將包括人工智能中間環節的過程納入直接因果關系流程的范圍,使其涵蓋上述兩種情形,從而有效規制人工智能犯罪。這種理論擴展到共同犯罪的視野下更為必要,如“全國首例利用AI犯罪案”中,“快啊”打碼平臺則收取“深加工”費用,以一組信息加工費15元計,50%被分給了制作撞庫軟件的人,50%被平臺開發商李某和楊某平分。其中的行為人未必全部接觸人工智能、未必對于全部危害結果有預見,而且在此情況下直接因果關系理論更可以和共同犯罪中“部分行為全部責任”的原理相契合。

2.未來展望:人工智能的刑法擬制可能

未來人工智能犯罪的規制首先要回歸到人工智能發展可能性的問題上。“圖靈測試”對照一個人度量來檢驗智能機器的性能,論證了智力行為最好且僅有的標準。如果詢問者不能區分出人和計算機,則按圖靈的論證,可認為機器是智能的{6}。在此基礎上,關于強人工智能的可能性學界也曾有爭論。如John Searle認為即使有機器通過了圖靈測試,也不一定說明機器就真的像人一樣有思維和意識{38}。也有哲學家持不同的觀點。Daniel C.Dennett在其著作《Consciousness Explained》中認為,人也不過是一臺有靈魂的機器而已,為什么我們認為人可以有智能而普通機器就不能有呢?他認為像上述的數據轉換機器是有可能有思維和意識的{38}。而且現實層面這種可能也在逐漸發展:人工神經網絡具有自學習和自適應的能力,可以通過預先提供的一批相互對應的輸入—輸出數據,分析掌握兩者之間潛在的規律,最終根據這些規律,用新的輸入數據來推算輸出結果,這種學習分析的過程被稱為“訓練”{39}。即人工智能所采取的分析和決定機制雖然帶有一定的機械性,但是足以包含一個主體的進行判斷和行為的實質要素。也有學者從人工智能的實體Agent(或譯為“艾真體”)的角度予以論述,認為Agent的強定義從Agent的精神狀態出發,除了要求Agent具有弱定義的特性外,還要求Agent具有擬人的特性,如信念、意志、情感等。Shoham認為Agent還可以具有的特性有:移動性(Mobility)、真實性(Veracity)、仁慈性(Benevolence)和合理性(Rationality){40}。機器人倫理研究員Kate Darling將“社會機器人”定義為“在社會層面上與人類溝通和互動的物理實體智能體”{41}。人工智能的實體化為其全面進入刑法視野提供了可能。

人工智能所帶來的法律變革正在進行,為其進入刑法視野奠定了基礎。主要包括以下3個方面:

第一,人工智能主體資格的肯認。AI有可能在某種程度上賦予類似于人類的道德考量{42}。從法理上講,人類的意志自由作為處罰的假定前提,這一前提在道理上也可以適用于機器人{43}。有學者進而指出,未來的自主智能機器將有能力完全自主行為,不再是為人類所使用的被動工具;雖然人類設計、制造并部署了它們,但它們的行為卻不受人類的直接指令約束,而是基于對其所獲取的信息的分析和判斷,而且,它們在不同情境中的反應和決策可能不是其創造者可以預料到或者事先控制的。完全的自主性意味著新的機器范式為:不需要人類介入或者干預的“感知-思考-行動”{44}。有學者甚至認為人工智能是特殊性質的法律主體,其是人類社會發展到一定階段的必然產物,具有高度的智慧性與獨立的行為決策能力,其性質不同于傳統的工具或代理人{45}52。從未來而言,上述情形完全可能出現?!禔IonAI機器人法》(Artificial Intelligence-on-Artificial Intelligence (AIonAI) Laws)比照《世界人權宣言》第1條的規定做出如下表述:所有機器人都具有與人類相當的理性和良心,并應以兄弟關系的精神相對待{46}。人工智能主體資格正在逐步走向現實化。

第二,人工智能行為社會意義的賦予。法律所調整的對象必須是主體的行為,不論該主體是自然人主體還是擬制主體。隨著人工智能的發展,其行為的社會屬性也愈發現實化,并逐步為法律規范所認可。比如人工智能創作作品,對于采用了人工智能的繪畫機器人繪制的肖像畫或風景畫而言,在形式上就屬于“以線條、色彩或其他方式構成的審美意義的平面造型藝術”。同理,由“新聞寫作軟件”生成的新聞報道,以及由軟件生成的音樂,在形式上具備著作權法對文字作品及音樂作品的要求{47}。早在1988年英國立法就對這一問題做出規定:英國《版權、設計與專利法》( Copyright, Designs and Patents Act 1988)第178條對“計算機生成的作品”做了界定,它是指在“無人類作者”的環境下、由計算機環境生成的作品。同時,根據第178條的規定,“計算機生成的作品”明顯不同于將計算機作為創作工具的作品{48}。美國學者則指出,將言論自由權利擴大到強人工智能聊天機器人存在規范和實踐的困難,這可能會推動重新審視自由言論法律和理論的當代轉向,進而使未來的人工智能語言表達成為可能{49}。隨著人工智能行為被賦予越來越多的社會意義,其行為獨立納入刑法視野的正當性也愈發充足。

第三,人工智能責任制度的發展。關于人工智能的責任制度研究目前主要關注于對其相關自然人如何科以責任。如有學者認為,在侵權法中,大多數時候可以通過類動物、兒童、雇員的行為甚至高度危險行為來理解人工智能領域的嚴格責任規則。根據替代責任的理念,可以將其視為“雇主責任”規則{4}。IEEE《合倫理設計:利用人工智能和自主系統最大化人類福祉的愿景》提出的基本原則之二就是責任原則。其指出,為了解決過錯問題,避免公眾困惑,人工智能系統必須在程序層面具有可責性,證明其為什么以特定方式運作{14}。聯合國教科文組織《關于機器人倫理的初步草案報告》提出對機器人的責任采取分擔解決途徑。讓所有參與機器人發明、授權和使用過程中的主體分擔責任{45}55。我國學者也有提出構建智能機器人民事責任的若干方案,包括:其一,借鑒《侵權責任法》上關于危險責任的規定,讓智能機器人的制造商或者使用者承擔嚴格責任( Strict Liability);其二,差別化責任規則;其三,強制保險制度和賠償基金;其四,可以像歐盟那樣,考慮賦予某些智能機器人法律人格{44}。雖然目前人工智能責任制度在關注范圍和研究結論方面仍有較大的局限性,但是也表明人工智能問題已經進入法律責任的范疇討論。

法人主體的刑法擬制也為人工智能的刑法擬制提供了先例。法人犯罪的出現與研究使得犯罪主體限于自然人的態度有所松動。如我國“通說”認為,我國刑法中的犯罪主體,是指實施危害社會的行為并依法負刑事責任的自然人和單位{50}。但是在該書“犯罪主體概述”一節中繼而介紹的是“我國刑法中的自然人犯罪主體的共同要件”,而非“我國刑法中的犯罪主體的共同要件”,實際上側面描述了單位主體的出現對于純自然人犯罪主體認知的沖擊。法人犯罪的實施并不局限于某一或某些特定自然人,而是整體體現法人的意志,并且由法人成員集體予以實施,難以僅通過對于直接實施人的分析和處罰實現刑罰目的,因而需要對于法人犯罪包括法人本身做出獨立的考量。在這個意義上法人主體也是一種擬制主體。基于此,參考法人犯罪的思路,對于人工智能作為擬制主體看待未嘗不是未來人工智能犯罪刑法規制的可能思路。

此外,國外學者Kurt Seelmann甚至還對人工智能的“懲罰”做了一定的探索:如果一個自主或者說部分自主的電子人犯罪,不能歸因于自然人或者法人,則是其終身的恥辱,輕者應斷電一周;每個電子人是超越知覺的綜合體,其能力具有二次性,并非自然而生,但真實地具有(一定的)能力;電子人的自主是有限的,如果其程序設定如此{51}。當然,對于人工智能“處罰”的性質及其限度仍有待于未來隨著人工智能犯罪的發展而不斷深化。

四、人工智能犯罪的刑法對策展望

人工智能犯罪的刑法治理不僅需要理論層面的回應,更需要分析如何通過刑事立法的完善和適用來對其予以有效治理,對此應從理念和內容兩個層面展開。

1.理念層面:注重人工智能犯罪立法的前瞻性

注重人工智能犯罪立法的前瞻性主要基于技術發展背景下犯罪極速變化與刑法相對滯后之間的矛盾。立法所立足的技術背景和社會條件都處于急速的變化發展之中,法律的制定與實施既需要有前瞻性也要正視現實的可操作性{52}。刑法的安定性與刑法的適應性之間的矛盾是風險社會發展過程中所不可避免的長期命題。原本確定的、嚴格的刑事立法不得不為了回應犯罪的現實發展而改變既有的立法結構與內容。特別是在恐怖活動犯罪、環境犯罪、信息犯罪、網絡犯罪等新興犯罪的沖擊下,各國刑事立法均做出了較大的調整。有學者從刑事立法的活性化角度來予以論述,并將其主要表現概括為3個方面:犯罪化,即將過去未視為犯罪的行為犯罪化;處罰的早期化,即大量增加了未遂犯、危險犯、預備罪的處罰規定,逐漸使其由例外處罰類型變成常態處罰類型;處罰的重刑化,即提高有期徒刑的最高期限,加重性犯罪、殺人罪、傷害罪及各種交通犯罪的法定刑等{53}。隨著人工智能及其犯罪的發展,現有刑事立法在解釋和規制其過程中面臨著現實的障礙,在立法層面也應對人工智能犯罪做出獨立和恰當的考量,并借此推動刑事立法的更新和發展。否則,如果一味以傳統的理論立場對這種傾向進行批判不僅會導致刑法學喪失社會影響力,還可能錯失通過檢討立法反省刑法學本身存在的問題之機遇{54}?;诖?,筆者認為秉持一種前瞻式的立法理念,推動人工智能犯罪相關刑事立法的發展。具體可從以下3個方面展開:

第一,注重對于人工智能犯罪相關概念和對象立法前瞻的界定。目前有關人工智能犯罪的相關問題仍然處在探索之中,對于人工智能及其犯罪行為等相關概念仍然缺乏統一認識。此外,由于人工智能仍然處在變化發展過程中,也導致了對于人工智能犯罪相關概念不易做出精準界定。應對其予以科學界定,使之既契合當下人工智能犯罪治理的現實,也符合未來人工智能犯罪治理的需要。這需要做到以下兩點:其一,對于人工智能犯罪相關概念與對象的立法界定必須充分把握其實質,從而使之與相關的概念與對象有效區別,為科學和恰當地治理人工智能犯罪提供基礎;其二,在國家立法層面對于人工智能犯罪相關概念與對象的立法界定不應過細,應為相關下位立法和司法解釋預留必要的空間,從而更好地適應人工智能技術的發展階段。

第二,注重人工智能犯罪立法前瞻性與刑法安定性的統一。筆者認為,前瞻式立法既是回應人工智能犯罪的應然選擇,也與維持刑法自身穩定性和效力不相矛盾。有學者曾就網絡犯罪的前瞻式立法問題做出闡釋,指出在網絡犯罪立法中經常出現這樣的情況,當經過復雜而冗長的立法程序將某種網絡行為納入到法律進行規制時,卻發現該種行為在網絡上己經趨于銷聲匿跡了,代之而起的是新型的、法律尚未關注的行為,法律生效后很快就實質性失效的情況在網絡中更易發生{55}。人工智能犯罪也是如此,其相關刑事立法既要及時回應現實中該類犯罪的治理訴求,也要注重對于刑法自身安定性的維護。基于此,人工智能犯罪相關立法規定應注重層次性,形成法律層面、法規與規章層面、司法解釋層面的梯次結構,分別對于基礎規范、一般規范、具體規范予以規定,法律層面的相關規定注重概括性與穩定性,法規與規章層面和司法解釋層面的相關規定注重具體性和及時性,最終達到立法前瞻性與刑法安定性的統一。

第三,注重區分刑事立法的前瞻性與過度刑法化。在當代社會,過度刑法化是在理論和實踐層面都需要警惕的一個趨勢。有學者指出,刑法過度化是對現代刑法觀念的背棄,勢必引起社會治理的巨大風險。在英美國家,刑法過度所引起的罪名的增設和犯罪數量的增加導致了法院和監獄的過度擁擠,已造成了刑罰的譴責功能的大大退化{56}。前瞻式立法并不等同于盲目擴大犯罪圈,不會導致刑法的泛化適用{57}。就人工智能犯罪而言,一方面對于隨著人工智能發展所產生的新型犯罪需要對其予以犯罪化,比如智能機器人犯罪的問題,在此層面確實是犯罪圈的擴大;但另一方面,隨著人工智能的發展和普及,很多傳統犯罪會向人工智能犯罪轉移,如同互聯網時代詐騙犯罪從現實空間大量向網絡空間轉移,因此也會導致一些傳統犯罪領域犯罪圈的縮小。

2.規則層面:構建人工智能犯罪相關規范體系

人工智能的法律責任已經成為各國普遍關注的一個重要問題。IEEE《合倫理設計:利用人工智能和自主系統最大化人類福祉的愿景》提出的責任原則指出,為了解決過錯問題,避免公眾困惑,人工智能系統必須在程序層面具有可責性,證明其為什么以特定方式運作{14}。有效治理人工智能犯罪需要在前瞻性理念的指導下探索和建立相關刑事責任規范體系。結合前述理論和立法分析,筆者認為應從以下3個方面展開:

第一,人工智能犯罪的主體制度。如前所述,現階段人工智能尚不具備獨立的犯罪主體資格,應充分運用現有犯罪主體理論協調和解決人工智能犯罪的主體問題,重點規制與人工智能相關的自然人與法人。在這一層面需要解決的主要問題是如何將已經具有一定自主性的人工智能在既有的僅承認自然人與法人的犯罪主體體系中予以合理解釋。一個可行的思路是參考既有犯罪主體中的一些主體否定制度,比如間接正犯(否定他人的主體資格)、原因自由行為(延展行為人的主體資格)等問題的立法模式,使人工智能恰當地進入現有刑事主體立法框架,達到立法與處罰的協調。從長期來看可以參考法人主體的擬制思路,逐步探索構建人工智能刑事主體資格的法律擬制模式,基于人工智能的發展逐步構建和完善人工智能主體的意思要素、行為要素,使之正式進入刑法主體范圍。

第二,人工智能犯罪的行為模式。應探索人工智能犯罪行為的規范體系,在類型化的基礎上對其予以全面規制。其中應重視基于不同罪過形態對于人工智能犯罪予以類型化:對于人工智能過失犯罪,應在立法中明確與之相關的各個責任主體(如人工智能的制造人、使用人等),以及相關主體的注意義務及其具體內容,構建完整的過失犯罪行為立法模式;對于人工智能故意犯罪,應在立法中明確相關主體的罪過要素(犯罪目的等)、行為要素,并就共同犯罪問題做出獨立和科學的規定。此外,關于人工智能犯罪行為模式的立法也應與人工智能犯罪的主體制度協調。

第三,人工智能犯罪的刑事責任。就其刑事責任的設置可以在借鑒和參考民事責任的基礎上展開。國內有學者就人工智能的民事責任予以探討:其一,對于智能機器人,有損害必有責任。其二,如果最終負有責任的主體得到確認,其所應承擔的責任應與其給予機器人的指令級別以及機器人的自主性程度相稱。其三,為自主智能機器人造成的損害分配法律責任是一個復雜的問題,一個可能的解決方案是適用于智能機器人的強制保險制度。其四,可以考慮建立賠償基金,作為強制保險制度的一個補充。其五,與保險、賠償基金等相配套的機器人登記制度和機器人法律地位{44}。雖然諸如保險制度等規定不宜直接引入刑事領域,但是關于損害與責任的探討完全可以借鑒。在此基礎上,筆者認為人工智能犯罪的刑事責任可從以下兩個方面展開:其一,對于相關自然人、法人主體科以適當的主刑與附加刑,以契合當下的人工智能犯罪刑事打擊路徑,實現個別預防與一般預防。其二,設置與人工智能領域相關的資格刑,以防止再犯可能的發生。而人工智能犯罪資格刑的設置也可能為未來人工智能主體刑法擬制的責任化提供可能,即人工智能主體可能在將來被科以“資格刑”的處罰方式進入刑事責任領域。

五、結語

美國日微系統(Sun Microsystems)公司聯合創始人和首席科學家比爾?喬伊憂心忡忡地預言,21世紀最強大的3大技術——機器人技術、基因工程與納米技術——結合在一起,將會生成一個“有靈魂的機械”時代,這些智能機器人將融入并取代人類,使人類瀕臨滅絕{58}。在此意義上人工智能最大的問題并不在于他是否具有如人一樣的智能,而是在于它能否成為人們最需要的那種工具。

隨著社會的發展變遷特別是風險的流變,在學派的爭論與交織中,刑法理論與實踐日漸轉型和發展。以過失理論為例,經歷了從舊過失論、新過失論、新新過失論等跌宕與反思,并經由被允許的危險和信賴原則修正而形成今天的過失理論。在這個意義上,刑法理論的定型化、體系化均只具有一定階段的歷史意義和社會意義,刑法理論的更新發展是與社會發展相適應的必然趨勢。在人工智能風起云涌中,人工智能犯罪也正在為既有刑法理論與立法的發展提出時代的命題。探索人工智能犯罪的理論與立法回應既是立足于當下的新問題,也是展望未來的新思考。我們有理由相信這樣的探索過程會帶來既有刑法理論的發展與更新。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 計算機
    +關注

    關注

    19

    文章

    7513

    瀏覽量

    88161
  • 人工智能
    +關注

    關注

    1792

    文章

    47373

    瀏覽量

    238875

原文標題:人工智能犯罪的理論與立法問題初探

文章出處:【微信號:industry4_0club,微信公眾號:工業4俱樂部】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

     美國站群vps云服務器缺點詳細分析

    美國站群VPS云服務器在提供多項優勢的同時,也存在一些缺點。主機推薦小編為您整理發布美國站群vps云服務器缺點詳細分析
    的頭像 發表于 12-12 10:43 ?109次閱讀

    嵌入式和人工智能究竟是什么關系?

    人工智能應用的實時響應。與此同時,嵌入式系統在邊緣計算和物聯網領域,也為人工智能的應用提供了廣闊的空間。 在邊緣計算中,嵌入式系統能夠將人工智能算法部署到設備端,實現對數據的即時處理和分析
    發表于 11-14 16:39

    《AI for Science:人工智能驅動科學創新》第6章人AI與能源科學讀后感

    幸得一好書,特此來分享。感謝平臺,感謝作者。受益匪淺。 在閱讀《AI for Science:人工智能驅動科學創新》的第6章后,我深刻感受到人工智能在能源科學領域中的巨大潛力和廣泛應用。這一章詳細
    發表于 10-14 09:27

    AI for Science:人工智能驅動科學創新》第4章-AI與生命科學讀后感

    閱讀這一章后,我深感人工智能與生命科學的結合正引領著一場前所未有的科學革命,以下是我個人的讀后感: 1. 技術革新與生命科學進步 這一章詳細闡述了人工智能如何通過其強大的數據處理和分析
    發表于 10-14 09:21

    《AI for Science:人工智能驅動科學創新》第一章人工智能驅動的科學創新學習心得

    人工智能:科學研究的加速器 第一章清晰地闡述了人工智能作為科學研究工具的強大功能。通過機器學習、深度學習等先進技術,AI能夠處理和分析海量數據,發現傳統方法難以捕捉的模式和規律。這不僅極大地提高了數據處理
    發表于 10-14 09:12

    risc-v在人工智能圖像處理應用前景分析

    RISC-V在人工智能圖像處理領域的應用前景十分廣闊,這主要得益于其開源性、靈活性和低功耗等特點。以下是對RISC-V在人工智能圖像處理應用前景的詳細分析: 一、RISC-V的基本特點 RISC-V
    發表于 09-28 11:00

    人工智能ai 數電 模電 模擬集成電路原理 電路分析

    人工智能ai 數電 模電 模擬集成電路原理 電路分析 想問下哪些比較容易學 不過好像都是要學的
    發表于 09-26 15:24

    解放軍人工智能指揮系統:賦能指揮與控制系統

    是對解放軍人工智能指揮系統的詳細分析: 一、智慧華盛恒輝系統概述 解放軍人工智能指揮系統是一種高度智能化的計算機應用系統,它融合了人工智能、
    的頭像 發表于 09-09 16:39 ?901次閱讀

    名單公布!【書籍評測活動NO.44】AI for Science:人工智能驅動科學創新

    大力發展AI for Science的原因。 第2章從科學研究底層的理論模式與主要困境,以及人工智能三要素(數據、算法、算力)出發,對AI for Science的技術支撐進行解讀。 第3章介紹了在
    發表于 09-09 13:54

    報名開啟!深圳(國際)通用人工智能大會將啟幕,國內外大咖齊聚話AI

    8月28日至30日,2024深圳(國際)通用人工智能大會暨深圳(國際)通用人工智能產業博覽會將在深圳國際會展中心(寶安)舉辦。大會以“魅力AI·無限未來”為主題,致力于打造全球通用人工智能領域集產品
    發表于 08-22 15:00

    FPGA在人工智能中的應用有哪些?

    FPGA(現場可編程門陣列)在人工智能領域的應用非常廣泛,主要體現在以下幾個方面: 一、深度學習加速 訓練和推理過程加速:FPGA可以用來加速深度學習的訓練和推理過程。由于其高并行性和低延遲特性
    發表于 07-29 17:05

    人工智能芯片與服務器芯片的區別

    人工智能芯片(AI芯片)與服務器芯片在多個方面存在顯著差異,這些差異主要體現在設計目標、功能特性、應用場景以及技術發展趨勢上。以下是對兩者區別的詳細分析。
    的頭像 發表于 07-12 18:21 ?1654次閱讀

    5G智能物聯網課程之Aidlux下人工智能開發(SC171開發套件V2)

    5G智能物聯網課程之Aidlux下人工智能開發(SC171開發套件V2) 課程類別 課程名稱 視頻課程時長 視頻課程鏈接 課件鏈接 人工智能 參賽基礎知識指引 14分50秒 https
    發表于 05-10 16:46

    5G智能物聯網課程之Aidlux下人工智能開發(SC171開發套件V1)

    課程類別 課程名稱 視頻課程時長 視頻課程鏈接 課件鏈接 人工智能 參賽基礎知識指引 14分50秒 https://t.elecfans.com/v/25508.html *附件:參賽基礎知識指引
    發表于 04-01 10:40

    嵌入式人工智能的就業方向有哪些?

    嵌入式人工智能的就業方向有哪些? 在新一輪科技革命與產業變革的時代背景下,嵌入式人工智能成為國家新型基礎建設與傳統產業升級的核心驅動力。同時在此背景驅動下,眾多名企也紛紛在嵌入式人工智能領域布局
    發表于 02-26 10:17
    主站蜘蛛池模板: 超h高h文污肉| 久久都是精品| aaa一级| 三级在线网址| 免费一级黄色录像| 国产视频一二| 美女全黄网站免费观看| 午夜欧美日韩| 美女免费视频一区二区三区| 性欧美黑人| 深夜免费视频| 亚洲午夜精品久久久久久抢 | 国产亚洲美女精品久久久久狼| 一级特黄aaa大片免费看| 夜夜爱夜夜操| 久久精品美女| 天天操夜夜拍| 午夜黄大色黄大片美女图片| 爱婷婷网站在线观看| 黄色污网站在线观看| 免费日韩毛片| 欧美色图首页| 日韩第二页| 色香蕉视频| 四虎国产永久免费久久| 亚洲男人精品| 亚洲伊人tv综合网色| 一级特级片| 亚洲开心激情网| 日本级毛片免费观看| 国产操女| 免费被视频网站在线观看| 欧美高清另类| 亚洲一区在线视频| 亚洲www在线| 久久99热精品这里久久精品| 娇妻被黑人蹂躏| 直接看的黄色网址| 一级做a爰片久久毛片美女图片| 色一欲一性一乱一区二区三区| 看片地址|