隨著人工智能繼續進軍企業,許多IT專業人士開始對其使用的系統中可能存在的AI偏見表示擔憂。一份來自DataRobot的最新報告發現,美國和英國近一半的人工智能專業人士“非?!睋娜斯ぶ悄艿钠?。
這份報告于去年6月對350多名參與人工智能和機器學習(ML)采購決策的美國和英國首席信息官、首席技術官、副總裁和IT經理進行了調查,報告還發現,“品牌聲譽受損”和“客戶信任喪失”是人工智能偏見最令人擔憂的后果。這促使93%的受訪者表示,他們計劃在未來12個月加大對人工智能偏見預防措施的投資。
DataRobot可信人工智能副總裁特德?夸特勒表示,盡管許多組織將人工智能視為游戲規則的改變者,但許多組織仍在使用不可信的人工智能系統。他說,“鑒于企業在使用人工智能方面的重大失誤,組織必須確保人工智能方法符合其組織價值觀?!?/p>
DataRobot的報告稱,在企業內部管理人工智能驅動的功能可能很有價值,但也可能帶來挑戰。并非所有人工智能都得到平等對待,如果沒有適當的知識或資源,企業可以選擇或部署人工智能的方式可能弊大于利。
調查發現,超過三分之一的人工智能專業人員仍然使用黑盒人工智能系統,這意味著他們對如何使用輸入到人工智能解決方案中的數據幾乎一無所知。DataRobot說,這種缺乏可視性的情況可能會導致受訪者對其組織內出現的人工智能偏見感到擔憂。
“AI偏見的出現是因為我們正在對熟悉的檢索系統中的不完整數據做出決定,”認知計算和內容分析咨詢公司CythExIS的總裁費爾德曼說,“算法都對世界和用戶的優先級做出假設。這意味著,除非你理解這些假設,否則你仍將盲目飛行。這就是為什么必須使用包括人在內的系統,而不是在真空中做決定的原因?!?/p>
如何減少人工智能偏差
Gartner研究副總裁Jim Hare在一份聲明中說:“需要新的工具和技能來幫助企業識別這些和其他潛在的偏見來源,在使用人工智能模型方面建立更多的信任,并降低企業品牌和聲譽風險。越來越多的數據和分析領導者和首席數據官(CDO)正在雇傭ML法證和道德調查人員。”
Facebook、谷歌、美國銀行、MassMutual和美國航天局等機構正在或已經任命人工智能行為鑒證專家,在人工智能模型部署之前,集中精力發現不希望出現的偏見。
如果人工智能要發揮其潛力,增加人們對系統的信任,就必須采取措施,盡量減少偏見。其中包括注意人工智能可以幫助糾正偏見的背景,以及人工智能有可能加劇偏見的背景;建立測試和減輕人工智能系統偏差的過程和實踐;參與基于事實的對話,討論人類決策中的偏見;探索人類和機器如何最佳地協同工作;加大對偏見研究的投入,提供更多的數據,同時限制隱私;以及加大對人工智能領域多樣化的投資。
研究發現,雖然美國受訪者最關心的是由于用戶和系統設計之間的偏差而產生的偏差,但英國受訪者更關心的是技術偏差或由技術限制引起的偏差。
研究顯示,為了加強人工智能偏見的預防工作,59%的受訪者表示,他們計劃投資更復雜的白盒系統,54%的受訪者表示,他們將聘請內部人員管理人工智能信任,48%的受訪者表示,他們打算聘請第三方供應商監督人工智能信任。
組織需要擁有并內化他們的人工智能策略,因為這有助于他們確保人工智能模型符合他們的價值觀。對于每個業務環境和行業,需要在部署之前和之后對模型進行評估,以降低風險。
報告顯示,除了這些預防人工智能偏差的措施外,大多數全球受訪者認為,人工智能監管將有助于界定什么是人工智能偏差,以及應該如何預防。
-
谷歌
+關注
關注
27文章
6171瀏覽量
105490 -
AI
+關注
關注
87文章
30998瀏覽量
269328 -
人工智能
+關注
關注
1791文章
47352瀏覽量
238791
發布評論請先 登錄
相關推薦
評論