熱線電話:13121318867

登錄
首頁精彩閱讀人工智能在企業應用中的道德規范
人工智能在企業應用中的道德規范
2018-05-01
收藏

人工智能在企業應用中的道德規范

AI是指智能水平不亞于甚至超過人類的軟件產品,也稱為“強AI”。但上述新項目對AI的定義還包括補充或取代人類決策的機器學習和數據驅動算法。

例如,有證據表明,當黑皮膚的使用者把手放在傳感器上時,某些自動皂液器不起作用。這些系統由開發人員用自己的手進行測試,但沒有在膚色不同的用戶身上進行測試。這個例子說明人類創造的算法會按照開發者的觀點和偏見行事。

有多少首席執行官真正知道他們的公司如何獲得和使用AI和AI算法?

人工智能(AI)越來越多地被用于企業應用,它可以通過解析數據來獲得對客戶和競爭對手的有用洞見,從而提供競爭優勢。但還有一個并行的趨勢:評估AI和企業AI算法的道德影響。

就在去年,麻省理工學院(MIT)和哈佛大學共同開展了一個探索AI道德規范的項目,耗資2700萬美元。最近,谷歌在2014年收購的英國私企DeepMind Technologies組建了一支新的研究團隊,致力于研究AI道德規范。近期其他的AI道德規范項目包括IEEE全球人工智能和自主系統道德考量計劃、紐約大學AI Now研究所和劍橋大學Leverhulme未來智能研究中心。

AI道德規范為什么如此令人感興趣,這對企業組織意味著什么?

最近發生的災難性品牌名聲受損和輿論抨擊揭示了將AI部署到企業中可能伴隨的道德、社會和企業風險。

AI的定義

一些專家堅持認為,AI是指智能水平不亞于甚至超過人類的軟件產品,也稱為“強AI”。但上述新項目對AI的定義還包括補充或取代人類決策的機器學習和數據驅動算法。

如果接受后面這個更廣泛的定義,那么我們必須認識到,AI多年來就已經是電腦時代的特征。如今,在大數據、互聯網和社交媒體時代,使用人工智能帶來的許多優勢已經廣為人知,受到普遍認可:人工智能可以為企業提供競爭優勢、提升效率、洞悉客戶及其行為。

運用算法來發現數據中的重要模式和價值,這幾乎被一致認為是價值創造的省錢途徑,特別是在市場導向的競爭環境中。但AI道德規范項目的興起證明,這些看似有利的AI應用可能會適得其反。最近發生的災難性品牌名聲受損和輿論抨擊揭示了將AI部署到企業中可能伴隨的道德、社會和企業風險。

企業組織應該仔細思考他們使用AI的方式,因為這也會帶來商業風險。

企業如果未能發現AI算法或機器學習系統開發人員的潛在偏見,就可能會將企業中所有利益相關者的偏見系統化。

人的偏見和歧視

AI算法和我們用來訓練這些算法的數據集通常來自人類。因此,這些算法不可避免地反映了人的偏見。例如,有證據表明,當黑皮膚的使用者把手放在傳感器上時,某些自動皂液器不起作用。這些系統由開發人員用自己的手進行測試,但沒有在膚色不同的用戶身上進行測試。這個例子說明人類創造的算法會按照開發者的觀點和偏見行事。

這些偏見通常是無意的,但無論造成的后果是否有意為之,犯下上述錯誤的公司都會面臨潛在風險。更重要的是,不管有意還是無意,人造算法可能固有的人類偏見在很大程度上逃避了審查,從而導致使用AI的企業面臨風險。

企業如果未能發現AI算法或機器學習系統開發人員的潛在偏見,就可能會將企業中所有利益相關者的偏見系統化。這會使企業面臨品牌名聲受損、法律訴訟、輿論抨擊的風險,還可能失去員工和客戶的信任。

企業應該為自己和社會所做的是否不僅僅是遵紀守法?企業能否自信地說自己對AI的使用是公平的、透明的、對人類負責的?

AI的廣泛應用和風險

存有偏見的皂液器只是一個例子,AI算法還可以用于招聘、量刑和安保行動。它們是社交媒體正常運行或不正常運行的內在因素。

簡而言之,AI被用于無數的日常和專業工作。它正變得無處不在,它對企業的潛在風險也是如此。我們面臨的挑戰是理解算法如何設計和審查,以避免開發者的觀點和偏見(不管是有意還是無意)。這提出了具有挑戰性的問題。

有多少首席執行官真正知道他們的公司如何獲得和使用AI和AI算法?(許多公司與第三方AI解決方案提供商合作。)

企業盡職調查是一項法律要求,這是否包括審查企業如何生成和使用AI應用程序?對于使用AI的企業來說,盡職調查和合規性的法律定義是否全面?道德規范和企業責任的傳統概念是否適用于此?

企業應該為自己和社會所做的是否不僅僅是遵紀守法?企業能否自信地說自己對AI的使用是公平的、透明的、對人類負責的?

想要回答這些問題,企業必須審視和闡明自己在企業道德方面的立場,并運用系統性方法來評估風險。

助長趨勢

兩個趨勢可能加劇對AI應用和AI用戶進行風險評估的緊迫性和重要性。首先,消費者、公民和政策制定者越來越重視和擔心人工智能的日益普及和可能造成的濫用或意外后果。由此產生的結果是,透明度,公平性和問責制作為競爭優勢得到了更多關注。

最終,我們希望能夠確定重要的價值觀,將它們嵌入到AI算法的設計中,了解相關風險,繼續驗證個人、企業和社會在AI實踐方面的有效性。

行動號召

解決這些問題的第一步是意識。你的公司如何使用AI,誰可能受到影響?是否需要聘請外部專家來進行評估?

闡明你公司的核心價值觀也很重要。你使用AI的方式是否符合那些價值觀?如果不是,如何才能讓二者相符?

有資源可以幫助解決這一問題。例如,我是IEEE全球人工智能和自主系統道德考量計劃的執行成員,該計劃致力于研究各種AI相關應用的最佳實踐,提供有助于加強這方面認識和決策指導的資源,制定AI應用的標準。(IEEE是指電氣與電子工程師協會,是最大的技術專業組織,致力于推動技術發展,造福人類。)

一個重要的資源是該計劃的“符合倫理的設計:人工智能和自主系統優先考慮人類福祉的愿景”。這份文件已發布第二版,鼓勵技術人員在開發自主和智能技術的過程中,把道德考量放在優先位置。

該計劃與IEEE標準協會展開了密切合作。最近,IEEE標準協會開始制定兒童和學生數據治理、雇主透明實踐和人類介入式AI的標準,確保由人類價值觀來引導影響我們每個人的算法開發。

最終,我們希望能夠確定重要的價值觀,將它們嵌入到AI算法的設計中,了解相關風險,繼續驗證個人、企業和社會在AI實踐方面的有效性。

請放心,這是一個新興的話題,本文表達的擔心和目標仍然是人們積極研究的領域。然而,想要在AI時代成為對社會負責任的企業,企業領導者必須意識到問題所在,開始識別企業價值觀,將之嵌入到AI應用程序的道德設計中。


數據分析咨詢請掃描二維碼

若不方便掃碼,搜微信號:CDAshujufenxi

數據分析師資訊
更多

OK
客服在線
立即咨詢
日韩人妻系列无码专区视频,先锋高清无码,无码免费视欧非,国精产品一区一区三区无码
客服在線
立即咨詢