熱線電話:13121318867

登錄
首頁精彩閱讀牛津、劍橋等專家聯合發布報告:警惕AI在未來的惡意使用
牛津、劍橋等專家聯合發布報告:警惕AI在未來的惡意使用
2018-02-27
收藏

牛津、劍橋等專家聯合發布報告:警惕AI在未來的惡意使用

當談到人工智能所帶來的危險,我們通常強調的是意想不到的副作用。我們擔心可能在無意間創造了超級智能AI,但在編程中沒有加入道德約束; 或者我們部署了刑事判決算法,這些算法包括了訓練數據的偏見。

但這只是一方面。

但是那些想把AI用于不道德行為、犯罪或惡意目的的人呢?這些人群是否更有可能利用AI進行惡意攻擊?

來自牛津大學的人類未來研究所、劍橋大學的潛在風險研究中心和Elon Musk支持的非營利性OpenAI等十四家組織機構的二十六名專家認為,以上兩個問題的答案是肯定的。

在上周發布的《人工智能的惡意使用:預測、預防和緩解》(The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation)的報告中,這些學者和研究人員列舉了在未來5年內AI可能給我們生活帶來危害的方式,以及能夠阻止這些危害的方法。雖然AI給人們帶來新型的攻擊,該報告的合著者,來自人類未來研究所的Miles Brundage認為,我們并不該感到恐慌或放棄希望。

“我傾向于保持樂觀,我們可以采取許多措施,”Brundage認為?!斑@篇報告的目的并不是描述未來慘淡的前景,而意味著我們可以采取大量防御措施,并且還有很多需要學習的東西。我并不認為這是沒有希望的,這篇報告更像是倡導書?!?

近100頁的報告內容廣泛,當中重點介紹了AI將加劇數字、物理安全系統的威脅,以及創造新型危險的方式。還闡述了解決這些問題的五條建議:包括讓AI工程師了解他們研究中可能存在的惡意使用; 啟動政策制定者和學者之間的交流對話,避免政府和執法機構對此一無所知。

AI將減少威脅成本

其中最主要的威脅在于:AI能夠讓需要人工完成的任務自動化,從而大大減少攻擊成本。

比如,釣魚攻擊,即某人發送其中特別設計的信息,誘使他人放棄安全憑證(比如冒充銀行的電子郵件)。當中的大部分工作可以由AI自動完成,映射出個人的社交和專業網絡,然后生成消息。比如通過創建聊天機器人冒充好友,向你索要郵箱密碼等。

這種攻擊聽起來很復雜,但一旦你創建了這些軟件,那么就可以反復使用,而不需要額外成本。釣魚郵件已經帶來了足夠的危害,比如2014年好萊塢名人iCloud照片泄露事件,以及希拉里克林頓的競選主席John Podesta私人郵件的泄露事件。

AI將增加威脅的新維度

第二大要點是,AI會為現有威脅增加新的維度。

比如在釣魚攻擊中,AI不僅可用于生郵件和短信,還可以用來偽造音頻和視頻。AI可以通過幾分鐘的語音來模擬目標人物的聲音,甚至生成虛假的視頻。這種新型的威脅形式將在未來五年成為不可忽視的問題。

AI將帶來的全新威脅

最后,報告介紹了AI帶來的全新威脅。當中列出了一些可能出現的場景,比如恐怖分子將植入炸彈的清潔機器人帶入政府部門。機器人利用內置的視覺感應系統追蹤特定的目標,當靠近目標時炸彈引爆。這利用了AI的新產品(清潔機器人)和其自主功能(機器視覺追蹤)。

這些情景聽起來似乎有些不切實際,但我們已經目睹了利用AI進行的新型攻擊。比如用deepfakes用深度學習技術,在未經同意的情況下所合成將名人的臉合成到色情視頻中。雖然目前還未出現引人注目的案例,但不法分子可以利用這種方式進行騷擾和勒索。

我們能做什么

報告中的這些例子讓你不禁思考:我們能做什么?

報告中提出了五個主要建議:

· AI人員應該告知研究中可能被惡意使用的情況;

· 決策者需要向技術專家了解這些潛在威脅;

· AI領域需要向網絡安全專家學習如何更好地進行系統保護;

· 需要制定AI的道德倫理框架,并嚴格遵循;

· 需要有更多的人的參與。不僅僅是AI科學家和決策者,還包括倫理學家,企業和普通大眾。

換句話說:我們需要更多的交流以及更多的行動。

數據分析咨詢請掃描二維碼

若不方便掃碼,搜微信號:CDAshujufenxi

數據分析師資訊
更多

OK
客服在線
立即咨詢
日韩人妻系列无码专区视频,先锋高清无码,无码免费视欧非,国精产品一区一区三区无码
客服在線
立即咨詢