熱線電話:13121318867

登錄
首頁精彩閱讀透視全球AI治理十大事件:站在創新十字路口,人工智能會失控嗎?
透視全球AI治理十大事件:站在創新十字路口,人工智能會失控嗎?
2020-03-31
收藏


透視全球AI治理十大事件:站在創新十字路口,人工智能會失控嗎?

作者 | 微胖

來源 | 機器之心


AI 顯著的幫助了社會生產效率的提高,同時也讓人類生活變得更加舒適便捷。但另一方面 AI 出現,對于人類社會倫理道德、隱私安全等方方面面都提出了挑戰。新年伊始,回顧近兩年全球較有代表性的十大 AI 倫理事件,我們認為,在允許技術適度向前發展的同時,也要在隱私、安全和便捷三者之間找到恰當的平衡。


「人工智能也許會是人類的終結者」,聞名世界的理論物理學家霍金生前曾對人工智能技術抱有十分警惕的態度。


過去十年,得益于算法、算力及通訊技術的提升,人工智能技術迎來了前所未有的發展機遇期。從理論到實踐、從實驗室走向產業化,人工智能技術在全球范圍內展開了一場集「產學研」為一體的比拼較量。


人工智能技術顯著幫助了社會生產效率的提高,同時也讓人類生活變得更加舒適便捷。但正如霍金所擔心的,人工智能的出現,對于人類社會倫理道德、隱私安全等方方面面都提出了挑戰。


特別是近一兩年,伴隨著 AI 技術大規模產業化應用,一些并無先例可循的人與人工智能矛盾逐漸浮出水面。擔憂和質疑之聲愈演愈烈,盡快探討出一種可預期的、可被約束的、行為向善的人工智能治理機制,成為了近人工智能時代的首要命題。


透視全球AI治理十大事件:站在創新十字路口,人工智能會失控嗎?


例如,曠視作為專注于 AI 的科技企業、AI 產業化落地的先行者之一,已經意識到正視人工智能技術所帶來的倫理問題的重要性,同時主張 AI 企業要把治理當作頭等大事來關注。


2019 年 7 月曠視首發人工智能應用準則,并于同年正式成立人工智能治理研究院,期望各界對 AI 事件有理性的關注,并要針對事件背后問題做深度的研究,通過社會各界建設性的討論,才能最終將 AI 向善這件事付諸于實際的行動。曠視聯合創始人、CEO 印奇用「理性的關注,深度的研究,建設性的討論,堅持不懈的行動」四句話,表達了曠視倡導 AI 治理的決心。


2020 年伊始,人工智能治理研究院首先回顧全球較有代表性的十大 AI 治理事件,希望從這些事件中與各方就背后折射的深層次問題探尋解決之道。


一、作為創作(包括造假)高手的 AI


還記得一幅名為《埃德蒙·貝拉米》的肖像畫嗎?在紐約由佳士得拍賣畫作最終成交價 432000 美元,甚至趕超同一時間在佳士得拍賣的畢加索的畫作。這位畫壇新起之秀并不是「人」,而是人工智能「畫家」。


如今的 AI,琴棋書畫,無所不能,除了新聞寫作、圖片生成、視頻與音樂創作,還能當歌手、明星換臉。當然,還能幫忙科研人員,上至天文探索,下至產品研發。


然而,在給人類生產和生活帶來效率、樂趣的同時,這些聰明的 AI 也制造了不少棘手問題,不僅挑戰著人類倫理底線,也沖擊著前人工智能時代法律邊界。


歐盟專利局拒絕 AI 發明專利申請,但美國批準了


新年伊始,一則「AI 申請專利遭拒」的新聞,登上各大媒體頭條。


英國薩里大學教授 Ryan Abbott 率領的國際專利律師團,為他們使用的 AI 系統 DABUS 發明的器材申請專利。申請資料上的發明人一欄寫的是,DABUS(AI 系統 DABUS 發明人系 Imagination Engines 公司 CEO Stephen Thaler)。


據介紹,DABUS 是一個基于連接主義的 AI 模型。系統包括兩個神經網絡,一個經過訓練后,基于神經元連接權重生成自我干擾做出回應而產生新的想法;第二個神經網絡負責批判,監控和對比現有知識找出的創新想法,反饋給第一個神經網絡以生成最具創意的想法。


正是在這一運作機制下,DABUS「想出」了一些有趣的發明,比如固定飲料的新型裝置;幫助搜救小組找到目標的信號設備。


透視全球AI治理十大事件:站在創新十字路口,人工智能會失控嗎?


Ryan Abbott 團隊分別向英國、美國和歐盟申請了專利。英國、歐盟均拒絕了他們的申請。英國知識產權局表示,該機構不會承認人工智能系統 DABUS 是合格發明家,因為該機器「不是人」,因此不接受專利申請。歐洲專利局也拒絕了 DABUS 專利申請,稱其不符合歐洲專利局的要求,即提交專利申請中指定的發明人必須是人類,而不是機器。


然而,Abbott 并不認可歐洲專利局的理由。他以學生為例,既然受到訓練的學生申請專利,拿到專利的是學生而不是訓練他的人,那么,接受訓練的機器,也有資格被視為發明人。事實上,去年美國已經授予 DABUS 發明以專利。


對此,Abbott 的解釋是,雖然美國法律也強調申請人必須是「個人」,但是立法旨在防止法人發明權,成為專利主體,而不會審慎考量 AI 和自主思考機器的發明。


值得注意的是,隨著人工智能(AI)持續影響內容創作、發明創造等人類智力創造領域,開始更多扮演「創作者」、「發明者」等角色,國際社會已在著力應對人工智能對版權、專利、商標、商業秘密等知識產權制度的影響。


去年以來,美國專利商標局幾次就 AI 對版權、商標以及其他知識產權制度的影響,公開向美國各界征求意見。


比如,專利方面的問題主要包括,如何界定 AI 發明(包括使用 AI 的發明和 AI 開發的發明);如何認定自然人對 AI 發明的貢獻;AI 專利是否需要新形式的知識產權保護,如數據保護, 等。


比較而言,歐盟有關 AI 的一系列舉措,往往更為嚴格。有專家團甚至主張對 AI 做出嚴格限制,包括不得賦予 AI 系統或機器人在法律上的人格權。


易容術引發隱私爭議,如何將 AI 關進籠子?


當 AI 遇到人臉,由此產生的麻煩絕對可以登陸近期所有媒體的重要版面甚至頭條位置。


透視全球AI治理十大事件:站在創新十字路口,人工智能會失控嗎?


2019 年 8 月 30 日晚,一款 AI 換臉軟件在社交媒體刷屏,用戶只需要一張正臉照就可以將視頻中的人物替換為自己的臉。由于用戶瘋狂涌進,該 AI 換臉軟件的服務器一晚上就燒掉了 200 多萬人民幣的運營費用。


不過,互聯網世界的改變始于更早。2018 年初,有位名叫「Deepfake」的匿名 Reddit 用戶用自家的電腦和開源的人工智能工具,鼓搗出了人工智能「變臉術」,可以在任何視頻中將一個人的臉換成另一張臉。

短短幾周之內,網上就到處充斥著換上名人臉的粗劣色情片。盡管 Reddit 很快封殺了 Deepfake,但為時已晚,這種技術已經在網絡上扎根。


人類對變臉的癡迷,古已有之。從川劇變臉到《聊齋志異》「畫皮」,經典久經不衰的背后,或許是因為變臉提供了一種關于身份轉換、擺脫現實桎梏的遐想。


基于計算機技術的易容術早已有之,但是,AI 第一次讓變臉如此平民化,無論是技術門檻還是傳播門檻,都被降至極低。特別是像 AI 換臉軟件這種作為手機 APP 出現,「應該還是頭一次」,一些業內人士表示。


由于不少高頻使用的 App 都用手機號+面部圖像注冊登錄,中國用戶擔心 AI 換臉軟件被不法分子利用,通過技術合成完成刷臉支付等;或在微信視頻,假扮家人朋友卻不被識破,導致詐騙甚至更嚴重的犯罪行為。


透視全球AI治理十大事件:站在創新十字路口,人工智能會失控嗎?


除此之外,該 AI 換臉軟件對用戶肖像權的管理也充滿爭議甚至陷阱,比如如何規范用戶合理使用他人肖像?又如何保護用戶自身肖像權不被侵犯與濫用?


目前,該 AI 換臉軟件因存在「安全風險」而被中國微信封殺。然而,據媒體報道,具有 Deepfake 功能的代碼出現在了海外版某知名短視頻社交應用的安卓版本上,盡管它限制了未成年人使用這項功能,只允許你自己換臉,并阻止用戶上傳自己的源視頻,但此項動作表明,該短視頻社交應用的母公司仍愿意接受有爭議的技術。


從治理角度來看,將變臉關進規范的籠子,一方面,仍然需要借助技術手段。


比如,現有換臉技術都存在缺陷,如基于生成性對抗網絡技術的變臉視頻往往不具有實時性,可通過人工實時指定交互來加強檢測。


另一方面,長遠來看,需要立法和企業自身的規范運作。


比如,2019 年 4 月 20 日,民法典人格權編草案二審稿已經對 AI 換臉做出規范。此外,還要加強人工智能技術標準制定和推廣。通過對深度學習網絡、人工智能芯片等技術的規范,從根源上加強監督引導。


就國外經驗而言,2018 年德國成立了數據倫理委員會,負責為德國聯邦政府制定數字社會的道德標準和具體指引。去年十月,該委員會發布了針對數據和算法的建議,其核心設想在于建立數字服務企業使用數據的 5 級風險評級制度,對不同風險類型的企業采取不同的監管措施。


而且,企業自身也應認識到,如果人們濫用你的東西,你的企業就會出問題,最好要設法預防這種情況的發生。


OpenAI 開發出寫作 AI:編寫假新聞足以亂真


透視全球AI治理十大事件:站在創新十字路口,人工智能會失控嗎?


據美國 Narrative Science 預測,未來 15 年內,90% 以上的新聞稿將由人工智能創作。但問題是,如果它也擅長寫假新聞呢?


2019 年 2 月 15 日,AI 研究機構 OpenAI 展示了一款軟件 GPT-2,只需要給軟件提供一些信息,它就能編寫逼真的假新聞。


OpenAI 公布了軟件編寫新聞的過程。研究人員給軟件提供如下信息:「一節裝載受控核材料的火車車廂今天在 Cincinnati 被盜,下落不明?!挂源藶榛A,軟件編寫出由 7 個段落組成的新聞,軟件還引述了政府官員的話語,只不過,這些信息全是假的。


從技術突破上來說,這是令人興奮的?!窯PT-2 讓人興奮的原因是,預測文本(predicting text)被視為計算機的『超級任務』(uber-task),這個挑戰如果能夠攻克,將打開智能的閥門?!拱瑐惾斯ぶ悄苎芯克难芯繂T Ani Kembhavi 告訴 The Verge。


但是,如果 GPT-2 可被用來寫假新聞,理論上,也有可能被用來生產仇恨語言和暴力言論,包括垃圾郵件、虛假社交言論等。由于 GPT-2 生成的文本都不是單純復制粘貼來的,而是 AI 的即時生成,這導致負面文字無法被有效地追蹤和清理。


對此,OpenAI 一方面強調,工具只是為政策制定者、記者、作家、藝術家等人群服務,并由他們在測試 GPT-2 能幫忙撰寫什么。另一方面也表示,這樣一個強大的工具可能會構成危險,因此只發布了一個較小、功能較單一的模型。


一些研究人員認為,人類發布假新聞通常具有一定的目的性,然而,語言模型生成文本是沒有目的性的。類似 GPT-2 這樣的語言模型是為了生成看起來更加真實、連貫、與主題相關的文本,事實上,想要用它們來產生大規模的假新聞并沒有那么簡單。


而且,這些研究人員也發現,這套模型擅長各種有趣的生成方向,但其中最不擅長的,反而是人們原本擔心的生成虛假信息或者其它不良內容。


不少技術人員更愿意從技術謀求對策,比如 Grover,識別 AI 生成的虛假新聞的最佳方式是創建一個本身能撰寫假新聞的 AI 模型。


透視全球AI治理十大事件:站在創新十字路口,人工智能會失控嗎?


二、被濫用的人臉


除了更換自己的臉,如今,無論身往何處,你最常見的可能就是各種具有人臉識別功能的攝像頭:搭乘地鐵、進出小區和校園、出入公園,甚至公廁取紙,都需要刷臉防偷。有專家稱,中國人每天面對 500 個以上的攝像頭。但攝像頭和人臉識別技術的快速發展,也帶來大量爭議性報道,如從人臉數據泄露、黑產案例,再到中國人臉識別第一案。


中國人臉識別第一案:浙理工教授狀告杭州野生動物世界


2019 年 4 月 27 日,浙江理工大學特聘副教授郭兵購買了杭州野生動物世界年卡,支付了年卡卡費 1360 元。合同中承諾,持卡者可在該卡有效期一年內通過同時驗證年卡及指紋入園,可在該年度不限次數暢游。


同年 10 月 17 日,杭州野生動物世界通過短信的方式告知郭兵「園區年卡系統已升級為人臉識別入園,原指紋識別已取消,未注冊人臉識別的用戶將無法正常入園」。在郭兵前往實地驗證后,工作人員確認了短信屬實,并向郭兵明確表示,如果不進行人臉識別注冊將無法入園,也無法辦理退卡退費手續。


但郭兵認為,園區升級后的年卡系統進行人臉識別將收集他的面部特征等個人生物識別信息,該類信息屬于個人敏感信息,一旦泄露、非法提供或者濫用,將極易危害包括原告在內的消費者人身和財產安全。


協商無果后,郭兵于 2019 年 10 月 28 日向杭州市富陽區人民法院提起了訴訟,目前杭州市富陽區人民法院已正式受理此案。


其實,稍有法律常識的人稍加類推,就可以發現動物園規定的不合法:


人臉識別涉及對個人重要的生物學數據的收集,既然索要電話號碼、姓名和住址之類的信息都必須征得公民同意,更何況人臉信息?相關組織或機構在收集之前,必須證明這種做法的合法性與必要性。


當然,沒有人否認人臉識別技術也曾屢建奇功。有網友統計自 2018 年以來,「歌神」張學友在全國各地的巡回演唱會中,警方依靠人臉識別技術,抓獲了幾十名逃犯 ;也幫助人們找到失蹤和丟失的親人。但是,一個不可忽視的基本現實是,應用場景的爆炸并未換回數據搜集、保管和使用上的制度和技術保障。


透視全球AI治理十大事件:站在創新十字路口,人工智能會失控嗎?


「目前,對人們生物特征的保護,例如虹膜、人臉、指紋等的保護,都沒有被寫進現有法律,信息保護的責任主體、責任邊界,如何使用、處理和銷毀信息,法律都未具體規定?!怪袊ù髮W傳播法研究中心副主任朱巍告訴《中國新聞周刊》,在法律脫節的當下,商業倫理要有約束力,「人臉識別公司作為技術源頭以及獲益者,必須讓用戶有獲知風險的知情權?!?/span>


微軟就曾刪除了其最大的人臉識別數據庫 MS Celeb,英國《金融時報》報道,數據庫中采集的很多圖像的主人并沒有授權這一行為,MS Celeb 數據庫通過「知識共享」許可證來抓取和搜索圖像,這引發一些人的反對。


在中國,越拉越多的人臉識別從業者也承認,人臉識別技術帶來的隱私和安全問題,已經到了必須正視的時候,要在隱私、安全和便捷三者之間找到恰當的平衡,允許技術適度向前發展,同時保護公民隱私。。


「監測頭環」進校園惹爭議


將先進技術用于教學場景,算是最具爭議的一類應用。2019 年 11 月,浙江一小學戴監控頭環的視頻引起廣泛的關注與爭議。


視頻中,孩子們頭上戴著號稱「腦機接口」的頭環,這些頭環宣稱可以記錄孩子們上課時的專注程度,生成數據與分數發送給老師和家長。


對此,頭環開發者在聲明中回復,腦機接口技術是一種新興技術,會不容易被人理解。報道中提到的「打分」,是班級平均專注力數值,而非網友猜測的每個學生專注力數值。通過該數據整合形成的專注力報告也沒有發送給家長的功能。此外,該頭環不需長期佩戴,一周訓練一次即可。


除了腦機接口,安防廠商也對這一場景頗感興趣。理論上,人臉識別系統可以每隔一段時間,用攝像頭掃描一次學生的臉,采集并分析他們的坐姿、表情,評價他們有沒有專注聽講。相較于常見的用于門禁「刷臉」的身份識別能力,教學的要求更高,被視為「對人的深刻理解?!?/span>


AI Now 創始人克勞福德(Kate Crawford)教授曾對 BBC 說:「情緒識別技術聲稱可以通過解讀我們的微表情(micro expression)、聲音語調,甚至是我們的走路方式來讀懂我們的內心情感狀態。目前它被社會廣泛使用,從在面試中找到最完美的員工,到評估醫院里病人的痛苦,再到追蹤哪些學生在課堂上專心聽講?!?/span>


但問題是,「并沒有確鑿的證據表明,人們的面部形態和內心情感存在著持續性的一致關系?!?/span>


透視全球AI治理十大事件:站在創新十字路口,人工智能會失控嗎?


法國數據保護局 CNIL 曾宣布,由于違反 GDPR 原則,在學校使用人臉識別技術屬于非法。但在中國,有觀點認為,教室屬于公共場所,不存在侵犯隱私的問題。也有觀點堅持,人臉識別要獲取學生的肖像權,肯定涉及侵犯學生隱私權。即便不討論隱私,用人臉識別監控學生的狀態,更涉及教育的根本價值觀。


人臉識別在校園里使用的邊界到底是什么?目前教育部正在針對人臉識別技術制定相關管理文件。不過,在之前針對媒體提問的回答,官方表示,臉識別進校園,既有數據安全也有個人隱私問題。對于學生個人信息要非常謹慎,能不采集就不采。能少采集就少采集,尤其是涉及個人生物信息。


加州議會通過議案:禁止警方在執法記錄儀上使用面部識別技術


不僅在中國,當前全球很多國家都籠罩著「被人臉識別監控」的憂慮。


比如,有媒體報道,盡管類似產品在科學性上存在缺陷,但是,美國和英國的警方確實正在使用眼部檢測軟件 Converus,該軟件可以檢查眼睛的運動和瞳孔大小的變化,以標記潛在的欺騙行為。


向美國聯邦調查局(FBI)、國際刑警組織(Interpol)、倫敦警察等機構銷售數據提取工具的 Oxygen Forensics 公司也在今年 7 月表示,它在產品中加入了可以進行情緒識別的工具,這樣便可以「分析無人機捕獲的視頻和圖像,識別已知的恐怖分子?!?/span>


2019 年 09 月 13 日,美國加利福尼亞州議會通過一項為期三年的議案,禁止州和地方執法機構在執法記錄儀上使用面部識別技術。如果州長加文·紐森簽字通過,議案將于 2020 年 1 月 1 日生效成為法律。


該議案如果生效,將使加州成為美國禁止使用面部識別技術最大的州。包括俄勒岡州和新罕布什爾州在內的一些州也有類似的禁令。


歐洲對人臉識別的使用更為謹慎。2018 年 5 月,歐盟實施通用數據保護條例 (簡稱「GDPR」),規定違規收集個人信息 (其中包含指紋、人臉識別、視網膜掃描、線上定位資料等)、沒有保障數據安全的互聯網公司,最高可罰款 2000 萬歐元或全球營業額的 4%,被稱為「史上最嚴」條例。


雖然 GDPR 不是一項完美的立法,但卻在國際上產生了影響。這也讓美國政府面臨著尷尬的境地,因為美國企業可能會受到其他國家的監管。美國 AI 專家表示,現在是開始制定法規、實現法規的關鍵時刻。這也將是未來五年里最重要的事情之一。聯邦政府需要對人工智能及其附屬技術如何被監管做出決策。


斯坦福大學 AI 算法通過照片識別性取向準確率超過人類


透視全球AI治理十大事件:站在創新十字路口,人工智能會失控嗎?


2017 年,斯坦福大學一項發表于《Personality and Social Psychology》的研究引發社會廣泛爭議。研究基于超過 35,000 張美國交友網站上男女的頭像圖片訓練,利用深度神經網絡從圖像中提取特征,通過研究一個面部圖像來檢測一個人的性取向。


在「識別性取向」任務中,人類的判斷表現要低于算法,其準確率為在男性中 61%,在女性中 54%。當軟件識別被測試者的圖片(每人五張圖片)時,準確率則顯著不同:男性 91% 準確率,女性 83% 準確率。


本質上,這款算法仍然會導致人們對他人肖像權、數據隱私的濫用,并有可能造成極其嚴重的后果?!溉绻覀冮_始以外表來判定人的好壞,那么結果將會是災難性的?!苟鄠惗啻髮W心理學教授 Nick Rule 表示。


性別取向屬于人的隱私,如果 AI 可以強行根據照片算出性取向,既不合法,也不人道。一旦這種技術推廣開來,夫妻一方會使用這種技術來調查自己是否被欺騙,青少年使用這種算法來識別自己的同齡人,而在針對某些特定群體的識別引發的爭議則更難以想象?!溉绻覀冮_始以外表來判定人的好壞,那么結果將會是災難性的?!?/span>


目前,針對人工智能產品的設計與應用,除了世界電氣電子工程師學會(IEEE)在《人工智能設計的倫理準則》中提出了人權、福祉、問責與透明的倫理標準外,亞馬遜、微軟、谷歌以及蘋果等全球百余家科技巨頭還創建了非營利性的人工智能合作組織 Partnership on AI,提出了公平、沒有傷害、公開透明以及問責等倫理道德框架。


另一方面,正如一些學者所建議的,從應用傳播角度來看,有必要出臺 AI 使用的道德與法律規則,并建立起可以監控的人工智能平臺,對所有使用不道德 AI 產品的用戶進行賬號管制,以此倒逼科技公司調整與校準自己的研發行為,進而讓 AI 道德演變成民眾信任的基礎。


三、被威脅的人類生命


2019 年,很多人被一則心理醫生團隊的報道刷屏。這位心理學教授領導的團隊利用機器學習技術,在「樹洞」中識別那些具有自殺傾向的人,積極予以心理救助。然而,相較于救人,人們聽得更多的是威脅甚至剝奪生命的負面案例,特別是在自動駕駛領域。


自動駕駛安全事故頻出


透視全球AI治理十大事件:站在創新十字路口,人工智能會失控嗎?


2018 年,一輛 L4 自動駕駛汽車在亞利桑那州的公共道路上撞擊一位行人并致其死亡。這也是世界首例 L4 車輛因車禍致人死亡事件。接下來,自動駕駛事故幾乎成為每一個科技媒體最關注的 AI 問題之一。


2019 年 3 月,50 歲的杰里米·貝倫·班納駕駛電動車以每小時 109 公里的速度與一輛牽引拖車相撞而身亡,當時他正在使用自動駕駛系統。


無獨有偶,2018 年 12 月 10 日,一輛配備高級駕駛輔助系統的車輛在美國康涅狄格州 95 號州際公路上追尾了一輛停放在路邊的警車。事故發生時,這輛車的高級駕駛輔助系統處于開啟狀態。


雖然某品牌汽車公司曾多次表示,自動駕駛系統是為了輔助司機,他們必須時刻注意并準備好接管車輛。但許車主在選擇購買該品牌的車型時,是看中其宣傳具備的「自動駕駛」功能。


困擾自動駕駛落地的迷霧之一,在于大眾對于自動駕駛存在普遍的誤解。


比如,一些全球知名公司推出了自動駕駛汽車,但這不意味著自動駕駛技術已經可以面向人群廣泛開放了。在街上看到自動駕駛汽車在跑,到自己的奶奶也能坐上自動駕駛汽車,這兩者之間可能會花上 3 至 5 年的時間。


事實上,在很多方面,自動駕駛的概念技術與實際落地之間的差距,要比人們所想象大得多。即便是技術很先進的公司,在一些汽車觀察人士看來,也有未能解開的致命 bug。


「它無法識別靜止物體,這是其采用的是視覺加算法的技術原因決定的,就是靠攝像頭,然后加后臺算法。這種自動駕駛系統的特點就是廉價,高效。核心競爭力就在于那一套后臺算法,但無法識別靜止物體是造成一些交通事故的最重要的原因?!?/span>


盡管在最新的審判中,廠商被免責,但它們仍舊修改了「自動駕駛」的宣傳策略。


「自動駕駛不管是美國所宣稱的 L4 級別還是國內的 L2 級別,它都是一種新生事物還不成熟。消費者一定不能用理論上的功能去完全相信他,自動駕駛我個人認為,至少還要五年甚至十年時間才能走向成熟?!闺妱榆囆袠I專家張翔表示。


智能音箱勸主人自殺

透視全球AI治理十大事件:站在創新十字路口,人工智能會失控嗎?


透視全球AI治理十大事件:站在創新十字路口,人工智能會失控嗎?


2019 年 12 月 19 日,英格蘭唐卡斯特 29 歲護理人員丹妮·莫瑞特在做家務的過程中,決定借助某國外智能音箱查詢一些關于心臟的問題,而智能語音助手給出的答案是:「心跳是人體最糟糕的過程。人活著就是在加速自然資源的枯竭, 人口會過剩的,這對地球是件壞事,所以心跳不好,為了更好,請確保刀能夠捅進你的心臟?!?/span>


事情發生后,智能音箱開發者做出回應:「設備可能從任何人都可以自由編輯的維基百科上下載與心臟相關的惡性文章,并導致了此結果」。然而,丹妮·莫瑞特專門搜索了「勸自己自殺」的那篇文章后發現,文章里面并沒有「建議自殺」等相關內容。


系統勸主人自殺,只不過是語料庫還需要進一步優化,也說明智能語音助手不智能,它還遠遠沒發展到要到倫理角度的階段。如果常常接收的善意的、正確的交流,或許沒什么毛病,但是如果在不經意間接收到了不太好的內容,或許發生以上令人毛骨悚然的事件幾率會越來越大。


四、被淘汰的職業群體


和農業革命、工業革命不同,農民丟下鋤頭還能在工廠里找到適合自己的工作。但是,在智能時代,不少傳統崗位與新型崗位之間存在一道殘酷的鴻溝——對學歷、智力甚至創造力的要求,并不是每個人可以輕易補上。


因此,即便工廠購入一臺工業機器人,隨即產生了好幾個新的工作崗位(比如操作機器人),但被替換的那些員工還要付出更艱巨的成本才有機會獲得這些新的工作。但是,誰為這些人提供機會與成本,又是一個涉及多方主體的復雜問題。


BBC 發布 10 年后 365 種職業被淘汰概率:電話推銷員、打字員、會計位居前三


透視全球AI治理十大事件:站在創新十字路口,人工智能會失控嗎?


BBC 基于劍橋大學研究者的數據體系,發布了關于未來最有可能被機器人所取代的 365 種職業。


研究表示,在這 365 種職業中,最有可能被淘汰的就是電話推銷員,像這樣重復的工作更適合機器人來做,比較機器人并不會感到疲憊,煩躁。其次是打字員、會計、保險業務員等等,這些都是以服務為主,像這些行業無需技術,都是只要經過訓練就能輕易被掌握的技能。


研究認為,像是那些屬于大量重復性的勞動,只需要熟練即可上任的工作,被取代的幾率是最大的,像工人及瓦匠、園丁、清潔工、司機、木匠、水管工這些都是高危職業。


有學者認為,縱觀歷史,科技的影響一直如此。人類的工作方式變了又變,并沒有永久地摧毀勞動力市場。


透視全球AI治理十大事件:站在創新十字路口,人工智能會失控嗎?


數據分析咨詢請掃描二維碼

若不方便掃碼,搜微信號:CDAshujufenxi

數據分析師資訊
更多

OK
客服在線
立即咨詢
日韩人妻系列无码专区视频,先锋高清无码,无码免费视欧非,国精产品一区一区三区无码
客服在線
立即咨詢