最新資(zī)訊   New
聯系我(wǒ)(wǒ)們   Contact
搜索   Search
你的位置:首頁 > 新聞動态 > 行業新聞

人工(gōng)智能在未來20年會給我(wǒ)(wǒ)們帶來的哪些麻煩?

2020/9/25 13:27:29      點擊:1923

使用AI技術進行圖像和視頻(pín)編輯是AI應用最廣泛和最成熟的領域之一(yī)。随着越來越多的開(kāi)源軟件可以自動化完成相關的視頻(pín)圖像編輯操作,有一(yī)天這個技術門檻終于被徹底推倒了。

1、崗位的替代

使用AI技術進行圖像和視頻(pín)編輯是AI應用最廣泛和最成熟的領域之一(yī)。随着越來越多的開(kāi)源軟件可以自動化完成相關的視頻(pín)圖像編輯操作,有一(yī)天這個技術門檻終于被徹底推倒了。

2、模型的錯誤與歧視(bias)

盡管現在AI技術已經很強大(dà),但在很多方面還沒有成熟到能夠普遍應用于商(shāng)業環境。這裡談到的成熟,一(yī)方面是算法适應性和技術應用本身的可靠性,另一(yī)方面也包括産業環境中(zhōng)各方對于AI系統的接受度。

其中(zhōng)一(yī)種衆所周知(zhī)的應用類型就是自動駕駛。在AI系統全權控制車(chē)輛時,錯誤的判斷與操作帶來的損失應該由哪一(yī)方來承擔,目前并沒有一(yī)個各方均可接受的解決方案。直到現在,自動駕駛技術一(yī)直在提高系統可靠性和系統失誤的責任分(fēn)擔這兩條線上糾結不前。

類似的問題是具有普遍意義的。今年5月,媒體(tǐ)披露香港某李姓億萬富豪因為接受投資(zī)顧問的建議,采用基金公司提供的AI策略交易系統進行對沖交易,最終導緻了超過兩千萬美元的損失。目前該案已經被提交到倫敦商(shāng)業法庭,并預計于2020年4月進行審判。

最終的焦點還是回到了“黑匣子”問題上:如果人們不知(zhī)道AI系統如何做出決策,那麼出現問題的話(huà),誰該承擔責任?

傳統上來說,任何商(shāng)業行為(商(shāng)業建議)都可以追根溯源找到行為人。但在由AI系統掌控的商(shāng)業行為中(zhōng),往往很難找到明确的個人為結果負責。客戶在接受聊天機器人推薦的産品時甚至無法投訴其提供誤導信息,因為AI系統本身不存在故意誤導(misrepresenation)的可能性。

2019年來臨的這場億萬富翁與AI系統的法律争鬥預示着人工(gōng)智能在融入人類生(shēng)活的方方面面之前,将要面臨什麼樣的挑戰。

類似的AI錯誤在2019年還有一(yī)些。今年4月份發生(shēng)的巴黎聖母院大(dà)火(huǒ)期間,YouTube平台上部分(fēn)新聞直播下(xià)方的信息欄内,出現了有關“911恐怖襲擊”事件的說明,但此次大(dà)火(huǒ)的原因和恐怖襲擊并無關聯。事後,Google 承認信息欄的内容是由AI算法自動生(shēng)成的,并表示已經第一(yī)時間關閉了這些直播視頻(pín)下(xià)方的信息欄。

引起AI系統錯誤的原因除了算法模型不夠精确之外(wài),還有一(yī)個重要的因素就是建模數據本身的偏差導緻的模型歧視(bias)。

2018年10月路透社就報道亞馬遜公司開(kāi)發的AI智能招聘系統在進行簡曆篩選時存在明顯的性别歧視。AI算法在依據候選人簡曆時對包括“婦女”等詞的簡曆降權處理,例如包含“女子國際象棋俱樂部隊長”這樣經曆的簡曆。AI算法甚至還系統地降低了兩所女子大(dà)學的畢業生(shēng)的等級。所有這些處理方式的原因就是目前科技行業男性占主導地位的事實強化了系統在構建AI算法模型時的偏見。

類似的偏見無處不在。今年5月份皮尤研究中(zhōng)心發布的報告顯示,Facebook的新聞配發的照片中(zhōng),男性出現的次數是女性的兩倍。在兩性數量基本均衡的背景下(xià),如果無差别采用Facebook的新聞照片構建AI模型,幾乎可以肯定會出現性别歧視的傾向。

AI系統引起的“歧視”中(zhōng)最新的案例來自于日本。就在12月份,東京大(dà)學副教授大(dà)澤升平在推特上公開(kāi)宣稱:“不在自己公司錄用中(zhōng)國人”、“從簡曆就篩掉中(zhōng)國人”。在引起中(zhōng)日雙方的輿論抨擊後,大(dà)澤升平在推特上公開(kāi)道歉,并表示“之前一(yī)系列推文中(zhōng)提及對特定國籍人士工(gōng)作能力的判斷,是本公司基于有限數據、經過人工(gōng)智能(AI)分(fēn)析“過度學習’得出的結果。”這也算是AI系統歧視在2019年臨近結束時背上的一(yī)口黑鍋吧。

3、潛在的濫用風險

目前AI技術還不夠成熟,所以并沒有出現大(dà)規模的商(shāng)用,但唯有少數領域例外(wài) –例如面部識别。

2019年可以說時面部識别技術“飛入尋常百姓家”的一(yī)年。不隻是傳統的公安部門和金融部門,現在幾乎各行各業都在嘗試如何把面部識别技術嵌入到身份認證和人群活動管理的功能中(zhōng)來。

2019年10月,杭州野生(shēng)動物(wù)世界因為強制遊客“刷臉”才能入園而導緻訴訟。作為一(yī)個休閑娛樂場所,有沒有必要強制要求遊客留下(xià)面部生(shēng)物(wù)特征信息呢?

類似的事例還有中(zhōng)國藥科大(dà)學在教室安裝的人臉識别系統。該系統可以通過面部識别技術識别進入教室聽(tīng)課的學生(shēng),并全程追蹤學生(shēng)聽(tīng)講、發呆、睡覺等上課的狀态。

面部信息是人類最重要的基本生(shēng)物(wù)特征之一(yī),識别度極高且無法輕易改變。更重要的是,面部信息是少數可以通過遠程非接觸方式進行準确識别的生(shēng)物(wù)信息。對于任何向第三方随意暴露出自己詳細面部信息的個體(tǐ),都等于允許第三方在任何時間和地點以非接觸方式完成自己的身份認證。這就好比你把自己的姓名和身份證信息加密印在自己的額頭上,然後把密碼随意交給第三方。第三方甚至可以在數公裡之外(wài)遠程掃一(yī)下(xià)你額頭的二維碼,就知(zhī)道你是誰,身份證号碼多少。

如此輕易且準确的身份識别信息當然很重要。于是各方就趁着AI應用的東風廣泛收集公民個人面部信息。2019年9月。《北(běi)京青年報》披露在網絡商(shāng)城中(zhōng)有17萬條“人臉數據”被公開(kāi)發售,其中(zhōng)涵蓋了兩千人的肖像,每個人約有50到100張照片。此外(wài),每張照片還搭配有一(yī)份數據文件,描述了人臉的106處關鍵識别位置,如眼睛、耳朵、鼻子、嘴、眉毛等的輪廓信息。可以想象,這兩千人的面部和個人信息洩漏将導緻他們在公衆場合的活動近似于“裸奔”,任何獲取這些數據且具有面部識别功能的攝像頭都可以知(zhī)道他/是誰,身份證号多少,多大(dà)年齡。

正是因為這樣潛在的濫用風險,所以各國政府在2019年開(kāi)始收緊AI技術在面部識别領域的應用。

2019年5月,舊(jiù)金山市議會以8:1的投票(piào)結果通過禁止警方和其它政府部門使用“人臉識别技術”的決議。10月,加利福尼亞州州長簽署法令,禁止執法機構在未來三年内使用面部識别技術。

美國的警用設備制造商(shāng) Axon Enterprise 6月份表示,将不會在自己的設備上添加人臉識别軟件。目前Axon Enterprise向包括紐約和洛杉矶警察局在内的47家美國執法機構提供随身攝像頭。

我(wǒ)(wǒ)們不能說美國政府在部分(fēn)公務行為中(zhōng)禁止使用面部識别技術就是對的,但最起碼在非必要領域,如零售、娛樂、普通服務業等應該嚴格約束商(shāng)家采集和應用面部識别技術,并制定面部數據的采集和應用合規标準,以防止2019年出現的面部識别技術濫用的趨勢。

需要指出的是,随着AI技術逐漸深入到商(shāng)業和家庭環境中(zhōng),類似的涉嫌濫用領域隻會越來越多。從智能音箱涉嫌監聽(tīng)客戶家庭的對話(huà),到亞馬遜使用AI系統監控員(yuán)工(gōng)工(gōng)作效率,甚至精确計算工(gōng)人消極懈怠的“工(gōng)休間隙”時間(Time Off Task,簡稱TOT),2019年AI商(shāng)業應用不斷豐富的背後,潛在的濫用風險也越來越大(dà)。

4、軍事應用與對抗

AI作為最尖端的互聯網高科技之一(yī),在海量信息處理能力和瞬時判别響應方面具有人力完全不可比拟的優勢。AI自然也是軍事部門希望快速擁有和全面應用的技術。

美國國防部去(qù)年6月宣布成立聯合人工(gōng)智能中(zhōng)心(JAIC),以促進美國軍事工(gōng)業在AI技術實際應用的能力。JAIC負責人為美國空軍中(zhōng)将John N.T. “Jack” Shanahan,研究的重點領域包括:情報探知(zhī)、預測性維護與供應、救災和人道主義援助、以及網絡空間。

彭博周刊披露,2019年11月初,來自美國軍事工(gōng)業的多位高層和智囊齊聚華盛頓讨論AI在軍事工(gōng)業的應用。其中(zhōng)就有JAIC的負責人Jack Shanahan将軍,也有谷歌董事長Eric Schmidt和首席法律官Kent Walker。

而美國《防務系統》網站近日報道,美國算法戰跨職能小(xiǎo)組(Algorithmic Warfare Cross-Functional Team,簡稱AWCFT 或 "Project Maven")已經開(kāi)發出四套智能算法,預計将很快投入實戰應用。這個Project Maven小(xiǎo)組就是曾經與Google公司合作開(kāi)發基于AI圖像識别技術的無人機目标識别系統的軍方機構。

而美國國會研究處(Congressional Research Service)11月26日發布的“AI與國家安全”白(bái)皮書(shū)中(zhōng)明确指出,“人工(gōng)智能已經被納入在伊拉克和叙利亞的軍事行動中(zhōng)。”

該白(bái)皮書(shū)的重要内容之一(yī),就是闡述未來的AI技術在“緻命自主武器系統”(Lethal Autonomous Weapon Systems,LAWS)領域的應用。所謂“自主武器系統”,就是自動識别目标,自主判斷并進行攻擊的系統。該系統可以徹底擺脫人為控制,按照AI系統的“智能”完成作戰任務。而其中(zhōng)最為人所熟悉的“自主武器系統”就是戰鬥機器人。盡管目前的白(bái)皮書(shū)還隻是把“自主武器系統”的範圍限定在有人類操作員(yuán)監督下(xià)運行的自動武器裝置或平台,并且該系統不能針對人類目标進行打擊,隻能用于打擊物(wù)資(zī)或設備目标,采用非緻命或摧毀其運動能力的攻擊形式,或者是各種形式的電(diàn)子攻擊。但大(dà)家都心知(zhī)肚明,這樣的系統如果要改造成為真正的自動殺人武器,隻是捅破一(yī)層窗戶紙(zhǐ)罷了。

2019年,是AI技術逐漸深入社會生(shēng)活的一(yī)年,也是AI系統開(kāi)始給人類帶來麻煩的一(yī)年。如何馴服AI這個能量巨大(dà)的“怪獸”,是在大(dà)半個世紀前人類釋放(fàng)原子能之後面臨的又(yòu)一(yī)難題。原子能帶來的核威懾和“冷戰”時代,會不會也是AI全面應用後的必然走向,我(wǒ)(wǒ)不知(zhī)道。但和平利用AI技術,将與和平利用原子能一(yī)樣,會成為未來幾十年乃至上百年人類需要持續面臨的挑戰。

免責聲明:此文來自與網絡空間,如有冒犯請來電(diàn)删除。