全網(wǎng)搜集目標(biāo)檢測(cè)相關(guān),人工篩選最優(yōu)價(jià)值內(nèi)容 編者薦語隨著人工智能技術(shù)的興起,AI 中存在的問題也被逐步暴露出來。AI 做出的決策與人類最佳決策仍然存在差異,并且往往包含一些偏見。那么問題出在哪里呢?轉(zhuǎn)載自 | 機(jī)器之心 越來越多的數(shù)據(jù) 據(jù)專家指出,數(shù)據(jù)科學(xué)家花費(fèi)大約 80%的時(shí)間來清洗數(shù)據(jù),實(shí)現(xiàn)由人工智能驅(qū)動(dòng)的集中式?jīng)Q策的關(guān)鍵是打破各項(xiàng)工作之間的壁壘,并為人工智能模型創(chuàng)建可互操作的流程。在目前的 AI 領(lǐng)域,即使花費(fèi)大量的時(shí)間和經(jīng)濟(jì)成本,也仍然無法實(shí)現(xiàn)像人類大腦一樣,更接近全局水平的態(tài)勢(shì)感知。隨著數(shù)據(jù)科學(xué)和人工智能的發(fā)展,構(gòu)建 AI 模型所需的數(shù)據(jù)量也在增加。 自動(dòng)駕駛公司投資上百億美元仍然沒有實(shí)現(xiàn)完全的自動(dòng)駕駛,社交媒體公司投入數(shù)十億美元試圖利用 AI 清理不良信息,卻仍然嚴(yán)重依賴人工清理平臺(tái)。 AI 目前尚沒有做出最佳決策的能力。此外,人們?cè)跇?gòu)建 AI 模型時(shí)并沒有完全消除人為偏見,而是試圖從越來越多的數(shù)據(jù)中構(gòu)建「完美」的 AI 模型,但這些數(shù)據(jù)參差不齊。 決策與數(shù)據(jù)的相關(guān)性 當(dāng)試圖找到一個(gè)難題的解決方案時(shí),首先應(yīng)該將事情分解開來:在做哪些假設(shè)?這些假設(shè)如何構(gòu)建需要解決的問題?如果這些假設(shè)不同,會(huì)解決不同的問題嗎?想要解決的問題和方案結(jié)果有什么關(guān)聯(lián)?對(duì)于 AI 來說,顯然將更好的決策作為結(jié)果是非常重要的。假設(shè)訪問更多數(shù)據(jù)是決策者做出更好決策的關(guān)鍵,而更好的決策意味著更少的負(fù)面影響,那么整體態(tài)勢(shì)感知也非常重要。 在現(xiàn)實(shí)生活中,決策者往往為了節(jié)約成本而進(jìn)行優(yōu)化決策。但決策畢竟是根據(jù)結(jié)果來判斷好壞的,在正確分析的基礎(chǔ)上還需要一點(diǎn)運(yùn)氣。在結(jié)果出來之前,即使是在絕佳數(shù)據(jù)支持下最仔細(xì)、最徹底構(gòu)建的策略也無法保證決策的絕對(duì)正確。 因此,做決策的過程不應(yīng)該是對(duì)數(shù)據(jù)的客觀分析,而是利益相關(guān)者之間針對(duì)風(fēng)險(xiǎn)和優(yōu)先級(jí)的容忍度做出的積極協(xié)商。數(shù)據(jù)沒有用于提供洞察力,而是用作了保護(hù)利益相關(guān)者免受影響的盾牌,完美的信息往往是通過增加噪聲水平而降低了決策質(zhì)量。
這似乎令人難以置信,完美的信息不是應(yīng)該自動(dòng)改進(jìn)決策過程嗎?實(shí)際上,更多的信息可能會(huì)改變決策背后的組織策略。人工智能可以正確識(shí)別內(nèi)容,但基于該內(nèi)容做出的決策會(huì)在很大程度上受到用戶和組織的規(guī)范及期望的影響。 改進(jìn)團(tuán)隊(duì)決策的最佳途徑不是獲取更多數(shù)據(jù),而是改善利益相關(guān)者之間的溝通。但是人們真的需要花費(fèi)數(shù)十億美元來清洗數(shù)據(jù)或增加數(shù)據(jù)量才能從人工智能中獲益嗎? 設(shè)計(jì)不佳的 AI 可能導(dǎo)致巨大的安全風(fēng)險(xiǎn) 當(dāng)前,人們?cè)u(píng)價(jià)數(shù)據(jù)質(zhì)量的方式具有誤導(dǎo)性?!父蓛簦╟lean)」的數(shù)據(jù)似乎就是一種準(zhǔn)確、無偏見、可復(fù)用的數(shù)據(jù)。但實(shí)際上,干凈與準(zhǔn)確不同,準(zhǔn)確與可操作不同。數(shù)據(jù)存在這三個(gè)方面的問題就可能嚴(yán)重影響人工智能模型的性能,干擾其結(jié)果的質(zhì)量。數(shù)據(jù)中可能存在的問題有很多種,有些比較明顯,例如數(shù)據(jù)不正確、已損壞或數(shù)據(jù)格式不標(biāo)準(zhǔn)。有些問題則更加微妙,例如數(shù)據(jù)是在特定環(huán)境下獲取的,然后被不恰當(dāng)?shù)貜?fù)用;對(duì)于模型來說數(shù)據(jù)處于錯(cuò)誤的粒度級(jí)別;數(shù)據(jù)沒有標(biāo)準(zhǔn)化,導(dǎo)致相同的事實(shí)以不同的方式表示或描述。 使用單一數(shù)據(jù)源解決上述任何一個(gè)問題都會(huì)非常困難,如果程序攻擊者試圖向大型系統(tǒng)中注入不良數(shù)據(jù)以破壞模型,那么要解決上述所有問題實(shí)際上是不可能的。人們無法忽視的一點(diǎn)是:AI 在創(chuàng)造新機(jī)會(huì)的同時(shí)也帶來了新的脆弱性。人工智能帶來了新的攻擊與被攻擊方法。AI 可能會(huì)產(chǎn)生新一代攻擊工具,例如衛(wèi)星數(shù)據(jù)干擾欺騙(location spoofing)。通過破壞數(shù)據(jù)來蒙蔽或誤導(dǎo) AI 系統(tǒng)的技術(shù)和 AI 技術(shù)正在一起被開發(fā)。
當(dāng)前的 AI 系統(tǒng)完全依賴數(shù)據(jù)的質(zhì)量,因此 AI 存在缺陷不是因?yàn)榧夹g(shù)不成熟,而是因?yàn)?AI 最初就被設(shè)計(jì)為這種容易受到攻擊的形式。因此在這種情況下,人工智能系統(tǒng)必須被設(shè)計(jì)成能夠靈活應(yīng)對(duì)不良數(shù)據(jù)的模型。那么如果改變這種設(shè)計(jì)以降低 AI 的被攻擊風(fēng)險(xiǎn)呢?這就需要讓 AI「反脆弱」。 什么是反脆弱 AI? 「反脆弱」是指 AI 系統(tǒng)不僅可以在遭遇故障后恢復(fù),而且在經(jīng)歷過故障后會(huì)變得更強(qiáng)大、更有效?;趯?shí)際改善決策的因素構(gòu)建 AI 系統(tǒng)將為反脆弱人工智能創(chuàng)造機(jī)會(huì)。現(xiàn)有的認(rèn)知科學(xué)研究表明:良好的決策是主動(dòng)闡明假設(shè)、構(gòu)建假設(shè)檢驗(yàn)以驗(yàn)證假設(shè)、以及在利益相關(guān)者之間建立清晰的溝通渠道的產(chǎn)物。 許多引發(fā)「人為錯(cuò)誤」的認(rèn)知偏差都是上述三方面出現(xiàn)問題的結(jié)果:當(dāng)人們沒有清楚地闡明假設(shè)時(shí)就會(huì)使用在實(shí)際條件下并不合適的解決方案;當(dāng)人們不檢驗(yàn)假設(shè)時(shí),他們就無法根據(jù)不斷變化的條件調(diào)整正確的決策;當(dāng)操作人員之間無法有效地共享信息時(shí),就會(huì)失去發(fā)現(xiàn)不斷變化的條件和挑戰(zhàn)假設(shè)的機(jī)會(huì),對(duì)每個(gè)人都不利。 AI 很容易受到不良數(shù)據(jù)的影響,因?yàn)槟壳暗难芯窟^分強(qiáng)調(diào)了它在分類和識(shí)別方面的應(yīng)用,低估了它在建議和情境化方面的應(yīng)用。但 AI 所做的決策是很容易被破壞的。 設(shè)計(jì)反脆弱型 AI 很難,因?yàn)閷⑺惴ǚ治龅妮敵鲎鳛榻Y(jié)論與將其視為建議或提示之間存在著很大的差異。決策者可能會(huì)為了節(jié)省成本而將人工智能的輸出作為結(jié)論。這是目前在應(yīng)用人工智能時(shí)已經(jīng)存在的災(zāi)難性錯(cuò)誤。 與此同時(shí),醫(yī)學(xué)領(lǐng)域的 AI 系統(tǒng)之所以能夠提高決策質(zhì)量,是因?yàn)樵S多診斷并沒有單一的正確答案。在醫(yī)學(xué)診斷中,任何一組癥狀都有一系列不同概率的可能病因。臨床醫(yī)生會(huì)在他的頭腦中建立一個(gè)決策樹,其中包含他能想到的所有可能病因,并設(shè)想排除某些可能病因的檢驗(yàn)測(cè)試。醫(yī)學(xué)診斷是一個(gè)「定義假設(shè)、檢驗(yàn)測(cè)試、進(jìn)一步縮小可能病因集」的循環(huán)過程,直到找到解決方案。
盡管數(shù)據(jù)不佳,但通過提示醫(yī)生以添加其他可能病因的方式能夠加快診斷過程。在這種情況下,AI 能夠改善醫(yī)療專業(yè)人員之間的溝通和知識(shí)共享,并在關(guān)鍵時(shí)刻獲取患者的相關(guān)信息。相反,試圖通過人工智能技術(shù)來區(qū)分腫瘤的良性和惡性,以超越醫(yī)生的 AI 產(chǎn)品則一直受到不良數(shù)據(jù)問題的困擾。 不良數(shù)據(jù)下的強(qiáng)大 AI 在利用人工智能這種前沿技術(shù)之前,研究者和開發(fā)者們首先應(yīng)該思考如何定義要解決的問題。如果 AI 被用于改善決策,那么 AI 就應(yīng)該引導(dǎo)決策者進(jìn)行假設(shè)檢驗(yàn),而不是試圖超越專家。如果讓 AI 試圖超越專家,那么它將變得完全依賴于數(shù)據(jù)的質(zhì)量,從而產(chǎn)生一組程序攻擊者能夠輕松利用的漏洞。 當(dāng) AI 不是被訓(xùn)練成專家,而是改善和支持人類的決策,那么 AI 就將對(duì)不良數(shù)據(jù)具有彈性并能夠變得反脆弱。在這種情況下 AI 不做決定,相反,它幫助人們闡明決策背后的假設(shè),將這些假設(shè)傳達(dá)給人們,并在與這些假設(shè)相關(guān)的實(shí)際條件發(fā)生重大變化時(shí)提醒決策者。人工智能可以幫助決策者弄清楚什么狀態(tài)是可能的,或者在什么條件下一些狀態(tài)是可能的。這樣的解決方案可以通過解決現(xiàn)有弱點(diǎn)來增強(qiáng)決策團(tuán)隊(duì)的整體能力,而不是因不良數(shù)據(jù)產(chǎn)生一些新的弱點(diǎn)。 人工智能尚未「智能」 這篇文章發(fā)布后,許多網(wǎng)友表示贊同作者的觀點(diǎn)。 有網(wǎng)友表示:「這是我近年來讀過 AI 主題最明智的文章之一,將讓一些相關(guān)領(lǐng)域的工作者受益?!?/span>
有人則提出了與作者類似的觀點(diǎn):「人們對(duì)人工智能在自動(dòng)化人類工作方面如此著迷,以至于忘記了 AI 在輔助人類方面具有更大的潛力。」