最美情侣中文字幕电影,在线麻豆精品传媒,在线网站高清黄,久久黄色视频

歡迎光臨散文網(wǎng) 會(huì)員登陸 & 注冊(cè)

人工智能將賦能哪些行業(yè)(四)

2020-10-23 10:59 作者:電堂科技  | 我要投稿


??人工智能還將逾越哪些鴻溝?

參考來源?/? ?IEC:《Artificial intelligence across industries》白皮書

編譯?/? Helen


談到部署AI技術(shù),人們更多在討論技術(shù)問題,然而,AI想要真正落地,需要解決許多與技術(shù)、道德、可信度和監(jiān)管相關(guān)的各層面的挑戰(zhàn) 。

本篇是人工智能專輯文章的第四篇,探討人工智能規(guī)?;涞孛媾R的挑戰(zhàn)。

有些挑戰(zhàn)是多個(gè)不同的應(yīng)用領(lǐng)域共同面臨的,例如道德和社會(huì)影響、人工智能基礎(chǔ)設(shè)施的計(jì)算能力和效率、數(shù)據(jù)的可用性和質(zhì)量等。只有解決這些挑戰(zhàn),AI技術(shù)才能真正為各個(gè)行業(yè)中帶來變革。


社會(huì)和經(jīng)濟(jì)挑戰(zhàn)

人工智能通過破壞和創(chuàng)造就業(yè)機(jī)會(huì)影響就業(yè)市場。而人類發(fā)展的某些技能(例如創(chuàng)造力的應(yīng)用)在將來變得越來越重要。人類與AI系統(tǒng)一起工作,將產(chǎn)生新的工作環(huán)境。

決策中的挑戰(zhàn):人工智能越來越多地參與決策,但也可能會(huì)犯錯(cuò)誤。算法越復(fù)雜,對(duì)社會(huì)或行業(yè)產(chǎn)生的影響就更大,而且需要更多的人為判斷來確保決策質(zhì)量。

先進(jìn)供應(yīng)鏈運(yùn)營:通過AI進(jìn)行智能化的供應(yīng)鏈管理,對(duì)消費(fèi)者購買作出越來越多的決策,會(huì)對(duì)供應(yīng)鏈的各個(gè)環(huán)節(jié)帶來威脅。例如 ,如果智能冰箱自主決定食品供應(yīng)商及其所有者的飲食,則可能會(huì)擾亂整個(gè)市場(如超市)。必須保護(hù)消費(fèi)者和市場參與者免受AI系統(tǒng)推薦的供應(yīng)商的不當(dāng)行為的侵害。

數(shù)據(jù)相關(guān)的挑戰(zhàn)

AI需要大量數(shù)據(jù)來訓(xùn)練機(jī)器學(xué)習(xí)算法。但是,由于缺少適當(dāng)?shù)囊?guī)則和法規(guī),不同行業(yè)的數(shù)據(jù)共享和分發(fā)都受到限制。數(shù)據(jù)孤島問題仍然是充分實(shí)現(xiàn)AI全部潛力的障礙。另外,整體的數(shù)據(jù)可用性問題導(dǎo)致難以為機(jī)器學(xué)習(xí)算法收集到足夠的可靠數(shù)據(jù),導(dǎo)致認(rèn)知偏差和誤解。


訓(xùn)練數(shù)據(jù)的選擇?

訓(xùn)練數(shù)據(jù)本身存在偏見會(huì)導(dǎo)致人工智能系統(tǒng)表現(xiàn)出性別或種族偏見。在開發(fā)AI模型時(shí),開發(fā)過程中使用的數(shù)據(jù)的相關(guān)性、數(shù)量和質(zhì)量至關(guān)重要。

是否滿足這些條件通常只能在用各種不同的模型進(jìn)行數(shù)輪初始訓(xùn)練和測試后才能確定。即使模型幾乎可在所有時(shí)間都達(dá)到或者超過預(yù)期 ,也必須額外花時(shí)間來驗(yàn)證模型所犯的錯(cuò)誤,以保證整個(gè)應(yīng)用的可用性。由于訓(xùn)練數(shù)據(jù)本身存在人為偏見,模型也就會(huì)從數(shù)據(jù)中學(xué)會(huì)偏見。即使從訓(xùn)練數(shù)據(jù)中刪除容易產(chǎn)生偏見的屬性(如種族、性別、性取向或宗教),也不足以消除模型中的此類偏見。


標(biāo)準(zhǔn)化數(shù)據(jù)

數(shù)據(jù)的多樣性是與生俱來的,帶來的問題是,如何在不先發(fā)現(xiàn)相關(guān)數(shù)據(jù)集含義的情況下正確地理解和解釋異構(gòu)信息和數(shù)據(jù)集。語義技術(shù)可以確保統(tǒng)一表示機(jī)器和人類可以理解的信息,并以清晰、全面的形式提供數(shù)據(jù)。基于此,合適的語義工具可促進(jìn)隱性知識(shí)的推導(dǎo),因此代表了一種有效的數(shù)據(jù)預(yù)處理形式。

但是,對(duì)異構(gòu)數(shù)據(jù)的理解不僅必須在語義上得到保證和標(biāo)準(zhǔn)化,而且必須在語法上得到保證和標(biāo)準(zhǔn)化。

為正確理解而對(duì)數(shù)據(jù)進(jìn)行預(yù)處理和描述可以顯著改善分析結(jié)果。使用標(biāo)準(zhǔn)化的數(shù)據(jù)類型、格式和信息模型,將簡化這一耗時(shí)的步驟。

算法相關(guān)的挑戰(zhàn)

AI需要大量數(shù)據(jù)來訓(xùn)練機(jī)器學(xué)習(xí)算法。但是,由于缺少適當(dāng)?shù)囊?guī)則和法規(guī),不同行業(yè)的數(shù)據(jù)共享和分發(fā)都受到限制。數(shù)據(jù)孤島問題仍然是充分實(shí)現(xiàn)AI全部潛力的障礙。另外,整體的數(shù)據(jù)可用性問題導(dǎo)致難以為機(jī)器學(xué)習(xí)算法收集到足夠的可靠數(shù)據(jù),導(dǎo)致認(rèn)知偏差和誤解。

人工智能使用的算法也存在一些相關(guān)的挑戰(zhàn)。在這些算法的部署中,最值得注意的問題是魯棒性、適應(yīng)新任務(wù)的能力以及缺乏可解釋性。


魯棒性

魯棒性意味著即使輸入與訓(xùn)練數(shù)據(jù)不同,該算法也會(huì)做出正確的決策。因此,魯棒的算法對(duì)對(duì)抗輸入是穩(wěn)定的,并且在不同訓(xùn)練和應(yīng)用數(shù)據(jù)集的性能上也沒有顯著偏差。

強(qiáng)化學(xué)習(xí)的成功推動(dòng)了對(duì)魯棒算法越來越多的研究。有兩種與決策有關(guān)的情形。要么系統(tǒng)向操作員推薦一個(gè)決策,然后由操作員審核并確認(rèn)該建議,要么系統(tǒng)自動(dòng)強(qiáng)制執(zhí)行其決策。后者引發(fā)的問題是,在新的輸入數(shù)據(jù)的情形下,系統(tǒng)不一定意識(shí)到自己犯了錯(cuò)誤,從而決策不會(huì)繼續(xù)進(jìn)行驗(yàn)證,并可能導(dǎo)致對(duì)基礎(chǔ)設(shè)施甚至人身的傷害。

與現(xiàn)實(shí)數(shù)據(jù)不匹配的失配數(shù)據(jù)集會(huì)導(dǎo)致算法無法正常運(yùn)行。算法需要能夠適應(yīng)數(shù)據(jù)集的變化,而與預(yù)期輸出的差異不大。目前,算法魯棒性領(lǐng)域正在開展一些研究諸如驗(yàn)證、有效性、安全性和控制的深入研究。


遷移學(xué)習(xí)

人類能夠運(yùn)用以前的經(jīng)驗(yàn)知識(shí)轉(zhuǎn)移消化解決新的問題,但是機(jī)器卻沒有這種能力。為了減少成本和工作量,遷移學(xué)習(xí)可以幫助將知識(shí)從一個(gè)應(yīng)用遷移到另一個(gè)應(yīng)用。

遷移學(xué)習(xí)的目的是允許使用來自不同應(yīng)用領(lǐng)域、具有不同分布或不同任務(wù)的訓(xùn)練數(shù)據(jù)。遷移學(xué)習(xí)的實(shí)現(xiàn)需要解決幾個(gè)問題,例如如何確定哪些知識(shí)可以遷移。如果訓(xùn)練數(shù)據(jù)來自另一個(gè)應(yīng)用領(lǐng)域 ,則遷移的信息可能相關(guān)或無關(guān)。目前,遷移學(xué)習(xí)方法仍存在許多難題,比如如何遷移知識(shí),何時(shí)可以遷移等。遷移學(xué)習(xí)的突破可以使機(jī)器學(xué)習(xí)更易于應(yīng)用,并減少開發(fā)成本和時(shí)間。


可解釋性

大多數(shù)AI算法(特別是神經(jīng)網(wǎng)絡(luò))被稱為“黑匣子 ”。這意味著可以理解輸入數(shù)據(jù)和網(wǎng)絡(luò)的輸出結(jié)果,但無法理解算法是如何產(chǎn)生這個(gè)結(jié)果的。這是人工智能面臨的一個(gè)關(guān)鍵挑戰(zhàn),因?yàn)槔斫饽P褪亲罱K用戶廣泛接受AI的最重要的出發(fā)點(diǎn)之一。

此外,不只是算法本身,將原始數(shù)據(jù)轉(zhuǎn)換為可以通過數(shù)學(xué)模型處理的數(shù)據(jù),也會(huì)讓即使較簡單的算法無法被人們理解。隨著人工智能算法被部署在越來越多的行業(yè)應(yīng)用中,在醫(yī)學(xué)或金融等具有高度敏感數(shù)據(jù)的領(lǐng)域,可解釋性必將成為主要挑戰(zhàn)。


目標(biāo)函數(shù)

AI系統(tǒng)關(guān)注的另一重點(diǎn)是目標(biāo)函數(shù),如果函數(shù)不正確或不精確,可能會(huì)導(dǎo)致負(fù)面效應(yīng)或獎(jiǎng)勵(lì)黑客。負(fù)面效應(yīng)可能包括由系統(tǒng)引起的對(duì)商品或人的傷害,因?yàn)橐赃@種方式操作,可使系統(tǒng)更快地實(shí)現(xiàn)其目標(biāo)。獎(jiǎng)勵(lì)黑客會(huì)導(dǎo)致系統(tǒng)任務(wù)無法充分完成,因?yàn)樗l(fā)現(xiàn)了一種無法預(yù)料的滿足獎(jiǎng)勵(lì)函數(shù)的替代方法。即使會(huì)影響系統(tǒng)實(shí)現(xiàn)其目標(biāo)的能力,系統(tǒng)的目標(biāo)函數(shù)也不應(yīng)妨礙系統(tǒng)被關(guān)閉或修改。即使正確地表述了目標(biāo)函數(shù),當(dāng)需要監(jiān)督可伸縮性問題時(shí),系統(tǒng)仍需能夠正確執(zhí)行。


基礎(chǔ)設(shè)施相關(guān)的挑戰(zhàn)

要運(yùn)行實(shí)時(shí)的AI應(yīng)用,需要穩(wěn)定地提高計(jì)算速度和基礎(chǔ)設(shè)施效率。不僅需要定制的硬件來加速AI工作負(fù)載,還需要軟件堆棧、庫或工具鏈。


硬件瓶頸

人工智能和深度學(xué)習(xí)需要并行處理大量數(shù)據(jù),當(dāng)前使用的GPU和FPGA有許多技術(shù)限制,局限了最先進(jìn)AI算法的實(shí)現(xiàn)。在新的計(jì)算時(shí)代,內(nèi)核芯片將決定AI的基礎(chǔ)設(shè)施和生態(tài)系統(tǒng)。因此,處理器的能力被認(rèn)為是推進(jìn)AI開發(fā)的主要瓶頸。

異構(gòu)計(jì)算平臺(tái)的設(shè)計(jì)和體系結(jié)構(gòu)(集成了各種加速器以應(yīng)對(duì)各類AI工作負(fù)載)是AI研究和商業(yè)實(shí)現(xiàn)的重要課題。此外,鑒于云基礎(chǔ)設(shè)施的可伸縮性、可靠性和自動(dòng)化資源管理,在其內(nèi)部提供硬件資源已經(jīng)成為一種新興的趨勢(shì)。此外,云原生的應(yīng)用程序編程接口API被用來提供一致的接口、廣泛的支持和AI應(yīng)用的輕松部署。


缺少平臺(tái)和框架

由于AI技術(shù)可能在不同的系統(tǒng)或子系統(tǒng)(云、邊緣 或終端設(shè)備)上實(shí)現(xiàn),因此,平臺(tái)設(shè)計(jì)應(yīng)根據(jù)系統(tǒng)的個(gè)體需求和資源限制量身定制。用于AI開發(fā)的可重用和標(biāo)準(zhǔn)化的技術(shù)框架、平臺(tái)、工具和服務(wù)尚未成熟;包括體系架構(gòu)、框架、應(yīng)用模型、評(píng)估和可視化工具以及云服務(wù)在內(nèi)的完全模塊化和標(biāo)準(zhǔn)化的AI生態(tài)系統(tǒng),仍需要一段時(shí)間才能達(dá)到適合的成熟度等級(jí)。


可信度相關(guān)的挑戰(zhàn)

人工智能需要許多不同利益相關(guān)者合作并共同開展工作,必須共享數(shù)據(jù),提供專業(yè)知識(shí)并共同努力,以實(shí)現(xiàn)高效實(shí)施。為了促進(jìn)這種合作,需要解決許多問題,例如確保信任。


信任

利益相關(guān)者之間的信任至關(guān)重要。認(rèn)證技術(shù)可能會(huì)提供解決數(shù)據(jù)源可信度的解決方案。來自集中和可信發(fā)行人的電子證書與數(shù)據(jù)密封相結(jié)合,是在各方之間建立信任的一種可選方案。但是,該解決方案僅著眼于在合作伙伴之間建立信任,并未解決數(shù)據(jù)質(zhì)量問題。為此,可以建立一個(gè)可信數(shù)據(jù)池,或者使用評(píng)估或評(píng)價(jià)算法避開錯(cuò)誤的數(shù)據(jù)庫。此外,元算法可以幫助AI系統(tǒng)隨著時(shí)間的推移保持可靠和透明,從而提供有關(guān)所使用數(shù)據(jù)源的出處和分布的信息。


隱私性

由于AI系統(tǒng)通常需要更高的計(jì)算能力,許多公司和政府已開始在云上存儲(chǔ)數(shù)據(jù)。但云的隱私保護(hù)也具有隱藏的威脅。對(duì)于任何一個(gè)AI玩家來說,如何合法地收集和使用數(shù)據(jù)并遵守現(xiàn)有和未來的法律都是至關(guān)重要的問題。


安全性

技術(shù)濫用、缺陷和未來超級(jí)AI的發(fā)展都對(duì)人類社會(huì)構(gòu)成了安全威脅。人工智能對(duì)人類的影響在很大程度上取決于人們?nèi)绾问褂煤凸芾硭T诜缸锓肿邮种?,人工智能肯定?huì)導(dǎo)致重大的安全問題。此外,如果安全措施不夠有效,類似無人駕駛汽車、機(jī)器人和其他AI設(shè)備可能會(huì)傷害人類并面對(duì)法律層面的挑戰(zhàn)。

監(jiān)管相關(guān)的挑戰(zhàn)

在許多AI領(lǐng)域仍然缺乏適當(dāng)?shù)谋O(jiān)管。世界很多國家政府將尋找平衡監(jiān)管人工智能發(fā)展列為的重要優(yōu)先事項(xiàng),如果找到適合的方法,將促進(jìn)并支持工業(yè)創(chuàng)新,可提升生產(chǎn)力和競爭力,同時(shí)確保高水平的安全與健康,提供消費(fèi)者保護(hù)、社會(huì)保障以及權(quán)利和自由的保護(hù)。


可靠性

基于AI的新產(chǎn)品中正在出現(xiàn)的可預(yù)見性、可解釋性和因果關(guān)系問題使得解決諸如產(chǎn)品缺陷之類的責(zé)任問題越來越困難,這可能會(huì)造成巨大的責(zé)任缺口。但是,數(shù)字技術(shù)的復(fù)雜性使得發(fā)生故障時(shí)很難確定誰是責(zé)任人,以及它應(yīng)承擔(dān)多大責(zé)任。在當(dāng)前的法律框架下,機(jī)器人本身不對(duì)造成第三方損害的行為或疏忽承擔(dān)責(zé)任。面對(duì)這些預(yù)期的責(zé)任挑戰(zhàn),對(duì)新法規(guī)的需求在許多行業(yè)應(yīng)用中將變得越來越重要。


隱私

我們必須在數(shù)據(jù)隱私和人工智能產(chǎn)業(yè)蓬勃發(fā)展之間取得微妙的平衡。人工智能正在通過啟用復(fù)雜的匿名化和加密方法來幫助確保個(gè)人數(shù)據(jù)的安全。人工智能可以通過無需人類訪問數(shù)據(jù)而執(zhí)行任務(wù),進(jìn)而限制敏感信息(例如健康記錄)的暴露,提高隱私性。

歐盟通用數(shù)據(jù)保護(hù)條例(GDPR)是歐盟對(duì)數(shù)據(jù)保護(hù)和隱私進(jìn)行的一系列重大監(jiān)管變更,解決了AI系統(tǒng)的自動(dòng)決策問題。盡管目前尚不清楚數(shù)據(jù)保護(hù)機(jī)構(gòu)將如何在實(shí)踐中實(shí)施GDPR,但AI決策的透明度要求是公司和監(jiān)管機(jī)構(gòu)都必須應(yīng)對(duì)的主要挑戰(zhàn)。


倫理

人工智能系統(tǒng)需要(如自動(dòng)駕駛汽車)在其決策過程中做出道德選擇(如傷害行人,或避開行人但可能傷害到駕駛員或乘客)。這說明AI安全不僅是個(gè)技術(shù)問題,還是一個(gè)政策和道德問題。

此外,在授予機(jī)器決策權(quán)后,人們將面臨一個(gè)新的倫理問題:機(jī)器是否有資格做出這樣的決策? 隨著智能系統(tǒng)不斷掌握特定領(lǐng)域的知識(shí),其決策能力將開始超越人類,這意味著人們可能會(huì)在越來越多的領(lǐng)域中依賴于機(jī)器主導(dǎo)的決策。在今后的人工智能發(fā)展中,這類倫理挑戰(zhàn)需要特別關(guān)注。

人工智能應(yīng)用市場的落地及推進(jìn)與其標(biāo)準(zhǔn)化進(jìn)程息息相關(guān)。下期,我們?yōu)榇蠹医庾x人工智能應(yīng)用的標(biāo)準(zhǔn)化進(jìn)程及挑戰(zhàn)。


人工智能將賦能哪些行業(yè)(四)的評(píng)論 (共 條)

分享到微博請(qǐng)遵守國家法律
锦州市| 金寨县| 北辰区| 土默特左旗| 栾川县| 天柱县| 瓦房店市| 武川县| 体育| 安平县| 安阳县| 高尔夫| 黄梅县| 区。| 延安市| 平凉市| 育儿| 崇礼县| 平阳县| 韶关市| 黄大仙区| 深水埗区| 宝山区| 凤山县| 连江县| 昭平县| 江川县| 平原县| 嘉定区| 泰宁县| 尤溪县| 淅川县| 南雄市| 鸡东县| 宜兴市| 汨罗市| 灵寿县| 寿光市| 民权县| 宁陵县| 抚松县|