雙面AI:風險與可信博弈,科技如何向善?
從自動駕駛、AI醫(yī)療再到工業(yè)生產(chǎn),以及我們生活的各個領(lǐng)域,AI正在展現(xiàn)巨大變革賦能的潛力。但是,隨著AI應(yīng)用的廣度和深度不斷拓展,諸如算法安全、數(shù)據(jù)歧視、數(shù)據(jù)濫用等諸多問題也顯露出一些風險與隱患。從而,引發(fā)人們對人工智能信任的思考。
7月9日,在2021世界人工智能大會可信AI論壇上,《促進可信人工智能發(fā)展倡議》(以下簡稱“倡議”)正式發(fā)布。該倡議由可信AI論壇發(fā)起,聯(lián)合發(fā)布單位包括中國信通院、中國科學院自動化研究所中英人工智能倫理與治理研究中心、京東探索研究院、螞蟻集團等。
上述倡議旨在倡導政產(chǎn)學研各界加快形成國際協(xié)同治理共識,促進社會對可信AI的理解和重視,充分挖掘人工智能的產(chǎn)業(yè)和社會價值。上海市經(jīng)濟和信息化委員會主任吳金城對21世紀經(jīng)濟報道記者表示,發(fā)展可信AI,推動人工智能的透明可視,安全可控,多元包容已成為全球共識,也是未來人工智能健康發(fā)展的必由之路。
他認為有三種方式,一是推動加密技術(shù),安全多方計算、聯(lián)邦學習等安全技術(shù)的應(yīng)用。提升AI技術(shù)安全特性和數(shù)據(jù)保護能力。二是建立測試測評體系。加快構(gòu)建完善可信AI相關(guān)標準,研發(fā)創(chuàng)新測試測評技術(shù)。三是加快完善制度規(guī)范。在國家相關(guān)法律和上海市地方性法規(guī)框架下研究制定生物信息安全、數(shù)據(jù)安全、個人隱私等領(lǐng)域的法律法規(guī),以制度保障推動可信AI發(fā)展。
從自動駕駛、AI醫(yī)療再到工業(yè)生產(chǎn),以及我們生活的各個領(lǐng)域,AI正在展現(xiàn)巨大變革賦能的潛力。甘俊 制
風控不再是人與人的斗爭
事實上,當我們把決策交給人工智能的時候,人工智能首先必須證明自己是值得信賴的。因此,基于此的可信任研究,就形成了全球共識。
工業(yè)和信息化部科技司高技術(shù)處處長徐鵬表示,尤其是在與人類的生產(chǎn)生活密切相關(guān)安全領(lǐng)域的風險防范和挑戰(zhàn),比如倫理道德、算法、個人信息的濫用和隱私的泄露以及相應(yīng)保護問題,是現(xiàn)在大家關(guān)注熱點之一。由此可見,構(gòu)建人工智能基礎(chǔ)安全保障體系,促進可信的人工智能健康發(fā)展任務(wù)非常迫切。
“未來的風控將不再是人和人的斗爭,而是AI與AI的博弈。”螞蟻集團副總裁、首席人工智能科學家漆遠博士向21世紀經(jīng)濟報道記者透露,在支付寶上,每天上億筆交易背后,發(fā)起攻擊的早已不是散戶,而是專業(yè)的黑產(chǎn)團伙。
為了應(yīng)對復雜多變的黑產(chǎn)攻擊,如何持續(xù)加強風控模型的抗打擊能力,做到“魔高一尺,道高一丈”,成為擺在所有AI從業(yè)者面前的難題。
據(jù)了解,從2018年開始,漆遠與一批AI技術(shù)骨干,在人工智能模型算法中融入經(jīng)濟學“博弈理論”,開發(fā)了一項業(yè)界全新的技術(shù)——“智能對抗”,即通過結(jié)合AI和博弈對抗,讓機器自動且實時、動態(tài)地對自身系統(tǒng)進行安全性攻擊,從而提升模型能力,使模型處理結(jié)果更加準確。
這一技術(shù)類似于金庸小說里的“雙手互搏”。因其具有對風險知識形成感知、分析和預測的能力,未來將成為可信AI領(lǐng)域的核心安全技術(shù)。
在中國科學院自動化研究所中英人工智能倫理與治理研究中心主任曾毅看來,可信人工智能系統(tǒng),必須有在線連續(xù)學習和隨時糾正能力。“從技術(shù)的角度看,最新人工智能技術(shù)進展模型現(xiàn)在看來都是不可信的。現(xiàn)在人工智能的技術(shù),還不足夠談到真正的可信,所以,它是一個起始點。另外,可信人工智能絕對不僅僅是技術(shù)問題,還有社會的視角。如何利用技術(shù)賦能跨文化的互信,在我看來是真正實現(xiàn)可信人工智能不得不做的事情,甚至是最后成功的關(guān)鍵。”
亟須建立行業(yè)標準
作為數(shù)字經(jīng)濟中“抵御風險”的關(guān)鍵,可信AI技術(shù)目前已在螞蟻集團包括反欺詐、反洗錢、反賭博、企業(yè)聯(lián)合風控、數(shù)據(jù)隱私保護在內(nèi)的多個風控場景下落地。
除金融風控場景外,可信AI技術(shù)還被廣泛應(yīng)用于數(shù)據(jù)隱私保護、金融科技服務(wù)等多個領(lǐng)域。今年6月,十三屆全國人大常委會第二十九次會議表決通過包括數(shù)據(jù)安全法在內(nèi)的多項法案及兩項決定。數(shù)據(jù)安全法第四條提出,維護數(shù)據(jù)安全,應(yīng)當堅持總體國家安全觀,建立健全數(shù)據(jù)安全治理體系,提高數(shù)據(jù)安全保障能力。
這標志著,數(shù)據(jù)安全已經(jīng)上升到總體國家安全觀層面,與國家安全掛鉤。而各界對此密切關(guān)注。
“無論是AI還是科學技術(shù),可信的方式有很多,像穩(wěn)定性、可解釋性、隱私保護、公平性,我們?nèi)绾伟堰@些綜合起來形成統(tǒng)一的共識體?”歐洲科學院外籍院士、澳大利亞科學院院士、悉尼大學教授陶大程提出了自己的問題,由于缺乏可解釋性,也限制了人工智能更廣泛的應(yīng)用和賦能,比如說無人駕駛車在道路上出現(xiàn)狀況了之后,該如何定責,因為無法解釋,駕駛員無法在短短幾秒鐘之內(nèi),對道路產(chǎn)生判斷。
一定程度上來說正是因為標準的缺失,導致人工智能的應(yīng)用落地受到了限制。陶大程進一步認為,不管歐盟的GDPR也好,還是中國的隱私保護條例也好,都說明用戶對數(shù)據(jù)使用要更謹慎,說明了用戶對個人信息的保護,是有相當?shù)臋?quán)利的。只有將上述四個能力綜合后,做到明確的責任,才能找到合適的方式度量可信人工智能。
毫無疑問,人工智能在更多領(lǐng)域起到的作用舉足輕重,例如醫(yī)療診斷、無人駕駛等場景下,很可能一個微小算法錯誤,都可能導致致命災(zāi)難。因此,制定一定的量化指標和行業(yè)標準,在產(chǎn)品研發(fā)、評測的過程中,才能更加嚴格評估和遵循規(guī)則。
智能時代已加速到來,科技向善是科學技術(shù)發(fā)展最根本的要義。“向善主要是指兩個方面,一是指你的意圖好還是壞?另外一個方面是,你做這一個事情的后果是什么。技術(shù)的發(fā)展也帶來了公平的問題,真正的科技向善,應(yīng)該是賦予每個人更多發(fā)展的權(quán)利,每個人跟得上這個時代,享受這個紅利和普惠性。”
在他看來,無論一家企業(yè)還是一個行業(yè),提到信任,就要從責任入手。只有好的意圖,才能達成好的后果。從而建立相互影響、相互支持、相互依賴的健康有序發(fā)展生態(tài)。
2、本網(wǎng)其他來源作品,均轉(zhuǎn)載自其他媒體,目的在于傳遞更多信息,不表明證實其描述或贊同其觀點。文章內(nèi)容僅供參考。
3、若因版權(quán)等問題需要與本網(wǎng)聯(lián)絡(luò),請在30日內(nèi)聯(lián)系我們,電話:0755-32905944,或者聯(lián)系電子郵件: 434489116@qq.com ,我們會在第一時間刪除。
4、在本網(wǎng)發(fā)表評論者責任自負。
網(wǎng)友評論僅供其表達個人看法,并不表明本網(wǎng)同意其觀點或證實其描述,發(fā)言請遵守相關(guān)規(guī)定。