未來10—20年,AI技術(shù)將滲透至與人類密切相關(guān)的領(lǐng)域,比如醫(yī)療、司法、生產(chǎn)、金融科技等風(fēng)險(xiǎn)敏感型領(lǐng)域,AI技術(shù)如果犯錯(cuò),就會(huì)造成較大系統(tǒng)風(fēng)險(xiǎn)!2020年12月29日,在未來科學(xué)大獎(jiǎng)周舉辦的“青年對(duì)話”活動(dòng)中,清華大學(xué)計(jì)算機(jī)系長(zhǎng)聘副教授、中國(guó)科協(xié)全國(guó)委員會(huì)委員崔鵬說。
活動(dòng)中,騰訊科學(xué)技術(shù)協(xié)會(huì)秘書長(zhǎng)張謙表示,面對(duì)AI技術(shù)所引起的風(fēng)險(xiǎn)問題,首先應(yīng)該關(guān)注的是守住AI產(chǎn)品底線,即避免技術(shù)作惡。
在這方面,美團(tuán)首席科學(xué)家夏華夏認(rèn)為,法律法規(guī)方面需要做大量工作,包括制定AI行業(yè)的標(biāo)準(zhǔn)、規(guī)范,以及從國(guó)家層面完善、出臺(tái)相關(guān)法律法規(guī),從而對(duì)AI技術(shù)發(fā)展進(jìn)行把控。
談及AI標(biāo)準(zhǔn)化的實(shí)踐,中國(guó)人民大學(xué)法學(xué)院副教授、未來法治研究院社會(huì)責(zé)任和治理中心主任郭銳提到兩個(gè)原則——人的根本利益原則和責(zé)任原則,“這兩個(gè)原則的宗旨是讓AI的決策和行動(dòng)盡可能通過人的干預(yù)來避免對(duì)人的傷害”。
“徒法不足以自行。”郭銳坦言,法律本身也存在局限,規(guī)避AI技術(shù)潛在風(fēng)險(xiǎn),需管理者對(duì)AI技術(shù)有透徹的了解,這樣才能對(duì)其進(jìn)行有效管制,“法律是建立包容性社會(huì)的重要工具,法律界要和企業(yè)、技術(shù)等方面專家合作,這樣通過法律來對(duì)AI技術(shù)進(jìn)行管理約束的目標(biāo)才能達(dá)成!
星界資本管理合伙人方遠(yuǎn)認(rèn)為,各大核心數(shù)據(jù)平臺(tái)處于AI風(fēng)險(xiǎn)管理的重要位置,“在互聯(lián)網(wǎng)和大數(shù)據(jù)時(shí)代,大平臺(tái)是數(shù)據(jù)的采集者也是守護(hù)者。務(wù)必要對(duì)數(shù)據(jù)使用權(quán)做出清晰界定,這對(duì)整個(gè)社會(huì)的AI發(fā)展有重要意義”。
“AI技術(shù)的風(fēng)險(xiǎn)治理需要科技工作者、企業(yè)管理者、政策制定者、相關(guān)法律專家以及投資人多方努力!敝锌圃河(jì)算所研究員山世光說。
除了守住底線,與會(huì)者還提到,要厘清邊界,引導(dǎo)技術(shù)向善。
崔鵬指出,犯錯(cuò)并非AI特有的風(fēng)險(xiǎn),人也會(huì)犯錯(cuò)。“但人犯錯(cuò)大多數(shù)可控、可預(yù)測(cè)。而目前AI技術(shù)犯錯(cuò)的話是不可預(yù)測(cè)的,或者犯錯(cuò)后人們會(huì)發(fā)現(xiàn)其犯錯(cuò)機(jī)制是無法從技術(shù)層面解釋的。這涉及到AI在決策和行為上的邊界問題!
厘清邊界具體包括AI需要明白它會(huì)什么、不會(huì)什么,以及人需要明白AI什么事能做、什么事不能做等問題。崔鵬認(rèn)為,如不厘清邊界,AI還會(huì)犯更多低級(jí)錯(cuò)誤,帶來更大風(fēng)險(xiǎn)。
郭銳認(rèn)為,目前AI遇到的倫理問題,實(shí)際上是因?yàn)樗h(yuǎn)未達(dá)到人類智能的程度,卻已被賦予為人類做決策的責(zé)任,“還有人把AI技術(shù)當(dāng)作借口,用科學(xué)的名義做不符合倫理的決策,這樣做是不對(duì)的。需要人決策的地方應(yīng)該由人決策”。
2020年新冠肺炎疫情期間,英國(guó)用一套算法得出學(xué)生成績(jī),結(jié)果近40%的學(xué)生成績(jī)低于教師的預(yù)估分?jǐn)?shù),導(dǎo)致很多學(xué)生與名校失之交臂。山世光說,有些人工智能模型或數(shù)據(jù)模型沒有考慮到社會(huì)公平、優(yōu)勢(shì)累計(jì)惡果,導(dǎo)致看起來運(yùn)算過程很嚴(yán)謹(jǐn)、結(jié)果很準(zhǔn),但卻并不足以支持AI做出科學(xué)決策。
有專家表示,這并非AI技術(shù)的錯(cuò)。夏華夏說,真正應(yīng)承擔(dān)社會(huì)責(zé)任的是使用AI技術(shù)的人、企業(yè)等。AI技術(shù)向善需要社會(huì)整體文明發(fā)展到一定階段,形成良好氛圍。張謙則提到,技術(shù)并不可怕,可以通過技術(shù)進(jìn)一步發(fā)展解決技術(shù)存在的問題。
山世光稱:“說到底,我們還是希望AI技術(shù)能得到健康發(fā)展,滿足對(duì)科技真、善、美的追求。”