廣東迅視資管 給人工智能健康發(fā)展設(shè)置“安全閥”
人工智能已不再是高大上的概念,而成為在生產(chǎn)生活的方方面面快速滲透的技術(shù)應(yīng)用。在為我們帶來各種便利的同時,它所觸及的問題也開始凸顯。
日前召開的雙周協(xié)商座談會上就有專門對人工智能發(fā)展中的問題進(jìn)行協(xié)商。在充分調(diào)研的基礎(chǔ)上,此次座談會對相關(guān)問題進(jìn)行了深入探討。
?
要高度重視人工智能健康發(fā)展
“我國人工智能發(fā)展勢頭迅猛,但發(fā)展機(jī)遇與風(fēng)險并存,(人工智能)對人類社會發(fā)展也可能帶來重大風(fēng)險和潛在威脅?!睉?yīng)警惕人工智能發(fā)展所帶來的社會公平問題。人工智能主要以大數(shù)據(jù)和深度學(xué)習(xí)為基礎(chǔ),而往往數(shù)據(jù)的缺失、數(shù)據(jù)的質(zhì)量、算法的歧視和人工的變化,會導(dǎo)致一些偏見出現(xiàn)。
人工智能應(yīng)用中的個人隱私保護(hù)問題,在此次座談會上備受關(guān)注。
“人工智能需要大量個人數(shù)據(jù)支撐,其中很多是個人隱私。隱私信息一旦泄露,可能對消費(fèi)者安全及公共利益造成嚴(yán)重威脅?!痹诤A看髷?shù)據(jù)中,尤其需要關(guān)注的是不可再生性數(shù)據(jù),。“這些數(shù)據(jù)具有唯一性,是無法更改的,一旦被采集到不安全的網(wǎng)絡(luò)上,極有可能帶來災(zāi)難性后果?!闭剟︿h說。
不僅如此,人工智能發(fā)展引發(fā)的就業(yè)問題、人工智能紅利形成的“數(shù)字鴻溝”“貧富鴻溝”等社會財富分配問題也在座談會上得到討論。
?
技術(shù)防范+倫理規(guī)范+法律規(guī)制
總的來看,人工智能治理需要在充分發(fā)揮技術(shù)手段的基礎(chǔ)上,注重倫理與制度的結(jié)合,逐步形成“技術(shù)防范+倫理規(guī)范+法律規(guī)制”的綜合規(guī)制體系。
全面增強(qiáng)人工智能技術(shù)創(chuàng)新能力。其要義之一是強(qiáng)化人工智能安全可信、隱私保護(hù)等方面技術(shù)研發(fā),建設(shè)跨領(lǐng)域的人工智能測試平臺,強(qiáng)化倫理治理和風(fēng)險防范的技術(shù)支撐。