當(dāng)前人工智能的發(fā)展主要受益于以深度學(xué)習(xí)為代表的機(jī)器學(xué)習(xí)技術(shù),這讓計(jì)算機(jī)可以從大量數(shù)據(jù)中自主學(xué)習(xí)與進(jìn)化,從而作出比人類更高效、更精準(zhǔn)、更廉價(jià)的預(yù)測(cè)與決策。正因如此,人工智能作為新的通用型技術(shù),被認(rèn)為將給經(jīng)濟(jì)和社會(huì)帶來(lái)變革性影響,已被各國(guó)上升到國(guó)家戰(zhàn)略和科技主權(quán)高度,成為不斷升溫的全球科技競(jìng)爭(zhēng)的新焦點(diǎn)。
在應(yīng)用層面,人工智能已經(jīng)滲透到各行各業(yè),算法幫我們過(guò)濾掉垃圾郵件,給我們推薦可能喜歡的歌曲,為我們翻譯不同的語(yǔ)言文字,替我們駕駛汽車。新冠肺炎疫情暴發(fā)以來(lái),人工智能在輔助醫(yī)療診斷與新藥研發(fā)等方面嶄露頭角,無(wú)人物流配送、無(wú)人駕駛汽車等新模式助力非接觸服務(wù)發(fā)展??傊斯ぶ悄軡摿薮?,可以成為一股向善的力量,不僅帶來(lái)經(jīng)濟(jì)增長(zhǎng),增進(jìn)社會(huì)福祉,還能促進(jìn)可持續(xù)發(fā)展。
但與此同時(shí),人工智能及其應(yīng)用的負(fù)面影響與倫理問(wèn)題也日益凸顯,呼吁人們?cè)诩夹g(shù)及其產(chǎn)業(yè)化之外更加關(guān)注倫理視域。例如,人工智能模型訓(xùn)練及其應(yīng)用離不開(kāi)大量數(shù)據(jù)的支持,可能導(dǎo)致違法違規(guī)或過(guò)度收集、使用用戶數(shù)據(jù),加深人工智能與數(shù)據(jù)隱私保護(hù)之間的緊張關(guān)系;人臉識(shí)別技術(shù)在一些場(chǎng)景的應(yīng)用也引發(fā)了國(guó)內(nèi)外對(duì)該技術(shù)侵犯?jìng)€(gè)人隱私的爭(zhēng)議。人工智能技術(shù)也可能被不法分子濫用,例如用來(lái)從事網(wǎng)絡(luò)犯罪,生產(chǎn)、傳播假新聞,合成足以擾亂視聽(tīng)的虛假影像等。
隨著算法歧視的不斷發(fā)酵,人工智能參與決策的公平性問(wèn)題也備受關(guān)注。有研究發(fā)現(xiàn),很多商業(yè)化的人臉識(shí)別系統(tǒng)都存在種族、性別等偏見(jiàn),這樣的技術(shù)用于自動(dòng)駕駛汽車,就可能導(dǎo)致黑人等深色皮膚的人更容易被自動(dòng)駕駛汽車撞到。人工智能在招聘、廣告投放、信貸、保險(xiǎn)、醫(yī)療、教育、司法審判、犯罪量刑、公共服務(wù)等諸多方面的應(yīng)用也伴隨公平性爭(zhēng)議。此外,人工智能的知識(shí)產(chǎn)權(quán)保護(hù)問(wèn)題也日益浮現(xiàn),目前人工智能已能夠獨(dú)立創(chuàng)造詩(shī)歌、小說(shuō)、圖片、視頻等,知識(shí)產(chǎn)權(quán)制度將需要盡快回應(yīng)人工智能創(chuàng)造物的保護(hù)問(wèn)題。自動(dòng)駕駛汽車、AI醫(yī)療產(chǎn)品等人工智能應(yīng)用一旦發(fā)生事故,也面臨誰(shuí)來(lái)?yè)?dān)責(zé)的難題。最后,人工智能的應(yīng)用可能取代部分手工的、重復(fù)性的勞動(dòng),給勞動(dòng)者就業(yè)帶來(lái)一定沖擊。
2020年被認(rèn)為是人工智能監(jiān)管元年,美歐采取的監(jiān)管路徑大相徑庭。歐盟《人工智能白皮書(shū)》提出的“重監(jiān)管”模式更多倚重事前的規(guī)制,考慮為技術(shù)開(kāi)發(fā)與應(yīng)用設(shè)置嚴(yán)苛條件;美國(guó)《人工智能應(yīng)用監(jiān)管指南》提出的“輕監(jiān)管”模式更多倚重標(biāo)準(zhǔn)、指南等彈性手段,考慮為人工智能應(yīng)用設(shè)置避風(fēng)港、“監(jiān)管沙箱”等。在全球科技競(jìng)爭(zhēng)日趨激烈、數(shù)字經(jīng)濟(jì)日趨成為國(guó)家核心競(jìng)爭(zhēng)力等背景下,考慮到我國(guó)科技行業(yè)發(fā)展實(shí)際,我國(guó)對(duì)人工智能需要?jiǎng)?chuàng)新治理,倚重敏捷監(jiān)管、倫理治理、技術(shù)治理等多元手段來(lái)共同確保人工智能正向應(yīng)用與向善發(fā)展。
首先,監(jiān)管不僅需要對(duì)人工智能應(yīng)用分級(jí)分類、以問(wèn)題和風(fēng)險(xiǎn)防范為導(dǎo)向,而且需要具有敏捷性與適應(yīng)性。人工智能技術(shù)的一個(gè)核心特征是快速發(fā)展迭代,制定強(qiáng)制性法律必然趕不上技術(shù)發(fā)展步伐,所以國(guó)外大都采取出臺(tái)指南、倫理框架等“軟法”。此外,自動(dòng)駕駛汽車、智能醫(yī)療等人工智能應(yīng)用的發(fā)展落地仍面臨較多法規(guī)政策障礙,需要考慮修訂阻礙性的法律法規(guī),同時(shí)通過(guò)“數(shù)字沙箱”“安全港”“試點(diǎn)”等方式推動(dòng)其試驗(yàn)與應(yīng)用落地。
其次,采取倫理治理,把倫理原則轉(zhuǎn)化為倫理實(shí)踐。目前,國(guó)內(nèi)外很多科技公司都出臺(tái)了人工智能倫理原則,也在通過(guò)倫理審查委員會(huì)、倫理嵌入等方式落實(shí)其倫理原則。行業(yè)的這些倫理治理措施已在國(guó)內(nèi)外獲得較大共識(shí),更能適應(yīng)AI技術(shù)發(fā)展。
再次,以技術(shù)手段防范人工智能濫用。例如,深度合成作為一項(xiàng)人工智能應(yīng)用,在影視制作、教育、醫(yī)療、娛樂(lè)等領(lǐng)域具有很大正向應(yīng)用價(jià)值,但也可能被不法分子濫用來(lái)制造、傳播虛假影像以從事欺詐欺騙活動(dòng)。對(duì)此,行業(yè)內(nèi)已在積極研發(fā)、部署內(nèi)容鑒別與溯源技術(shù),以對(duì)抗深度合成的濫用。面對(duì)復(fù)雜性與迭代速度不斷增強(qiáng)的人工智能應(yīng)用,技術(shù)治理將發(fā)揮越來(lái)越大的作用。(作者:曹建峰,系騰訊研究院高級(jí)研究員曹建峰)
1月21日,寒武紀(jì)思元290智能芯片及加速卡、玄思1000智能加速器量產(chǎn)落地后在公司官網(wǎng)亮相。公司方面表示,這標(biāo)志著“云邊端一體、軟硬件協(xié)同、訓(xùn)練推理融合”新生態(tài)的建立。目前,思元290芯片及加速卡已與部分硬件合作伙伴完成適配,并已實(shí)現(xiàn)規(guī)?;鲐洝J艽讼⑻嵴?,寒武紀(jì)當(dāng)日股價(jià)上漲17.73%,收?qǐng)?bào)170元。 ... [閱讀]
12月28日,上海新天民信息科技有限公司與北京沖量在線科技有限公司簽署戰(zhàn)略合作協(xié)議,雙方將緊密圍繞治安、交通、金融等領(lǐng)域開(kāi)展全面合作,結(jié)合新天民在大數(shù)據(jù)服務(wù)輸出和應(yīng)用平臺(tái)開(kāi)發(fā)方向的專業(yè)經(jīng)驗(yàn),及沖量在線在數(shù)據(jù)流通和隱私計(jì)算方向的技術(shù)創(chuàng)新和工程能力,共同助力這些領(lǐng)域的數(shù)據(jù)高效治理與增值。 新天民領(lǐng)銜國(guó)內(nèi)一流... [閱讀]
人工智能已不再是高大上的概念,而成為在生產(chǎn)生活的方方面面快速滲透的技術(shù)應(yīng)用。在為我們帶來(lái)各種便利的同時(shí),它所觸及的倫理和法律問(wèn)題也開(kāi)始凸顯。 全國(guó)政協(xié)日前召開(kāi)雙周協(xié)商座談會(huì),專門就人工智能發(fā)展中的科技倫理與法律問(wèn)題進(jìn)行協(xié)商議政。在充分調(diào)研的基礎(chǔ)上,此次座談會(huì)對(duì)相關(guān)問(wèn)題進(jìn)行了深入探討。 要高度重視人工智能健康發(fā)展 &... [閱讀]
全球新一輪科技革命和產(chǎn)業(yè)變革方興未艾,而作為引領(lǐng)新一輪科技革命和產(chǎn)業(yè)變革的核心驅(qū)動(dòng)力量之一,人工智能近年來(lái)被廣泛應(yīng)用于金融、電商、醫(yī)療等領(lǐng)域。 風(fēng)生水起之余,人工智能產(chǎn)業(yè)也暗藏隱憂:隨著全球人工智能規(guī)?;ㄔO(shè)和應(yīng)用的加速,人工智能基礎(chǔ)設(shè)施、設(shè)計(jì)研發(fā)及融合應(yīng)用面臨的安全風(fēng)險(xiǎn)正日益凸顯。由中國(guó)信息通信研究院聯(lián)合瑞萊智慧Real... [閱讀]
2025-07-01
2025-06-24
2025-06-24
2025-06-23
2025-06-23
2025-07-01
2025-06-24
2025-06-24
2025-06-23
2025-06-23