亚洲精品无码AⅤ片青青在线观看_国产在线播放不卡一区二区三区_无码中文字幕视频一区二区三区_久久夜色精品亚洲av三区_国产综合欧美无毒不卡怡红院

?
投資 干貨 消費(fèi) 評(píng)論 學(xué)院 滾動(dòng)
風(fēng)投 科技 創(chuàng)業(yè) 業(yè)內(nèi) 要聞
科技圓桌派|AI狂飆必須嚴(yán)管?提防AI“變壞” 我們?cè)缬蟹纻?/div>
發(fā)布日期: 2023-07-07 21:44:43 來(lái)源: 封面新聞

盡管生成式人工智能茁壯成長(zhǎng),但根據(jù)《生成式AI》報(bào)告,當(dāng)前生成式AI市場(chǎng)處于技術(shù)主導(dǎo)的早期階段,存在千億美元市值的平臺(tái)性企業(yè)的機(jī)會(huì)。毫無(wú)疑問(wèn),人工智能可以加速科學(xué)技術(shù)創(chuàng)新進(jìn)步、刺激生產(chǎn)力和經(jīng)濟(jì)增長(zhǎng),但技術(shù)的風(fēng)險(xiǎn)不容忽視。


(資料圖片僅供參考)

那么,生成式人工智能在大幅解放生產(chǎn)力的同時(shí),其所涉及到的安全、法律及倫理等問(wèn)題應(yīng)當(dāng)如何規(guī)范?7月7日,2023世界人工智能大會(huì)智能社會(huì)論壇上,“智能社會(huì)與數(shù)字治理生態(tài)”引發(fā)與會(huì)中外專家學(xué)者對(duì)這些問(wèn)題進(jìn)行深入探討,并發(fā)布了《人工智能大模型倫理規(guī)范操作指引》《生成式人工智能風(fēng)險(xiǎn)評(píng)估框架(1.0)》等一批專題研究成果。

人工智能大模型必須處于人類監(jiān)督和控制之下

“大多數(shù)人工智能倫理原則和指南內(nèi)容是趨同和重疊的,說(shuō)明對(duì)于核心的人工智能倫理原則,基本已經(jīng)取得了高度共識(shí)。但這些倫理原則如何落地實(shí)施,卻始終沒(méi)有較有力的措施?!毖芯繄F(tuán)隊(duì)相關(guān)負(fù)責(zé)人、同濟(jì)大學(xué)人文學(xué)院特聘教授杜嚴(yán)勇表示,這也是嘗試探討人工智能大模型倫理規(guī)范操作指引的根本原因?!拔覀儽M可能指向人工智能大模型技術(shù)特征以及可能的應(yīng)用場(chǎng)景,提高操作指引的針對(duì)性。”

據(jù)介紹,操作指引把重點(diǎn)放在了人工智能的研發(fā)環(huán)節(jié)。研究團(tuán)隊(duì)認(rèn)為,科研人員在人工智能倫理方面承擔(dān)著最為重要的道德責(zé)任。值得注意的是,操作指引著重強(qiáng)調(diào)了“人類”的監(jiān)督、控制和責(zé)任。

“我們認(rèn)為可以在一定程度上使人工智能大模型的決策和人類利益和價(jià)值觀保持一致,這也是實(shí)現(xiàn)人工智能大模型安全性最為重要的方面?!倍艊?yán)勇說(shuō),“無(wú)論人工智能大模型的倫理再?gòu)?qiáng)大,畢竟還是擁有工具屬性。因此,我們一定要保證,在重大決策方面,‘人類’必須在決策環(huán)中。人工智能大模型必須處于人類監(jiān)督和控制之下?!?/p>

為此,操作指引提出,要通過(guò)完善責(zé)任內(nèi)容分配,形成責(zé)任閉環(huán),從而盡可能規(guī)避所謂的責(zé)任鴻溝和有組織的不負(fù)責(zé)任的現(xiàn)象。

面對(duì)技術(shù):先勇敢擁抱

有分析認(rèn)為,雖然倫理審查短期內(nèi)會(huì)影響產(chǎn)品商業(yè)化的效率,但從長(zhǎng)期來(lái)看,有助于人工智能行業(yè)可持續(xù)的健康發(fā)展,讓我國(guó)在這一領(lǐng)域形成可持續(xù)的全球競(jìng)爭(zhēng)力。

清華大學(xué)智能社會(huì)治理研究院院長(zhǎng)蘇竣從AI與環(huán)保角度切入舉例:“目前數(shù)字化與綠色化發(fā)展之間還存在夾角,如果處理得當(dāng),智能技術(shù)將在推動(dòng)能源生產(chǎn)消費(fèi)革命方面發(fā)揮巨大作用,大幅降低能源消耗和碳排放,有助于盡快實(shí)現(xiàn)‘雙碳’目標(biāo)。反之,處理不當(dāng)則可能帶來(lái)更多能源消耗和社會(huì)福利的損失,使社會(huì)陷入生態(tài)危機(jī)。”

北京大學(xué)人工智能研究院研究員沈體雁說(shuō),AI治理主要就是三個(gè)問(wèn)題,把AI創(chuàng)好、把AI用好、把AI管好,“后兩方面,中國(guó)有絕對(duì)的優(yōu)勢(shì)。但在原始創(chuàng)新方面,我們還是有一些短板?!彼ㄗh,應(yīng)該給AI研發(fā)者一點(diǎn)空間,對(duì)他們有更多的包容,“盡量少管他們,隨便他們折騰。折騰出成果,再想辦法管理?!?/p>

“我們不能采取鴕鳥政策,更不能采取封堵政策,不要擔(dān)心技術(shù)不可控,就選擇不使用或者少使用?!碧K竣說(shuō),“科學(xué)技術(shù)的大門已經(jīng)打開(kāi)了,應(yīng)該勇敢站到舞臺(tái)上去,采取積極治理措施去擁抱新技術(shù),全面加強(qiáng)基于chatgpt架構(gòu)的應(yīng)用?!?/p>

提防AI“變壞” 我們?cè)缬蟹纻淞?/strong>

AI狂飆后,引發(fā)的倫理與法治危機(jī)自然成為焦點(diǎn)。實(shí)際上,對(duì)于AI倫理的“管束”,我們已經(jīng)在路上了。

日前,科技部公開(kāi)征求對(duì)《科技倫理審查辦法(試行)》(以下簡(jiǎn)稱《辦法》)的意見(jiàn),其中明確提出,從事人工智能的單位,研究?jī)?nèi)容涉及科技倫理敏感領(lǐng)域的,應(yīng)設(shè)立科技倫理(審查)委員會(huì),部分算法模型、自動(dòng)化決策系統(tǒng)需要專家復(fù)核。

科技部本次發(fā)布的《辦法》提出,從事生命科學(xué)、醫(yī)學(xué)、人工智能等科技活動(dòng)的單位,研究?jī)?nèi)容涉及科技倫理敏感領(lǐng)域的,應(yīng)設(shè)立科技倫理(審查)委員會(huì)。

此外,在《辦法》的附錄中還提到了“需要開(kāi)展專家復(fù)核的科技活動(dòng)清單”,其中包括:具有輿論社會(huì)動(dòng)員能力和社會(huì)意識(shí)引導(dǎo)能力的算法模型、應(yīng)用程序及系統(tǒng)的研發(fā);面向存在安全、人身健康風(fēng)險(xiǎn)等場(chǎng)景的具有高度自主能力的自動(dòng)化決策系統(tǒng)的研發(fā)。

事實(shí)上,在ChatGPT誕生之前,我國(guó)就已經(jīng)出臺(tái)與人工智能倫理的相關(guān)規(guī)范和標(biāo)準(zhǔn)。2021年9月25日,國(guó)家新一代人工智能治理專業(yè)委員會(huì)發(fā)布了《新一代人工智能倫理規(guī)范》,旨在將倫理融入人工智能全生命周期,為從事人工智能相關(guān)活動(dòng)的自然人、法人和其他相關(guān)機(jī)構(gòu)等提供倫理指引,促進(jìn)人工智能健康發(fā)展。

但是,無(wú)論AI如何狂飆,科技之花究竟是善是惡,似乎難逃人類內(nèi)心的道德倫理規(guī)范。正如法國(guó)哲學(xué)家笛卡爾曾言:“杰出的人才固然能夠做出最大的好事,也同樣可以做出最大的壞事;行動(dòng)十分緩慢的人只要始終循著正道前進(jìn),就可以比離開(kāi)正道飛奔的人走在前面很多?!?/p>

關(guān)鍵詞:
24小時(shí)熱點(diǎn) 精彩推薦
資訊新聞
?