亚洲精品无码AⅤ片青青在线观看_国产在线播放不卡一区二区三区_无码中文字幕视频一区二区三区_久久夜色精品亚洲av三区_国产综合欧美无毒不卡怡红院

?
投資 干貨 消費(fèi) 評論 學(xué)院 滾動(dòng)
風(fēng)投 科技 創(chuàng)業(yè) 業(yè)內(nèi) 要聞
換臉已經(jīng)不靈了?這些個(gè)反AI技術(shù)有點(diǎn)兒東西
發(fā)布日期: 2023-08-07 14:19:13 來源: 騰訊網(wǎng)

不知道大伙兒還記不記得,幾個(gè)月前有個(gè)老板 10 分鐘被騙走 430 萬的 AI 詐騙事件?


(資料圖片僅供參考)

因?yàn)楸辉p騙的金額過于大,當(dāng)時(shí)還引起了不小的轟動(dòng)。

而在那之后,什么 9 秒被騙 245 萬, 7 秒視頻通話被騙 30 萬,類似的 AI 詐騙事件是接二連三。

更可怕的是,利用 AI 換臉、 AI 換聲,還衍生出了一條灰色產(chǎn)業(yè)鏈。

今年 3 月,一名女生在地鐵被偷拍后又被人換成全裸的照片,一度沖上了熱搜。

而像這種一鍵換臉,或者一鍵脫衣的違法行為在外網(wǎng)上可謂猖獗,有些人就是靠著販賣 AI 換臉軟件,或是幫助別人把臉換到色情視頻里,以此來賺錢。

雖說,咱們現(xiàn)在都知道有 AI 換臉這回事兒,但這東西它防不勝防,即使臉和聲音都對得上,也不一定是本人。

這才是 AI 的可怕之處。

現(xiàn)在是有一些用于檢測內(nèi)容是否由 AI 生成的工具,但檢測的準(zhǔn)確性, emm 多少還是有點(diǎn)一言難盡。

前不久, OpenAI 還下線了自家的 AI 檢測工具,理由就是錯(cuò)誤率太高了。。。

所以要阻止技術(shù)濫用的問題,光靠檢測是不夠的,還得從根源上找法子。

最近,國外的創(chuàng)意內(nèi)容平臺(tái) Shutterstock 宣稱,要用一種叫做 C2PA 的協(xié)議,給自家平臺(tái)上的 AI 生成內(nèi)容打上標(biāo)簽,用來區(qū)分人類創(chuàng)作。

C2PA 協(xié)議,倒也不是啥新技術(shù)。

兩年前, Adobe 、微軟、 BBC 等幾家科技公司和媒體一起合作,成立了一個(gè)內(nèi)容來源和真實(shí)性聯(lián)盟 ( C2PA ) 。

成立的初衷呢也簡單,當(dāng)時(shí)受到 AI 等數(shù)字技術(shù)的影響,媒體發(fā)布內(nèi)容的可信度越來越低,于是這些個(gè)巨頭就想通過建立 C2PA 協(xié)議,打擊網(wǎng)絡(luò)上的一些虛假信息。

具體來看,這個(gè) C2PA 協(xié)議是一種類似區(qū)塊鏈的加密技術(shù)。

就比如說,一張圖像里包含了數(shù)百萬的像素, C2PA 通過數(shù)據(jù)加密技術(shù)給每個(gè)像素的來源信息進(jìn)行編碼,它最大的特點(diǎn)就是可以溯源

簡單來理解,有了 C2PA 協(xié)議之后,內(nèi)容是誰創(chuàng)作的,歷史的修改記錄,這些都會(huì)被記錄下來。

就相當(dāng)于給你的圖像、視頻打上了一層看不見的水?。?文本目前暫時(shí)還不適用 )。

這個(gè)協(xié)議雖說不能防止 AI 作惡,但有了水印之后,至少能反向解決 AI 檢測工具準(zhǔn)確率不高的問題。

當(dāng)你看到某段視頻的時(shí)候,到底是 AI 生成,還是人類創(chuàng)作的,一目了然。

C2PA 協(xié)議推出之后,已經(jīng)有部分企業(yè)將其集成到了自家的產(chǎn)品當(dāng)中。

像微軟,就已經(jīng)在自家的 Bing Image Creator 和 Microsoft Designer 里裝上了 C2PA 協(xié)議,AI 生成的圖像都會(huì)被標(biāo)記,并且還會(huì)披露出元數(shù)據(jù)的來源。

當(dāng)然了,這種加密方法也存在一定的 bug ,那就是需要有足夠多的內(nèi)容創(chuàng)作者和平臺(tái)使用這協(xié)議,不然也是白搭。

如果想要給平時(shí)拍的每一張照片都打上水印,這就需要把協(xié)議集成到手機(jī)相機(jī)里,又或者,你在 PS 上設(shè)計(jì)的圖片,也需要平臺(tái)集成了這個(gè)協(xié)議才行。

也就是說,C2PA 協(xié)議要生效,需要完整的使用鏈條。

可惜的是,目前在協(xié)議上,整個(gè)互聯(lián)網(wǎng)還沒形成統(tǒng)一的共識(shí)。

不過最近,來自 MIT 的大佬們,又推出了另外一個(gè)叫做?PhotoGuard的工具。

這跟上邊兒的協(xié)議還不太一樣,如果說 C2PA 只是留下水印,那么 PhotoGuard 的方式就更簡單粗暴了,直接切斷了 AI 生成內(nèi)容的生路。

原理很簡單,就是利用 PhotoGuard 在原始照片中引入一種干擾的噪聲得到免疫圖片( immunize images ),但同時(shí)這種噪聲又很難被察覺出來。

當(dāng)有人想用圖片進(jìn)行 AI 惡搞時(shí),就會(huì)得到一堆馬賽克、或者扭曲的照片。

就比如論文中,原始照片是兩個(gè)男人在看打網(wǎng)球,如果沒有加防護(hù),那么就會(huì)被隨意更改,比如這樣。

但 PhotoGuard 可以生成一模一樣的免疫照片出來。

如果再有人想用 AI 來惡搞,就會(huì)得到一張這樣的照片。

一個(gè)是打水印,一個(gè)是直接把路封死,要真的跟 AI 詐騙打起來,還不是嘎嘎亂殺?

但問題也出在這,技術(shù)有,但是還沒能大規(guī)模用起來。

即使有微軟、 Adobe 、 Arm 這些巨頭撐腰, C2PA 協(xié)議的大面積鋪開也還需要些時(shí)日,更別提剛出來的 PhotoGuard 了。

不過好在,事情還是朝著樂觀的方向在發(fā)展。

包括上邊兒提到微軟的兩個(gè)工具,還有 Shutterstock 平臺(tái),今年陸陸續(xù)續(xù)都開始用起來了。

照著這勢頭, C2PA 在不久的將來或許大有可為。

況且, C2PA 協(xié)議一直都是開源的,這就方便了很多人把協(xié)議集成到應(yīng)用當(dāng)中。

畢竟, AI 詐騙、灰產(chǎn)肆意橫行的同時(shí),也在反推大家思考如何加快反 AI 詐騙的步伐。

同時(shí)呢,像 C2PA 這種打水印的方式,也給 AI 生成內(nèi)容的版權(quán)問題,提供一個(gè)解決思路。

對于 AI 生成的內(nèi)容,大家爭論的關(guān)鍵點(diǎn)就是不希望自己的作品獻(xiàn)祭給 AI 。

那倘若生成的結(jié)果顯示數(shù)據(jù)來源了,作品收入也會(huì)根據(jù)來源來分成,那是不是也可以算作一種新的商業(yè)模式?

當(dāng)然了,這也只是一種假設(shè)。

回到反 AI 詐騙本身,技術(shù)的進(jìn)步固然重要,如果相關(guān)法規(guī)能適時(shí)再添一把火,相信也能好好治一治 AI 帶來的這股不良風(fēng)氣。

不管怎么說吧,在規(guī)范形成之前,咱還是多留個(gè)心眼,以后可能眼見也不一定為實(shí)咯。

關(guān)鍵詞:
24小時(shí)熱點(diǎn) 精彩推薦
資訊新聞
?