亚洲精品无码AⅤ片青青在线观看_国产在线播放不卡一区二区三区_无码中文字幕视频一区二区三区_久久夜色精品亚洲av三区_国产综合欧美无毒不卡怡红院

?
投資 干貨 消費 評論 學(xué)院 滾動
風(fēng)投 科技 創(chuàng)業(yè) 業(yè)內(nèi) 要聞
為機器人生成非語言社交行為的深度學(xué)習(xí)模型 每日動態(tài)
發(fā)布日期: 2022-11-25 10:13:23 來源: 萬能網(wǎng)


(資料圖片)

韓國電子和電信研究所(ETRI)的研究人員最近開發(fā)了一種基于深度學(xué)習(xí)的模型,可以幫助機器人產(chǎn)生引人入勝的非語言社交行為,例如擁抱或握手。他們的模型在arXiv上預(yù)發(fā)表的一篇論文中提出,可以通過觀察人類之間的互動,積極學(xué)習(xí)新的適合情境的社會行為。

“深度學(xué)習(xí)技術(shù)在計算機視覺和自然語言理解等領(lǐng)域產(chǎn)生了有趣的結(jié)果,”進(jìn)行這項研究的研究人員之一Woo-RiKo告訴TechXplore?!拔覀冎謱⑸疃葘W(xué)習(xí)應(yīng)用于社交機器人,特別是通過讓機器人自己從人與人的互動中學(xué)習(xí)社交行為。我們的方法不需要人類行為模型的先驗知識,而人類行為模型的實施通常既昂貴又耗時”

Ko及其同事開發(fā)的基于人工神經(jīng)網(wǎng)絡(luò)(ANN)的架構(gòu)將谷歌研究人員在2014年推出的Seq2Seq(序列到序列)模型與生成對抗網(wǎng)絡(luò)(GAN)相結(jié)合。新架構(gòu)在AIR-Act2Act數(shù)據(jù)集上進(jìn)行了訓(xùn)練,該數(shù)據(jù)集包含10種不同場景中發(fā)生的5,000次人機交互。

“擬議的神經(jīng)網(wǎng)絡(luò)架構(gòu)由編碼器、解碼器和鑒別器組成,”Ko解釋道。“編碼器對當(dāng)前用戶行為進(jìn)行編碼,解碼器根據(jù)當(dāng)前用戶和機器人行為生成下一個機器人行為,鑒別器防止解碼器在生成長期行為時輸出無效的姿勢序列?!?/p>

AIR-Act2Act數(shù)據(jù)集中包含的5,000次交互用于提取超過110,000個訓(xùn)練樣本(即短視頻),其中人類在與他人互動時執(zhí)行特定的非語言社交行為。研究人員專門訓(xùn)練他們的模型,為機器人生成五種非語言行為,即鞠躬、凝視、握手、擁抱和擋住自己的臉。

Ko和他的同事在一系列模擬中評估了他們的非語言社交行為生成模型,特別是將其應(yīng)用于Pepper的模擬版本,Pepper是一種在研究環(huán)境中廣泛使用的人形機器人。他們的初步發(fā)現(xiàn)很有希望,因為他們的模型在與人類的模擬交互過程中,在適當(dāng)?shù)臅r間成功地生成了五種行為。

“我們證明了可以使用深度學(xué)習(xí)方法教機器人不同類型的社交行為,”Ko說?!拔覀兊哪P瓦€可以產(chǎn)生更自然的行為,而不是在現(xiàn)有的基于規(guī)則的方法中重復(fù)預(yù)定義的行為。隨著機器人產(chǎn)生這些社交行為,用戶會覺得他們的行為得到了理解和情感上的照顧?!?/p>

由這組研究人員創(chuàng)建的新模型可以幫助社交機器人更具適應(yīng)性和社會響應(yīng)能力,進(jìn)而可以提高它們與人類用戶互動的整體質(zhì)量和流程。未來,它可以在廣泛的機器人系統(tǒng)上實施和測試,包括家庭服務(wù)機器人、引導(dǎo)機器人、送貨機器人、教育機器人和遠(yuǎn)程呈現(xiàn)機器人。

“我們現(xiàn)在打算進(jìn)行進(jìn)一步的實驗,以測試機器人在部署在現(xiàn)實世界中并面對人類時表現(xiàn)出適當(dāng)社交行為的能力;將測試所提議的行為生成器對機器人可能獲得的嘈雜輸入數(shù)據(jù)的穩(wěn)健性”柯補充道。“此外,通過收集和學(xué)習(xí)更多交互數(shù)據(jù),我們計劃擴(kuò)展機器人可以展示的社交行為和復(fù)雜動作的數(shù)量?!?/p>

更多信息:Woo-RiKo等人,使用端到端

關(guān)鍵詞: 研究人員 當(dāng)前用戶
24小時熱點 精彩推薦
資訊新聞
?