亚洲视频二区_亚洲欧洲日本天天堂在线观看_日韩一区二区在线观看_中文字幕不卡一区

公告:魔扣目錄網(wǎng)為廣大站長(zhǎng)提供免費(fèi)收錄網(wǎng)站服務(wù),提交前請(qǐng)做好本站友鏈:【 網(wǎng)站目錄:http://www.430618.com 】, 免友鏈快審服務(wù)(50元/站),

點(diǎn)擊這里在線咨詢客服
新站提交
  • 網(wǎng)站:51998
  • 待審:31
  • 小程序:12
  • 文章:1030137
  • 會(huì)員:747

來源:IT之家

想打乒乓球,可以找機(jī)器人陪練了。

讓一位乒乓球愛好者和機(jī)器人對(duì)打,按照機(jī)器人的發(fā)展趨勢(shì)來看,誰輸誰贏還真說不準(zhǔn)。

機(jī)器人擁有靈巧的可操作性、腿部運(yùn)動(dòng)靈活、抓握能力出色 …… 已被廣泛應(yīng)用于各種挑戰(zhàn)任務(wù)。但在與人類互動(dòng)緊密的任務(wù)中,機(jī)器人的表現(xiàn)又如何呢?就拿乒乓球來說,這需要雙方高度配合,并且球的運(yùn)動(dòng)非常快速,這對(duì)算法提出了重大挑戰(zhàn)。

在乒乓球比賽中,首要的就是速度和精度,這對(duì)學(xué)習(xí)算法提出了很高的要求。同時(shí),這項(xiàng)運(yùn)動(dòng)具有高度結(jié)構(gòu)化(具有固定的、可預(yù)測(cè)的環(huán)境)和多智能體協(xié)作(機(jī)器人可以與人類或其他機(jī)器人一起對(duì)打)兩大特點(diǎn),使其成為研究人機(jī)交互和強(qiáng)化學(xué)習(xí)問題的理想實(shí)驗(yàn)平臺(tái)。

來自谷歌的機(jī)器人研究團(tuán)隊(duì)已經(jīng)建立了這樣一個(gè)平臺(tái)來研究機(jī)器人在多人、動(dòng)態(tài)和交互環(huán)境中學(xué)習(xí)所面臨的問題。谷歌為此還專門寫了一篇博客,來介紹他們一直在研究的兩個(gè)項(xiàng)目 Iterative-Sim2Real(i-S2R) 和 GoalsEye。i-S2R 讓機(jī)器人能夠與人類玩家進(jìn)行超過 300 次的對(duì)打,而 GoalsEye 則使機(jī)器人能夠從業(yè)余愛好者那里學(xué)習(xí)到一些有用的策略(目標(biāo)條件策略)。

i-S2R 策略讓機(jī)器人和人類對(duì)打,雖然機(jī)器人的握拍姿勢(shì)看起來不太專業(yè),但也不會(huì)漏掉一個(gè)球:

你來我往,還挺像那么回事,妥妥打出了高質(zhì)量球的感覺。

而 GoalsEye 策略則能將球返回到桌面指定位置,就和指哪打哪差不多:

i-S2R:利用模擬器與人類合作進(jìn)行游戲

在這個(gè)項(xiàng)目中,機(jī)器人旨在學(xué)會(huì)與人類合作,即盡可能長(zhǎng)時(shí)間地與人類進(jìn)行對(duì)打。由于直接針對(duì)人類玩家進(jìn)行訓(xùn)練既乏味又耗時(shí),因此谷歌采用了基于模擬的方法。然而,這又面臨一個(gè)新的問題,基于模擬的方法很難準(zhǔn)確地模擬人類行為、閉環(huán)交互任務(wù)等。

在 i-S2R 中,谷歌提出了一種在人機(jī)交互任務(wù)中可以學(xué)習(xí)人類行為的模型,并在機(jī)器人乒乓球平臺(tái)上對(duì)其進(jìn)行實(shí)例化。谷歌已經(jīng)建立了一個(gè)系統(tǒng),該系統(tǒng)可以與業(yè)余人類玩家一起實(shí)現(xiàn)高達(dá) 340 次擊球?qū)Υ颍ㄈ缦滤荆?/p>

人與機(jī)器人對(duì)打 4 分鐘,來回多達(dá) 340 次

學(xué)習(xí)人類行為模型

讓機(jī)器人準(zhǔn)確的學(xué)習(xí)人類行為還面臨以下問題:如果一開始就沒有足夠好的機(jī)器人策略,就無法收集關(guān)于人類如何與機(jī)器人交互的高質(zhì)量數(shù)據(jù)。但是如果沒有人類行為模型,從一開始就無法獲得機(jī)器人策略,這個(gè)問題有點(diǎn)繞,就像先有雞還是先有蛋的問題。一種方法是直接在現(xiàn)實(shí)世界中訓(xùn)練機(jī)器人策略,但這通常很慢,成本高昂,并且會(huì)帶來與安全相關(guān)的挑戰(zhàn),當(dāng)人參與其中時(shí),這些挑戰(zhàn)會(huì)進(jìn)一步加劇。

如下圖所示,i-S2R 使用一個(gè)簡(jiǎn)單的人類行為模型作為近似起點(diǎn),并在模擬訓(xùn)練和現(xiàn)實(shí)世界部署之間交替進(jìn)行。每次迭代中,人類行為模型和策略都會(huì)被調(diào)整。

i-S2R 方法

谷歌根據(jù)玩家類型對(duì)實(shí)驗(yàn)結(jié)果進(jìn)行了細(xì)分:初學(xué)者(占 40% 的玩家)、中級(jí)(占 40% 的玩家)和高級(jí)(占 20% 的玩家)。由實(shí)驗(yàn)結(jié)果可得,對(duì)于初學(xué)者和中級(jí)玩家(占 80% 的玩家),i-S2R 的表現(xiàn)都明顯優(yōu)于 S2R+FT(sim-to-real plus fine-tuning)。

按玩家類型劃分的 i-S2R 結(jié)果。

GoalsEye:可精確擊中指定位置

在 GoalsEye 中,谷歌還展示了一種方法,該方法結(jié)合了行為克隆技術(shù)(behavior cloning techniques)來學(xué)習(xí)精確的目標(biāo)定位策略。

這里谷歌重點(diǎn)關(guān)注乒乓球的精度,他們希望機(jī)器人可以將小球精確返回到球臺(tái)上的任意指定位置,就如下圖所展示的指哪打哪。為實(shí)現(xiàn)如下效果,他們還采用了 LFP(Learning from Play)、GCSL(Goal-Conditioned Supervised Learning)。

GoalsEye 策略瞄準(zhǔn)直徑為 20cm 的圓圈(左)。人類玩家可以瞄準(zhǔn)同樣的目標(biāo)(右)。

在最初的 2480 次演示中,谷歌的訓(xùn)練策略僅在 9% 的時(shí)間內(nèi)準(zhǔn)確地?fù)糁邪霃綖?30 厘米的圓形目標(biāo)。在經(jīng)過了大約 13500 次演示后,小球達(dá)到目標(biāo)的準(zhǔn)確率上升到 43%(右下圖)。

分享到:
標(biāo)簽:機(jī)器人 人類 策略 對(duì)打 玩家 乒乓球 學(xué)習(xí) 交互
用戶無頭像

網(wǎng)友整理

注冊(cè)時(shí)間:

網(wǎng)站:5 個(gè)   小程序:0 個(gè)  文章:12 篇

  • 51998

    網(wǎng)站

  • 12

    小程序

  • 1030137

    文章

  • 747

    會(huì)員

趕快注冊(cè)賬號(hào),推廣您的網(wǎng)站吧!
最新入駐小程序

數(shù)獨(dú)大挑戰(zhàn)2018-06-03

數(shù)獨(dú)一種數(shù)學(xué)游戲,玩家需要根據(jù)9

答題星2018-06-03

您可以通過答題星輕松地創(chuàng)建試卷

全階人生考試2018-06-03

各種考試題,題庫,初中,高中,大學(xué)四六

運(yùn)動(dòng)步數(shù)有氧達(dá)人2018-06-03

記錄運(yùn)動(dòng)步數(shù),積累氧氣值。還可偷

每日養(yǎng)生app2018-06-03

每日養(yǎng)生,天天健康

體育訓(xùn)練成績(jī)?cè)u(píng)定2018-06-03

通用課目體育訓(xùn)練成績(jī)?cè)u(píng)定