谷歌教機器人如何通過環(huán)境交互識別物體

時間:2018-12-14

來源:網(wǎng)絡(luò)轉(zhuǎn)載

導語:幾個月前,總部位于舊金山的初創(chuàng)公司OpenAI展示了一種名為“密集對象網(wǎng)”(DenseObjectNets,簡稱DON)的計算機視覺系統(tǒng),該系統(tǒng)允許機器人檢查、視覺理解和操縱他們從未見過的對象。谷歌的研究人員解釋說,這是基于對自我監(jiān)督的認知發(fā)展研究。

幾個月前,總部位于舊金山的初創(chuàng)公司OpenAI展示了一種名為“密集對象網(wǎng)”(DenseObjectNets,簡稱DON)的計算機視覺系統(tǒng),該系統(tǒng)允許機器人檢查、視覺理解和操縱他們從未見過的對象。谷歌的研究人員解釋說,這是基于對自我監(jiān)督的認知發(fā)展研究。

人們通過與環(huán)境的互動來獲取關(guān)于世界的知識,隨著時間的推移,人們從他們所采取的行動的結(jié)果中學習。即使是抓住一個物體也能提供很多關(guān)于它的信息,例如,它必須在抓住之前的瞬間觸手可及。

Jang和Devin寫道,在機器人領(lǐng)域,這種學習方式得到了積極的研究,因為它使機器人系統(tǒng)能夠在不需要大量訓練數(shù)據(jù)或人工監(jiān)督的情況下學習。通過這種形式的自我監(jiān)督,機器人等可以通過場景中的視覺變化來識別物體。

該團隊與公司合作,教授了一種可以無意識地抓住物體的機械臂,并在訓練過程中學習各種物體的表現(xiàn)形式。這些表現(xiàn)最終導致研究者有意識地抓住研究人員選擇的工具。

機器人,谷歌,工業(yè)機器人

谷歌機器人

該團隊利用強化學習一種人工智能訓練技術(shù),該技術(shù)使用系統(tǒng)驅(qū)動實現(xiàn)特定目標,以手臂抓住目標,用相機檢查目標,并回答基本的目標識別問題(這些目標是否匹配)他們實現(xiàn)了一種感知系統(tǒng),通過分析一系列的三幅圖像,即抓取前的圖像、抓取后的圖像和被抓取對象的孤立視圖,提取出關(guān)于物體的有意義的信息。

在測試中,Grasp2Vec和研究人員的新策略取得了80%的成功率,甚至在多個對象匹配目標和由多個對象組成的情況下也有效?!?/p>

他們寫道,我們展示了機器人抓取技能如何生成用于學習以對象為中心的表示的數(shù)據(jù)。然后,我們可以使用表示學習來引導更復雜的技能,如實例抓取,同時保留我們的自主抓取系統(tǒng)的自監(jiān)督學習特性。展望未來,我們不僅為機器學習能夠通過更好的感知和控制給機器人帶來什么而感到興奮,也為機器人能夠在新的自我監(jiān)督范式下給機器學習帶來什么而興奮。

中傳動網(wǎng)版權(quán)與免責聲明:

凡本網(wǎng)注明[來源:中國傳動網(wǎng)]的所有文字、圖片、音視和視頻文件,版權(quán)均為中國傳動網(wǎng)(www.wangxinlc.cn)獨家所有。如需轉(zhuǎn)載請與0755-82949061聯(lián)系。任何媒體、網(wǎng)站或個人轉(zhuǎn)載使用時須注明來源“中國傳動網(wǎng)”,違反者本網(wǎng)將追究其法律責任。

本網(wǎng)轉(zhuǎn)載并注明其他來源的稿件,均來自互聯(lián)網(wǎng)或業(yè)內(nèi)投稿人士,版權(quán)屬于原版權(quán)人。轉(zhuǎn)載請保留稿件來源及作者,禁止擅自篡改,違者自負版權(quán)法律責任。

如涉及作品內(nèi)容、版權(quán)等問題,請在作品發(fā)表之日起一周內(nèi)與本網(wǎng)聯(lián)系,否則視為放棄相關(guān)權(quán)利。

關(guān)注伺服與運動控制公眾號獲取更多資訊

關(guān)注直驅(qū)與傳動公眾號獲取更多資訊

關(guān)注中國傳動網(wǎng)公眾號獲取更多資訊

最新新聞
查看更多資訊

娓娓工業(yè)

廣州金升陽科技有限公司

熱搜詞
  • 運動控制
  • 伺服系統(tǒng)
  • 機器視覺
  • 機械傳動
  • 編碼器
  • 直驅(qū)系統(tǒng)
  • 工業(yè)電源
  • 電力電子
  • 工業(yè)互聯(lián)
  • 高壓變頻器
  • 中低壓變頻器
  • 傳感器
  • 人機界面
  • PLC
  • 電氣聯(lián)接
  • 工業(yè)機器人
  • 低壓電器
  • 機柜
回頂部
點贊 0
取消 0