DS200TCQAG1BHF
DS200TCQAG1BHF
DS200TCQAG1BHF
环境中寻找目标
16年,李飞飞组放出了一篇论文,基于深度强化学习,在以目标图像为输入的情况下,不建图去找东西。大致思路是:根据机器看到的图,决定怎么走,然后再看图,再决定新走的一步,直到找到东西。论文将目标图像作为输入,训练出来的神经网络具有通用性。
这种方式找东西更接近人的思维。训练出的控制器并没有记住物体的位置,更不知道房屋的结构。但它记住了在每一个位置,通向各个物体应该怎么走。
机器人抓取
传统的机器人学研究认为,需要非常清楚要抓取的物体的三维几何形状,分析受力位置和力的大小,再反向计算机器手如何一步步移动到这些位置。但这种方式抓取不规则形状和柔性物体会很困难。例如毛巾,可能需要看成一系列刚体的链接,再进行动力学建模分析,但是计算量比较大。而小黄鸭那样的橡胶,外部并不能看出弹性程度,难以计算出需要施加的正确的力。
PieterAbbeel、DeepMind和OpenAI关于机器人控制的研究,都以此深度强化学习为基础。基于强化学习进行机器人抓取,以机器视角看到的图像为输入,以机器终抓到物体为目标,不断对机器进行训练,从而在不建模和不做受力分析的情况下,实现对物体的抓取。PieterAbbeel已经展示过机器人叠毛巾,开瓶盖,装玩具等复杂的动作。
不过基于强化学习也仍有很多问题,如效率低、推理过程长、任务难以描述、不能终身学习、不能限度从真实世界获取信息等。其中一些通过meta学习,one-shot学习,迁移学习,VR示教等方法的引入得到了改善,有些则还暂时难以解决。
Bussmann 170M1571
Bussmann 170M3466
Bussmann 170M6546
Bussmann 170M6419
BUSSMANN 170M5258
Bussmann 170M5952/5953/5954/5955/5956/5957/5958
Bussmann 170M6421
BUSSMANN 170M6146/6147/6148/6150/6151
BUSSMANN 170M7062/7063/7102/7103/7122/7123
BUSSMANN 170M5566/5567/5568/5518/5467/5468
Bussmann 170M6494/6495/6496/6497/6498/6499/6500/6501
Bussmann 170M6418/6468/6469/6518/6519/6568/6569/6393
BUSSMANN 170M4145/4146/4147/4195/4196/4197
Bussmann 170M5195/5196/5197/5198/5199/5200
Bussmann 170M6188/6189/6190/6191/6192/6193/6194/6195
Bussmann 170M5018/5068/5167/5168/5217/5218
Bussmann 170M5241/5242/5243/5244/5245/5246/5247
BUSSMANN 170M3558/3559/3560/3561/3562/3563/3564/3565
BUSSMANN FWP-60B