剪辑:桃子 乔杨调教 小说
【新智元导读】通用机器东说念主模子,若何管束异构性难题?来自MIT、Meta FAIR团队全新提议异构预历练Transformer(HPT),无谓从新历练,即可破解。
通用机器东说念主模子,刻下最大的毁坏即是「异构性」。
也就是说,必须收罗全标的——每个机器东说念主、任务和环境的特定数据,而且学习后的政策还不行泛化到这些特定建立除外。
由此,AI大神何恺明带队的MIT、Meta FAIR团队,提议了异构预历练Transformer(HPT)模子。
即预历练一个大型、可分享的神经蚁集骨干,就能学习与任务和机器东说念主花样无关的分享表现。
浅陋讲,就是在你的政策模子中间甩掉一个可彭胀的Transformer,无谓从新动手历练!
扣问东说念主员将不同骨子视觉输入对皆到协调的token序列,再处理这些token以适度不同任务的机器东说念主。
临了发现,HPT优于多个基准模子,并在模拟器基准和真确全国环境中,将未见任务微调政策性能,栽种20%。
值得一提的是,这项扣问被NeurIPS 2024继承为Spotlight。
在真确环境中,HPT加抓下的机器东说念主骨子,粗野自主向柴犬投食。
而且, 即即是洒了一地狗粮,机器东说念主也能用抹布,将其收到一皆。
而在模拟环境中,HPT架构让机器东说念主任务操作,愈加精确。
接下来,一皆深度了解下异构预历练Transformer(HPT)模子的中枢身分吧。
搭建「异构性」桥梁
如今,构建特定的机器东说念主政策很贫寒,其中最大的难题就是数据收罗和穷乏泛化性。
不同硬件的机器东说念主在物理上具有不同的骨子(embodiment),每种实例不错有不同的「骨子嗅觉」(proprioception),包括不同的解放度、终端扩充器、通顺适度器和为特定应用构建的责任空间成就。
此外,另一种常见的异构性就是视觉异构性。
不同机器东说念主搭载了不同的视觉传感器,而且相通配备在不同位置(比如手腕/第三视角);每个机器东说念主的外不雅也会因环境和任务而有很大互异。
恰是由于这些难以朝上的异构性毁坏,因此相通需要收罗每个机器东说念主、任务和环境的特定数据,况兼学习到的政策不行泛化到这些特定建立除外。
固然机器东说念主规模照旧麇集了海量的开源数据,但异构性让数据集很难被共同业使。
从图4中就不错看出,只是是按环境分类,机器东说念主规模的数据就能被「中分」为良友遥控、模拟、萧瑟、东说念主类视频等接近4等份。
机器东说念主规模数据集的异质性
近些年来NLP和CV规模的突飞大进,让咱们看到了澈底窜改机器学习规模的一个历史经历:对大范畴、高质料和各种化数据进行预历练,不错带来相通优于特定模子的通用模子。
话至此处,现在机器东说念主规模的一个中心问题浮出水面:若何行使异构数据来预历练机器东说念主基础模子?
除了更多半据带来的公正除外,不同任务的历练还不错增强表现(representation)的通用性。
这类基础模子将会在各种任务上罢了高奏遵循、对极端值愈加慎重,况兼粗野纯真地稳当新任务。
那么,到底应该若何充分行使异构化的数据集?
如图1所示,一个基本的想路是,将来自不同规模和任务的输入信号映射到高维表现空间,并让它们推崇出一致的缩放行径。
之后,只需要最少的微调,就不错将得到的高维表现迁徙到特定的下流任务,同期获取精粹的性能。
HPT见地表现图
HPT所要作念的,就是找到一种分享的政策「言语」,粗野对皆来自不同预历练的异质的骨子嗅觉和视觉信息,将我方的信号映射到分享的潜在空间。
HPT模子架构
HPT全称为Heterogeneous Pre-trained Transformers,是一个架构系列,采用了模块化的想象想路,从异构骨子的数据中进行可彭胀学习。
受到多模态数据学习的启发,HPT使用了特定于骨子的分词器(stem)来对皆各种传感器输入,映射为固定数目的token,之后送入Transformer结构的分享骨干(trunk),将token映射为分享表现并进行预历练。
在对每种骨子的输入进行标志化(tokenize)之后,HPT就运行在一个包含潜在token短序列的分享空间上运行。
论文提到,这种档次结构的动机,亦然起头于东说念主类躯壳的脊髓神经回路层面中,特定通顺响应和感知刺激之间的反馈轮回。
预历练完成后调教 小说,使用特定于任务的动作解码器(head)来产生下流动作输出,但所用的实例和任务在预历练时期都是未知的。
预历练包含了特出50个单独的数据源,模子参数特出1B,模子的代码和权重都已公设备布。
HPT架构
stem结构
从上头的描摹来看,要管束异构性问题,最径直和最关节的就是若何历练stem,将来自异构的骨子和模态的传感器输入对皆到分享表现空间中。
如图3所示,stem包含两个主要部分,即骨子感受分词器和视觉分词器,将来自不同骨子的异构输入映射为固定维度、固定数目的token,让trunk粗野以相易的形势处理。
其中的关节想想,是行使cross-attention机制,让固定数目的可学习token矜恤到各种特征。
固然这篇论文主要处理骨子嗅觉和视觉,但处理触觉、3D和动作输入等其他类型的异构传感器信号也不错在stem中纯真彭胀。
HPT中的stem架构
按照时刻章程单寂然理每个模态后,将扫数token拼接在一皆并添加额外的模态镶嵌和正弦位置镶嵌,就得到了trunk的输入序列。
为了幸免过拟合,stem被想象为仅有极少参数,只包含一个MLP和一个防御力层。
trunk结构
行为预历练的中枢组件,trunk是一个有潜在d维空间的Transormer结构,参数目固定,在不同的骨子和任务之间分享,以拿获复杂的输入-输出相关。
预历练
给定从不同划分中采样的异构骨子的数据集_1,…,_k,…,_K ,令_k={τ^(i)}_{1≤i≤M_k} 表现_k中一组轨迹M_k,τ^(i)={o_t^(i), a_t^(i)}_{1≤t≤T}表现第i个最大长度为T的轨迹,每个元组包含observation变量和action变量。
历练缱绻如公式(1)所示,需要最小化数据纠合的以下失掉:
其中ℒ是行径克隆失掉,计较为推断恶果和真确标签之间的Huber 失掉。
该历练经过有两个数据缩放轴:单个数据集D_k的体量M_k,以及数据集总额K。
在预历练阶段,每次迭代时仅更新trunk部分参数,况兼基于历练批次采样更新特定于每个异构骨子和任务的stem和head部分。
论文进行了一系列预历练实验,包括不同范畴的蚁集参数和数据集大小,旨在陈说一个问题:HPT预历练在跨域异构数据中是否展现出了彭胀才调?
总体而言,某种进度上,HPT跟着数据集数目、数据各种性、模子体量和历练计较量呈现出缩放行径。
HPT蚁集正式信息,宽度表述turnk transformer的潜在维度,深度表现block数目,默许建立为HPT-Small型号
预历练数据集正式信息,默许使用来自RT-X的27个数据集的16k个轨迹进行历练
数据缩放
数据方面,如图5所示,即使在异构进度闲适增大的骨子中也具有踏实且可彭胀的考据失掉。
此外,作家还发现,计较量(额外于每次历练运行看到的样本量)和数据量需要共同彭胀,才能在历练经过中更接近拘谨。
epoch缩放
如图6所示,增多批大小(左)额外于灵验地彭胀历练token数(右),相通不错提高模子性能,直至临了拘谨。
另一个不雅察恶果是,使用划分式方法,在每个历练批中团聚尽可能更多的数据集,用更大的批大小来弥补异构历练中的较大方差。
模子缩放
如图7所示,固定数据集和轨迹数目,沿着模子大小(从1M到1B)进行缩放,并闲适将批大小从256增多到 2048(模子大小每增多一倍),并使器具有170k轨迹的更大数据集。
不错不雅察到,当咱们彭胀到具有更大计较量(红线)的更大模子时,预历练不错罢了较低的考据失掉,直到达到踏实水平,但莫得发现缩放模子深度和模子宽度之间存在权贵互异。
图8中的实验恶果标明,HPT不错额外灵验地处理异构数据。尽管与真确机器东说念主存在很大的差距,但对其他骨子的数据集(举例模拟环境和东说念主类视频数据集)进行预历练是可能的。
迁徙学习
如上,作家使用了临了一次迭代中考据集上的失掉来评估预历练。
接下来,他们将通过实验,去考据机器东说念主在迁徙学习中,任务奏遵循的问题:
预历练的HPT模子,是否不错迁徙到模拟和现实全国中的全新骨子、任务、以及环境中?
模拟环境
如下图10(a)中,扣问东说念主员在闭环模拟中测试了下流任务的模子,并不雅察到使用HPT-B到HPTXL预历练模子,提到的任务奏遵循。
在图10(b)中,他们在最近发布的Simpler基准上运行HPT,它允许在高保真模拟上与Octo、RT1-X、RT2-X进行比较。
在Google EDR机器东说念主中,扣问东说念主员重心矜恤三个不同的任务「关闭抽屉」、「选可乐罐」。
关于每个任务,他们测试了几种不同的开动化,扫数任务所有有300+ episode。
现实全国
这里,作家采用了与前一节访佛的迁徙学习方法,并在真确全国的评估左券下,评估预历练的HPT表现。
他们以256批大小和
历练率历练政策20000次迭代。
图12浮现的定量恶果,扣问东说念主员不雅察到,预历练政策比拟No-Trunk和From-Scratch基准获取了更好的奏遵循。
额外是在倒水的任务中,From-Scratch基准使用了源流进的扩散政策架构,以展示预历练表现的纯真性。
色域色吧图11定性恶果浮现,作家不雅察到预历练的HPT在濒临不同姿势、物体数目、相机成就、光照条款时,推崇出更好的泛化才协调鲁棒性。
在表3中,作家对Sweep Leftover任务进行了消融扣问。
尽管最近数据范畴激增,但由于异构性的存在,机器东说念主学习的通用性仍然受到收尾。
扣问东说念主员提议的HPT——一种模块化架构和框架,通过预历练来应酬这种异构性。
他但愿这一不雅点粗野启发改日的责任,以处理机器东说念主数据的异构性实践,从而为机器东说念主基础模子铺平说念路。
作家先容
Lirui Wang
Lirui Wang是MIT CSAIL的博士生,导师是Russ Tedrake解释。
在此之前,他曾在华盛顿大学获取学士和硕士学位,导师是Dieter Fox解释。
他的扣问兴味在于机器学习和机器东说念主学。尤其是,他对设备粗野在复杂和非结构化的真确全国环境中,泛化的算法和系统感兴味。
为了罢了这一丝,他一直奋勉于扣问粗野跟着异类数据进行彭胀的「舰队学习」(fleet learning)。
Xinlei Chen
Xinlei Chen是旧金山Meta Fair实验室的扣问科学家。刻下的扣问兴味是预历练,额外是自监督、多模态视觉表征的预历练。
他曾在CMU言语时候扣问所获取博士学位,就读时期也在机器东说念主扣问所责任。此前,他获取了浙大的学士学位。
Jialiang Zhao
Jialiang Zhao刻下是 MIT CSAIL感知科学小组的博士生,导师是Edward H. Adelson解释,并与Russ Tedrake 、何恺明协调。
Kaiming He
何恺明刻下是麻省理工学院电子工程与计较机科学系副解释。
他提议的最为知名的扣问是深度残差蚁集(ResNets),并被日常应用到当代深度学习模子当中,比如Transformer(GPT、ChatGPT)、AlphaGo Zero、AlphaFold、扩散模子等。
在加入MIT之前,何恺明于2016年至2024年担任Facebook AI Research的扣问科学家,并于2011年-2016年担任微软亚洲扣问院(MSRA)的扣问员。
他曾在2011年在香港汉文大学获取博士学位调教 小说,并于2007年在清华大学获取学士学位。