在近日召开的2023北京智源大会上,智源研究院正式发布了全面开源的“悟道3.0”系列大模型及算法。
成立于2018年的智源研究院,是一家非营利研究机构,旨在推动人工智能领域发展政策、学术思想、理论基础、顶尖人才与产业生态的创新。2020年10月,智源研究院启动了大模型的研发工作,2021年3月发布的悟道1.0,更是当时中国首个以及世界最大的大模型。
智源研究院院长黄铁军表示,他们在发布悟道1.0时,就已经预见人工智能将从“大炼模型”转变为“炼大模型”的新阶段。他认为,大模型需要具备三个条件:一是规模要大,参数达百亿规模以上;二是涌现性,能够产生预料之外的新能力;三是通用性,不限于专门问题或领域,能够处理多种不同的任务。
而此次发布的“悟道3.0”,涵盖语言、视觉、多模态等基础大模型。在目前最为火热的语言大模型方面,智源研究院发布了“悟道·天鹰Aquila”语言大模型,这是首个具备中英双语知识、支持商用许可协议、国内数据合规需求的开源语言大模型。
据了解,“悟道·天鹰”的开源包含一系列模型,包括Aquila基础模型、AquilaChat对话模型与AquilaCode生成模型。
在视觉大模型方面,智源研究院则发布了“悟道·视界”视觉大模型系列。黄铁军指出,“悟道·视界”包括了可以在多模态序列中补全所有内容的多模态大模型 Emu、十亿级的视觉基础模型EVA、首创上下文图像学习技术路径的通用视觉模型Painter等。这些模型系统性地解决了当前计算机视觉领域的一系列瓶颈问题,包括任务统一、模型规模化以及数据效率等。
要集中力量办大事
大会期间,黄铁军接受了21世纪经济报道等媒体的采访,并针对当前大模型发展的相关热点进行了回答。他直言,虽然百亿规模就会有涌现能力,但国内现在训练的大模型都还太小,在智能水平上还是有差距。“现在国内做大模型很热,却没有顶尖的,这也是一个问题,如果大家都是重复性发力,那只会让资源越来越发散,所以现在中国最应该做的,就是集中力量办大事”。
“真正的人工智能创新生态应该是大家各自发挥优势,在最擅长环节做到最强,然后把所有最强的环节连接在一起,形成一个生态,这才是我们应该努力的方向。”黄铁军强调。
从技术角度,黄铁军认为,现在大模型的“大”还远远没有达到天花板,“语言类大模型,可能还要3年的时间还能做到包罗万象,所以未来3年,模型规模肯定还会放大,能力还会更强。”
其也提到,目前之所以能涌现这么多大模型,是因为技术出现了变革,其中最重要的就是自监督或者无监督学习,这使得AI模型不用像以前一样——为了解决一个问题,就标注一类数据、训练一个模型、做一个产品。“模型变大,是因为有了更多原料可喂,而自监督学习的方法,让原料不再受限于成本、人力等因素。”
但是,虽然现在市场是百家争鸣,但黄铁军认为,未来的大模型生态只会有屈指可数的大模型,现在的几十上百个模型,都只是技术迭代的中间产品。
到那个时候,除了头部的几个大模型外,其他的企业则需要在生态里找到自己的位置,这个位置不一定是做大模型,只要能在生态形成后的某个环节做好,也能够盈利。“这就像互联网初期,都觉得‘卖铲子’最赚钱,但实际上卖路由器的就几家,大家都在互联网生态的其他领域得到了发展”。
不过,大模型的发展仍需要时间。所以现阶段对于创业者来说,用通用的基础模型加上专门领域的数据做出垂类模型,也未尝不可。但未来随着通用模型越来越强,变得像现在的互联网一样成为无处不在的服务时,那则将进入另外一个阶段,就像现在大多数都是互联网应用型企业一样,那时候“基础模型+专业”也会成为最典型的模式。
AI挑战与治理
对普通人来说,大模型也将带来两方面的影响。一方面是作为技术工具,它能替代原来很多只有人才能完成的任务,对企业来说,成本更低、速度更快、质量更好,对消费者来说,则会带来物美价廉,过去不是所有人都能享受的产品和服务,现在人人都可以享受,比如一些信息服务或者图像、视频等内容的生成。
所以,大模型可以推动经济社会发展,也能推动人们生活水平的提高。在黄铁军看来,未来至少10年甚至更长一段时间,都将是人与AI相互融合的时期。
而另一方面,大模型的发展也意味着很多人的工作会被替换掉。原来很稳定的工作,现在AI可以更低成本实现,那这些人员会面临比较大的冲击。
黄铁军表示,看一个行业是否会被AI影响,主要看智力要素在其中是否发挥关键作用,如果是,那就会受到影响。比如制造业,如果它已经实现了自动化,那影响就会比较小,但如果仍有很多人力在做重复性工作,AI的效率提升则会带来较大的影响。
黄铁军称,大模型有好的一面,也有冲击性的一面,但这就是人类社会发展的常态。“我们不能固定在一个时代,新的机会出现,重复性的、不愿意干的工作可以让AI去干,然后去找更能发挥人的能力的新事情去做。不过也需要注意的是,未来一二十年,会是人机结合的蜜月期,但随着AI的强大,我们也要开始重视AI可能带来的颠覆式挑战。”
最后谈及AI治理问题时,黄铁军认为,人工智能的伦理安全确实面临巨大的挑战。过去,核武器出现时,也带来巨大的挑战,但它的监管是可预测的,而AI的涌现能力是预料之外的,对于预料之外的东西怎么管,难度就非常大。
“但是从人的角度来看,人也是不可预测的,经常会灵机一动,闪现出很多新想法,甚至做出各种各样的行为。所以AI既然是智能系统,人也是智能系统,那原来人类社会的一些制度以及法律等,也可以尝试用到AI的管理上,在这方面有很多经验可以借鉴探索,看如何对一个无穷无尽的创造性系统进行管理。”黄铁军表示。