AI八问:人工智能技术的最新发展与未来前景
4.2 AI八问:人工智能技术的最新发展与未来前景
加入刘志毅「AI时代的科技新范式」
大家好,欢迎来到见闻大师课《AI时代的科技新范式》,我是刘志毅。
问题1:AI大规模商用之后,AI产生的图片也进入了市场的数据库中,是不是会反过来影响更新换代的进度?
刘志毅:现在learning的主要方式是预训练,预训练数据集是已经用原始数据集做好的,所以这个演化过程是存在的,如果市场80%都是AI生产内容,自己生产自己吃,这涉及到怎么理解人工智能的涌现。基础理论是复杂适应系统的涌现,参数越多,说明系统越复杂,数据类比越多,使得复杂环境下能够生成更多结构的智能,确实会存在这个问题。
如果不能带来新的参数变量,不能提供新的变化性,智能水平可能就停在这,这就是为什么在人机协同的时代,人类还要不断生产新内容、新思想,否则智能本身也不会再往前演化。所以Alpha-Zero产生后也没有再提升,因为围棋界也没有提出比Alpha-Zero更高级的思想。
问题2:一个新的生产力工具出现以后,对各行各业都会有很大提升,大概能提高到什么样的水平?
刘志毅:先说以往做到的水平,比如产业数字化,欧洲的学者做过一个论文,在过去十几年的训练当中看到整体对生产力水平的提升没有超过15%,这也是为什么很多公司或者政府对数字经济发展质疑的原因。
现在来看,在新的模式下,肯定是要超过15%。降本增效是决策式AI做的事情,生成式AI是生成新的产业模式和产业生态,这就不是简单提升效率的问题了。我个人持谨慎乐观的态度,认为它会指数型的提升整个产业的业态。假设3-5年内有成熟的基础设施,就好像移动运营商建好网络以后,会快速的再次提供原来不存在的产业或者比较少的产业规模。比如B2B可能原来是百亿规模的产业,能够期待它成为一个至少千亿规模的产业,重塑了整个行业,有一些增量,而不只是做优化,否则就对不起我们对它的定义。像比尔盖茨说的,是一个革命性的应用,这其实就是一个标志性的时间节点,再次进入一个可能长达至少30年的科技创新的周期当中了。
问题3:站在B端的角度来看,在垂直行业里面,大模型的推断能力是否没有那么重要?在选择大模型的时候应该从哪些维度判断?
刘志毅:第一,如果要涌现出足够有泛化能力的智能,规模是一切,没有规模、没有参数就做不出来,当然前提是泛化性足够强。
第二,我同意在垂直领域可能会走出一个技术路径,但前提是数据资源足够大。预训练的技术逻辑是一样的,数据集足够大,模型不用那么复杂的情况下,已经功能性可用了。只要不要求它泛化性足够强,就可以在某个领域成为专业人才,这个技术路径是可以去打通的。
第三,怎么去衡量模型本身的能力?我不认为只有推理能力,而且推理能力本身也是在多个数据集上进行跑通。从实践层面来看,就是神经网络的复杂度。可以去看它对数据集的适配能力,最后再在特定芯片上进行训练,看它对整个芯片显存等通信之间的成本到底怎么样,然后衡量。
问题4:美国对芯片有限制措施,会不会对人工智能产业的发展造成制约?国家的应对措施是什么?
刘志毅:两点。第一,实际情况肯定是有阻碍和挑战。但现在全球至少1/3的A100显卡都卖给了CN,即使被制裁企业上了名单,还是有足够多的办法能买到,只是提高了成本。
第二,有没有办法买的更多,现在有不同的方案,可能两个方向。第一个方向是去一些中立的国家建立数据中心,搞云端训练。第二个就是开发适配的特定芯片,不过部分数据集都能跑通了。
信息技术的特殊性,一是全球产业链,二是技术扩散的门槛不高,在这个情况下,即使落后也就是2-3年的时间,而且基础研究的创新本来就困难,对可用来说,乐观一点,3年以内国内都能到GPT 4的水平,已经足够去做出新的创新生态了。
问题5:您最看好的三个应用领域?
刘志毅:第一,生产力,比如阿里云做的跟办公软件相关的应用。第二,可能会看好数字内容相关的游戏公司,提供了沉浸式的游戏体验。第三是偏设计类的,不管是建筑设计、服装设计或者其他,能够规模化的进行设计相关的生产力迭代。
判断标准就是在垂类行业本来要消耗很多专业人力的前提下,快速进行规模化,而且是在这个产业本身也有门槛的情况下,就可以看好这个领域。
问题6:对于教育呢?
刘志毅:教育的挑战不仅是跟内容有关,也与教育制度关系紧密,再加上本身的生态,可能部分国内的好学校会做一些尝试,但现有的教育体系好像不太支持直接使用这样的技术方式去进行迭代。
问题7:从专业的角度来看,商汤的大模型水平如何?与大厂相比有无优势?未来商业化有何前景?
刘志毅:第一,从推理角度来说,商汤目前在国内属于第一梯队,但泛化性不够。第二,从多模态来说,应该是数一数二的,因为它一直做视觉。第三,商业化可能保守一点,在具体产业内,比如说电商、直播这些领域,我认为还是需要时间的,原因就在于这么久的时间内没有做好ToB领域的商业化,大部分是在跟政府在打交道。
问题8:AI发展过程中,伦理问题如何解决,AI是否能产生意识?
刘志毅:我自己是研究AI伦理方向的,从实践层面来说,反映了企业的基本诉求是风险控制,所以伦理工作都是围绕着如何进行风险控制,避免责任的无限扩大化。
第一是数据层面,数据伦理的关系就是在做模型训练的时候,需要做伦理甄别。比如算法用在招聘相关的工作当中,就需要把所有的招聘信息按男女比例一致,即使社会本身的现象是女性的比例少一点,也需要在算法当中去做调优。负责任的AI指的是有人为负责,而不是真的让AI自己去负责。
如果按照GPT这个路线去发展,继续堆参数,堆模型,涌现出更高级别智能这件事情是要打问号的。靠统计学习的方式,靠着模仿脑神经网络堆层这种方式的智能是有限度的。在这个情况下不太可能从中涌现出任何跟意识有关的东西。我们现在对人的意识的产生处于小学生水平,当你对一个事物不可知的时候,说要创造一个跟它一样水平的事物,是不太科学的。
最后一点是人工智能技术在本质上还是工具性的,很依赖其他学科的发展,要结合生命科学还有脑科学的突破,才有可能接近创造有意识的人工智能。而且在可预见的范围内,30-50年内,不太可能创造任何有意识的人工智能。因为在过去的3次人工智能浪潮中,所有核心研究成果都跟意识毫无关系,过去70年在这个方面都没有什么进展,如何能在短时间内出一个成果?结果上看起来有意识和有智能是两码事。
以上本期课程的主要内容,关于课程内容有什么问题或建议欢迎留言。我是刘志毅,我们下期再见。
- E N D -
— — 《AI时代的科技新范式》目录— —