第212章 出人意料地大模型2(1/3)
很快就发现了问题的所在。自我演化程序基本没有变化,但是甲骨文识读的程序有一个地方发生了了很大的变化。
最初班行远设计的识读程序包含了一个具有100万个参数的模型,这个模型也是识读功能的核心所在。在最新的版本中这个模型的规模已经膨胀到让班行远咋舌的10亿个参数。
班行远把所有历史版本的代码调出来,发现这个识读程序的演化过程就是模型规模越来越大的过程。虽然也有不少规模变小的版本迭代,但是很快就又向着规模越来越大的方向发展。
稍一思考就明白了是怎么回事。模型的规模大的话,包含的资料就多,就更能生成准确率高的报告。演化程序其实不知道规模大好还是规模小好。在最开始的阶段把规模调大后程序根据小组的反馈判断出这样效率更高,于是就开始向模型规模越来越大的方向发展。
大到一定程度后程序判断单次报告的生成时间有较大增加,默认效率降低就自主降低模型的规模。模型变小后生成速度快了,但是准确率有了更大的下降,演化程序判断还是规模大的模型效率更高。于是又一次朝向大规模模型演化。就这样周而复始,在演化的过程中程序确认大模型更有效,于是模型的规模以指数的形式变大。
模型变大后对算力需求以更快的速度变大,只不过在最初的阶段并不明显。当模型的规模超过一定阈值的时候,报告的准确性也随着提高,哪怕是生成速度已经很慢了,演化程序仍然没有调小规模,因为综合效率仍然更高。
10亿参数规模的模型,班行远有些头疼。想了一下把两个人工智能项目组的人都叫了过来,他要把甲骨文人工识别的程序移植到蛋白质机构预测的计算中心上。
两个项目都用到了研究院设计的加速卡,只不过甲骨文这边的规模小得多,算力和蛋白质那边比的话根本不值一提。查了一下后台,没有三方单位使用算力,班行远立刻让项目组成员暂停了所有的计算任务,让他们把甲骨文识读程序切换到计算中心。
程序在计算中心运行后,班行远并没有让程序开始计算,而是把西方各种文字的字典和语言学资料喂给程序,程序很快就消化完毕。班行远暗赞,算力强大就是不一样。
随后
本章还未完,请点击下一页继续阅读>>>