2457亿,全球最大巨量模型“源”发布:怎么用,挑战在哪儿?( 二 )


对于巨量模型低功耗落地的问题,浪潮信息副总裁刘军回应称,人工智能巨量模型在发展过程中,势必会经历“把一本书读厚,再把一本书读薄”的过程 。浪潮人工智能研究院正在基于对巨量模型规律的了解和掌握,用一些科学和技术方法在保证模型效果的情况下,降低参数,进而降低使用功耗和在产业落地的门槛 。“至于能不能降到像大家非常关心的在手机上用,我们今天不能保证,但是至少会朝着这个方向去做 。”刘军说 。
从技术上来说,专家们也表达了对巨量模型的可解释性和表现稳定性上的期待,原因在于,在实际落地的过程中,巨量模型即使有90%的可靠性,另外10%的风险也会给实际应用带来业务上的挑战 。
当然,源1.0模型的成功也让学界和产业界都看到了巨量模型背后的奇妙之处 。“为什么在学习了海量数据集之后,计算机可以自己解释海量问题?它背后的计算肌理是否发生了变化?”这些问题都要留待更深入的研究 。
【2457亿,全球最大巨量模型“源”发布:怎么用,挑战在哪儿?】“浪潮今天已经把这个模型训练出来了,证明了效果,下一步会开放出来,让学术界和产业界大家都去用 。这样使得我们在这方面的巨量人财物的投入能够成为学术界和产业界前进助推剂 。”刘军总结 。他相信,在学界和产业界的深入合作中,领先的智能模型、以及杀手级应用一定能够成为推进社会智能化的一部分 。(本文首发钛媒体App,作者 | 秦聪慧)