专访|李大海:小屏幕玩转大模型,提升知识密度是努力方向
发布时间:2024年10月02日




面壁智能是国内最早从事大语言模型的团队之一,核心科研成员来自于清华大学NLP实验室。今年,面壁智能发布了首次具备实时视频理解能力的端侧模型,一旦植入手机、PC、AR、具身机器人、智能座舱等,日常物品也能“睁眼看世界”。这在全球技术圈引起了强烈的反响。


围绕知识密度定律,李大海分享他对大模型未来发展方向的理解,并介绍了面壁智能在大模型落地应用方面的实践。他期待国内大模型能够沿着知识密度优化的方向,走出异于国外的发展道路。





大模型遇上智能终端

交互方式更加多样


在今年6月苹果年度开发者大会上,苹果公司宣布了与OpenAI的合作,计划将其GPT-4o集成到iOS 18、iPadOS 18和macOS Sequoia中,为用户简化和加快日常任务流程。Apple Intelligence落地为有实际场景的具体功能,引起了广泛的讨论。面壁智能联合创始人、CEO李大海认为,端侧模型运行在终端硬件内存受限的苛刻条件下,连Apple Intelligence也未做到完美,发展更小参数、更高性能的模型,持续运行占用更少的算力资源、降低能耗和发热,将成为端侧模型的重点突破方向。


早在2023年,华为、小米、vivo和三星等主流手机厂商已纷纷入场端侧大模型,将大模型应用于移动设备、嵌入式系统以及其他资源受限的端侧设备上。


端侧模型是指经过训练能够在用户设备终端本地运行的人工智能模型;云端模型则是从终端采集和感知到的数据都通过网络传输到云中心侧进行后续处理。在李大海看来,基于端侧大模型的智能计算,新一代的AI手机会变成超级智能体,能够从大量碎片化的使用数据、文本输入“串联”起来,学习和预测用户的行为,更加了解用户。



当大模型遇上智能终端,会擦出怎样的火花?



大模型从云到端、端云协同迈进的产业趋势就已明确。相较于云端模型,端侧模型具备即时响应、数据本地保存、计算和隐私安全的特点,端侧模型指令无网络传输延迟在多个实际场景优势显著。“端侧模型对自动驾驶十分重要。”李大海举例道:“当汽车高速行驶时,我们很难容忍它出现指令空白,这种即时性的指令一定要从端侧发出。”


基于上述优势,端侧模型的落地应用极具可行性,譬如汽车,具身智能,智能家居,智能制造等场景。自2024年2月以来,面壁发布轻量高性能端侧模型 MiniCPM系列,包含基座模型MiniCPM和多模态模型MiniCPM-V双旗舰,凭借以小博大、高效低成本的特性享誉全球。面壁MiniCPM别名“性能小钢炮”,实现了“同参数量下综合性能更强”。


“我们还在持续不断地做出像人一样聪明的大模型,它与终端设备结合变成「超级智能体」,它非常了解并且只服务你个人,私密、安全、周到。”李大海曾这样描绘未来端侧模型在交互方面的表现——用户习惯在11点考虑吃饭问题,但某一天没在同样的时间考虑该问题,那么端侧模型将会主动提醒用户吃饭,甚至还会帮助用户点外卖或预约饭店。


“端侧模型就像朋友一样了解用户,针对用户的喜好进行交互,做到提前感知。”要做到这样并不容易。以手机为例,端侧模型流畅运行,模型在终端进行实时推理有一定的算力、内存带宽要求,而算力芯片的性能越高,功耗和发热一般情况下也越大。“受手机尺寸、电池大小的影响,算力芯片功耗和发热必须限定在一定的水平下,所以端侧模型如何做到对算力和内存的高效利用,在更小的参数量上实现更高的性能,提高知识密度就成为了重要的研究方向。”



知识密度持续提升

让大模型真正飞入千家万户



要在资源受限的设备上部署强大的模型,必须面对内存和计算能力的双重挑战。研究者们通过模型压缩、量化表示数据、稀疏激活高效推理等创新方法,有效解决了这些问题,使得大模型即便在参数量巨大的情况下,也能在设备端高效运行。


“更高的知识密度能用更低的能耗完成,代表模型应用落地的可行性更高。”李大海坦言,如果大模型能耗过高,就会影响手机的续航,那么这个应用是难以落地的。只有当能耗降低至1/10,能够显著地不影响用户手机的续航,才能够真正地变成用户日常可以使用的应用。


知识密度为模型整体的智能水平除以参与推理的参数量,参与推理的参数量决定了该模型推理时的能耗。简而言之,知识密度即每一次的计算所需要参与的参数以及对应能力所需要消耗的算力。即一个知识密度越强的模型意味着能力越强,每一次计算所需要的参数规模越小。


“每8个月,大模型的知识密度会提升一倍。未来两年,手机芯片能够支撑的端侧模型的聪明程度会越来越高。”李大海称。


随着端侧能力的提升,终端在面向感知、决策、行动三位一体的具身化方向发展。端侧与云侧模型在朝着两个不同的方向发展自己的能力,未来一定会互相协同,落地更多普惠大众的应用。“端云协同,未来在可穿戴设备、手机、PC、汽车以及机器人等场景里能够产生更多实际应用。”


8月底,依托面壁智能团队自研大模型和知识增强生成智能技术,清华大学为每一位2024级本科新生配备具有智能问答、智能伴学功能的专属‘AI成长助手’,帮助新生更快地适应校园生活。


这款基于最前沿的大模型智能体技术构建的学生智能助手,在微信小程序即可使用,能为新生提供从校园生活小贴士到学习问题的详尽解答;还能将学生学习成果和成长轨迹加入个人成长档案,并持续记录,形成成长云盘。


不难看出,知识密度的提升能够在终端落地很多好的应用。因此,高效大模型第一性原理的关键词便是知识密度,未来大模型的竞争是知识密度的竞争。


李大海举例,“让端侧模型达到GPT4.0能力,将会打开终端设备Agent应用的无限可能,更多极具想象力的应用能够直接落在终端上”。