#最新
新突破!非Transformer架构AI模型Liquid亮相,或将重塑智能领域格局?

2024-10-08 0 32,691

在深度学习及自然语言处理领域,Transformer架构因其出色的自注意力机制而被广泛应用,诸如OpenAI的GPT、meta的BART及谷歌的T5等顶尖模型均基于此设计。然而,Liquid AI却选择了一条不同的道路。

受“交通信号处理系统”与“数值线性代数”的启发,Liquid AI对其模型架构进行了大胆革新。新推出的LFM模型主打“通用性”,能够灵活应对不同类型的数据建模需求,包括视频、音频、文本、时间序列乃至交通信号等多种内容格式。

相较于传统的Transformer模型,LFM系列在处理大量输入时展现了显著的RAM使用优势。由于Transformer在处理长输入时需存储庞大的键值缓存,导致RAM占用随序列长度急剧增加。而LFM则通过高效的数据压缩技术,大幅降低了对硬件资源的依赖,使得在相同硬件环境下能够处理更长的数据序列。

新突破!非Transformer架构AI模型Liquid亮相,或将重塑智能领域格局?

在性能表现上,LFM系列模型同样令人瞩目。据悉,LFM-1.3B已在多项基准测试中击败了包括苹果OpenELM、meta Llama 3.2、微软Phi 1.5及Stability Stable LM 2在内的多款领先模型。而LFM-3.1B更是跨越了规模界限,在某些特定任务中甚至超越了更大规模的7B与13B模型,其性能已凌驾于谷歌Gemma 2、苹果AFM Edge等顶尖模型之上。

至于LFM-40.3B,该模型在规模与输出质量间取得了精妙平衡。尽管拥有高达400亿个参数,但在实际推理过程中仅激活了120亿个参数。Liquid AI解释称,这一限制举措旨在确保模型输出的高品质,同时提升运行效率并降低硬件配置要求。

收藏 (0) 打赏

感谢您的支持,我会继续努力的!

打开微信/支付宝扫一扫,即可进行扫码打赏哦,分享从这里开始,精彩与您同在
点赞 (0)

智思智库(https://www.zsece.com)

保留所有权利。未经许可,禁止转载、摘编、复制或用于任何商业用途。

版权信息由互联网收集,如有任何疑问或侵权事宜,请及时联系我们的客服。

【智思智库】 AIGC专题 新突破!非Transformer架构AI模型Liquid亮相,或将重塑智能领域格局? https://www.zsece.com/ai001/27099.html

常见问题
  • 您可以在登录页面找到“忘记密码”或“重置密码”的链接。点击该链接后,按照指示输入您的注册邮箱或手机号码,系统会发送重置密码的指导到您的邮箱或手机。
查看详情
  • 您可以访问平台的“联系我们”页面,通常在该页面会有客服邮箱、电话或在线聊天服务。您也可以在帮助中心找到常见问题的解答。
查看详情
  • 登录您的账户后,找到“发布内容”或“创建帖子”的按钮。填写必要的信息和内容,预览无误后,点击“发布”或“提交”按钮即可。
查看详情
  • 登录账户后,前往“我的订单”或“账户订单”部分。在该部分,您可以查看订单历史和详细信息,包括订单状态和物流信息。
查看详情

相关文章

发表评论
暂无评论
官方客服团队

为您解决烦忧 - 24小时在线 专业服务