快讯网首页 |资讯 |财经 |娱乐 |汽车 |时尚 |房产 |健康 |数码 |社会 |图片 |消费 |大盘 |互联网金融 |新车 |试驾 |化妆品 |奢侈品 |二手房 |两性 |曝光台

NVIDIA的最新研究可能彻底改变AI的未来,具体加速效果取决于序列长度

发布时间:2024-10-21 15:21:35  来源:快科技 游览:
  10月21日,据媒体报道,NVIDIA的最新研究可能彻底改变AI的未来,其研究团队提出了一种名为归一化Transformer(nGPT)的新型神经网络架构。

  这一架构在超球面(hypersphere)上进行表示学习,能够显著提升大型语言模型(LLM)的训练速度,最高可达20倍,同时保持了模型的精度。

  nGPT架构的核心在于将所有向量,包括嵌入、多层感知机(MLP)、注意力矩阵和隐藏状态,归一化为单位范数。

  这种归一化处理使得输入的token在超球面表面上移动,每一层模型都通过位移来贡献最终的输出预测。

  实验结果表明,nGPT在训练时所需的步骤比标准Transformer模型减少了4到20倍,具体加速效果取决于序列长度。

  例如,在1k上下文中,训练速度提高了4倍;在4k上下文中,提高了10倍;而在8k上下文中,更是提高了20倍。

  研究人员指出,nGPT的优化路径从超球面上的点开始,通过位移来贡献最终的输出预测,其中位移量由MLP和注意力模块定义。

  这种方法不仅提高了训练速度,还增强了模型的稳定性。

有望改写AI未来!NVIDIA全新nGPT使训练速度暴增20倍

32.8K
猜您喜欢
热点图片/ Hot picture
排行搒/ The total ranking
热点推荐/ Hot recommendation
  • Copyright © 2012-2024 www.kxnews.cn, All Rights Reserved 版权所有:快讯网 冀ICP备08108040号 冀公网安备 13108202000311号
    欢迎广大网友来本网站投稿,网站内容来自于互联网或网友提供 邮箱:jU6RR2GMQ1@outlook.com