《大模型专题:大模型的异构计算和加速》由英特尔院士戴金权在AiCon全球人工智能开发与应用大会上的演讲内容整理而成。报告介绍了大语言模型的异构计算和加速相关技术。首先阐述大语言模型基于Transformer解码器架构的自回归模型原理。接着分析大模型推理和训练面临的瓶颈,包括内存带宽、计算、显存大小和分布式计算等方面。
报告重点介绍了大模型的异构计算和加速方法。包括XPU异构计算,涉及CPU、GPU、NPU等硬件加速;低比特计算,如模型量化/压缩、数据类型选择、低比特算子应用以及对显存使用量和训练微调的影响,并对比了不同量化方式下多个模型的精度;还介绍了推理算法优化,涵盖Self - speculative decoding、KV Cache compression等多种方式。
此外,报告还介绍了IPEX - LLM开源大模型XPU加速框架及其应用场景,如在Intel Core Ultra AI PC、Intel Arc A770 GPU等不同硬件上的加速体验,包括Office助手、工业机器人代码生成、AI座舱 - 汽车助理等多个应用案例展示了英特尔XPU在大模型应用创新方面的成果,并鼓励关注和试用IPEX - LLM,在Intel XPU平台开发大模型及其应用。
附件:大模型的异构计算和加速:加速方法,包括XPU异构计算,多个模型的精度,推理算法优化
增强型工作,智能企业开始利用人工智能创造真正价值的方式;实时自动决策带来更高的效率和对变化中的客户习惯与市场状况更快的反应速度
基于对视频的AI智能分析,实现皮带运输各类异常情况的智能视频分析和判别;实现设备的一键启停、远程操作控制等功能,有效降低危险作业区域安全事故发生率
AI 技术的发展揭示了第五种科学研究范式, 即通过机器猜想的方式应用于 科学智能,通过不同的算法思维和应用场景的对撞,得到不同领域专业知识,从而推导位置结论的范式
AI 发展中产生了 五大悖论,揭示了AI 作为技术的局限性和未来可能应用方向的限制;AI 依然是一种意义重大的技术,它将显著提高生产和工 作效率
AI是一种更强的工具,像超级计算机一样可被购买;AI无所不能,人类是执行器,AI将取代人类;AI将和人类具备平等的地位
第二章提供全景式的 AI 产业链图谱和 中美 AI 能力对比;第三章阐述了生成式 AI 的核心技术及发展趋势;展望 AI 商业化路径和产业竞争格局演变
B端及C端AI应用,目前B端应用落地较快,C端应用静待杀手级应用出现;C端应用头部格局稳定,但用户需求不明确,往往是供给激发需求
国内通用类大模型正在持续拓展应用领域,包括文心一 言、通义千问、星火认知等一批通用大模型正在快速发展,垂直领域专业类大模型也在不断深化落地
生成式 AI 等创新技术,正在引领未来商业发展的新方向;将 AI 技术和 AI 应用视为增加企业营销能力的伙伴,共同 生成商业新未来
当Al与劳动高度互补时,互补效应变得强于位移效应,特别是在收入分配的上半部分,导致与低互补情况相比
模型无法做到无限制的创意赋能,随着海量设计师利用同一模型 进行设计流程的迭代,产品的设计风格可能趋于同化,扩大设计师在 实践中所创造知识的影响力
训练与微调成本,该训练成本仅针对企业应用基础模型结合行业知识与数据集进行训练与微调的成本,并非基础大模型训练成本,该成本仍然为行业知识壁垒显著的企业必须承担的成本