《生成式AI企业应用落地技术白皮书2023.docx》由会员分享,可在线阅读,更多相关《生成式AI企业应用落地技术白皮书2023.docx(76页珍藏版)》请在三一办公上搜索。
1、致广大而尽精微生成式Al企业应用落地技术白皮书CONTENT目录1生成式Al是一场技术范式变革32生成式Al的六层技术生态8ZlAI算力基础设施-8Z2基础大模型与相关技术142.3 大模型与训练、评测数据222.4 生成式AI应用开发技术262.5 生成式Al安全与监控352.6 生成式Al应用设计383生成式AI企业应用落地实践探索和总结413.1 生成式Al与企业数字化转型413.2 企业应用落地的关键问题与应对方法.423.3 企业应用落地的四类驱动模式554AI产业政策与发展趋势654.1 我国Al产业政策654.2 AI产业发展趋势694.3 促进我国AI产业发展的对策建议.735
2、写在最后746引用761生成式AI是一场技术范式变革2022年末ChaIGPT的横空出世及其之后的持续迭代,以一种人人可亲身感知的方式,把人工智能在自然语言领域里的重大进展在一夜之间展示在世人面前。而在企业应用场景方面,之前的Al技术都集中在相对专业的应用场景内,如机器视觉、语音识别、或推荐系统、风控管理等。但是语言,作为人类重要的思维工具以及知识组织和传播的最主要手段,其“能力泛化”的可能性远远超出了其他领域。因此,当ChaIGPT能够与人类进行深入、富有深度的对话时,人们开始想象一个真正能够理解业务或专业、思考解答专业问题、甚至进行业务的组织、管理和创新的机器的可能性。对企业的数字化转型进
3、程而言,生成式Al技术带来的潜在影响很容易让人将之类比于交通史上铁路系统的发明、亦或动力系统中对交流电的引入。在生成式Al技术出现之前的十多年间,数字化转型一直是企业采取的一项重要战略,来促进企业在新的商业环境中保持竞争优势、创造新的商业机会。根据2011年,数字化转型最早的提出者之Garlner的定义,数字化转型包括从IT现代化升缴比如全面云化升级),到通过数字技术进行业务优化(比如精准营销)或业务模式创新(比如创新的引流和盈利模式)的一系列战略举措。近几年来,数字化转型的重点聚焦领域,已经越来越转向企业数据资产的建立,神州数码集团的创始人和CEe)郭为在数字化的力量一书中,对此提出了全面和
4、系统的论述。而生成式Al出现之前,数据一般只有经过结构化处理之后,才能够在企业应用环境中发挥作用:而在企业的经营活动中,产生的大量的数据无法被结构化处理,比如内部海量的会议纪要、周报、季报,其中包含大量关于企业具体业务事项的分析和讨论;企业的大量的合同文本、项目验收材料,其中包含有大量的交易细节;而在销售和客服人员与顾客的线上互动文本,其中也有一手的客户对产品和服务的反馈;再有,就是企业产品的大量的用户手册、故障分析文档、产品服务和支持技术资料等等,其中有丰富的技术支持所需的知识。所有这些包含的非常有价值的信息和知识,以往只能限于少数专家或管理者的随机及离散地利用。传统的数据处理和分析方法对这
5、种非结构化的文本数据无所适从。高价值的信息无法被有效提取,意味着企业可能错失了重要的决策依据、市场洞察和创新机会。以大语言模型为代表的先进的自然语言处理技术的出现,预示着这种情况开始发生变化。企业有可能利用这些创新技术来自动分析归类和抽取这些非结构化数据中的关键知识,进而为决策者提供有力的支持。例如,通过自动分析销售和客服的交互文本,企业可以更准确地了解客户的需求和不满,进一步优化产品和服务。更进一步,企业还可以利用这些技术结合知识图谱技术,将分散在不同文档和系统中的信息连接起来,形成一个跨组织结构、跨业务领域、跨时间维度的企业大脑;为企业提供一个一体化的知识查询甚至咨询平台。这样的平台将会成
6、为企业的超级销售助理超级客服助理或者是超级管理助理生成式Al技术的出现为企业数字化转型,注入了强大且更为直接的新动能。不过,以上对生成式Al技术对数字化转型的推动的“推演”,可能还存在很大局限。如同早期的英国铁路,斯托克顿-达灵顿专线其实是在铁轨上跑马车。早期的蒸汽机的一个主要应用场景是在枯水期将水引向高处蓄水池以帮助驱动水车。目前我们设想的生成式Al的应用场景,也处于早期状态。生成式Al技术为企业数字化转型带来的会是更为根本的变革,即技术范式的改变(ParadigmShift)。我们借用技术的本质一书中对“技术域”的定义来解读“技术范式的改变”:作者在这本书的第8章指出,(它)不是单独一个技
7、术体的出现,而是新技术体引发的“重新域定”。新技术域对经济的影响也比单个技术对经济的影响要更深刻。作者认为,经济并不是采用(Adopt)了一个新的技术体,而是遭遇EThcouThters)了一介新的技术体。经济对新的技术体的出现会作出反应,它会改变活动方式、产业构成以及制度安排,也就是说,经济会因新的技术体而改变自身的结构。如果改变的结果足够重要,我们就会宣称发生了一场颠覆性改变。生成式Al技术正在形成新的技术域定,它首先对应用软件开发产生了显著影响。得益于计算机程序设计语言的严格语法、清晰逻辑性和罕见的二义性,生成式Al技术在代码生成和辅助编程方面的效果日益突出。展望未来,软件开发的重心将更
8、多地倾向于需求分析和软件架构设计,而编码和代码质量审核的流程,将在先进的辅助编程工具的助力下,实现效率的飞跃性提升。在2017年,曾经是OPenAl创始成员和研究科学家,担任特斯拉技术总监的AndrejKarPalhy就预见到了引入AI之后的新软件开发范式,他在一篇技术博客中提出了软件2.0的概念。在软件Lo的模式下由程序员设计软件解决问题的方法和细节逻辑,并通过编写显示指令来实现这些逻辑。而软件2.0是利用神经网络自动完成软件的设计。未来大部分程序员无需编写复杂的程序,维护复杂的软件库、或者分析它们的性能。他们只负贡收集、清理、操作、打标签、分析和可视化为神经网络提供信息的数据即可。随着生成
9、式Al技术的快速迭代,业界内正在宣称“软件工程3.0”时代的开启:Al重新定义了开发人员构建维护和改进应用软件的方式,研发团队的主要任务而是以含有私域专业知识的语料(或图像、视频)来训练或精调模型、围绕业务主题设计提示模板(PromptTemplate)、探索最有效的智能体(Agem)机制等。解决问JS的方法由机器产生(场景泛化)解决问题的方法 由人脑产生N (场景具体):于于于:f止生I IAptI IPrlPtIJLLMMAafiI AIII I上下p, I II _, I提示工程Software 3.0.一一 一一一 一一 一一一 一一一 一一一 一一一 一一 一一一 J;亭 亭亭:;里
10、里 :I I丽/空融f,lE- 11 I: :架构工程深信椁蛭网修言- - 包向第X外域899羽好里- - - -L-二-二N - - ,: 甲rT1中:Software 2.0,力亲我,! AAA ;二管里1I:写ra孚:Nfi!区|也!0州&Q凡伸*机*千可aaaI:e昌:辱1苧1亭特征工程Software 1.0软件工程美&N工、RSl络8、1.Ia件产*工存.I ;Sl I小小小I l区串口化l Issgd*oCf JI _AAAII II 图 1 SoftwareLO 到 3.0综上所述,不论是“1.0”“2.0”还是“3.0”模式的软件,生成式AI技术都将为其注入革命性的创新力量。
11、应用会在价值和体验、安全和运营、架构和交付等方面发生深刻变革,从而催生出企业应用的大升级和大迭代。而更快和更广泛的业务数字化转型,则会产生更多的数据资产和应用场景,数字化转型的飞轮效也将应运而生。为什么会有这篇白皮书每一次技术的范式变革都深刻地重塑了经济格局和社会结构,同时也催生出企业数字化的新浪潮。例如,以2010年为分水岭,移动互联网和智能手机的快速渗透为众多崭新的应用提供创新的土壤。在此背景下,移动定位、身份绑定和移动支付等技术场景快速落地,为企业开辟了全新的移动获客架道。不少企业敏锐地捕捉到这一趋势,纷纷推出小程序或打造移动应用平台,助力自身在激烈的市场竞争中快速而精准地获取用户、拓展
12、市场地位。这不仅为企业和市场带来了前所未有的变革和机会,甚至形成了新的社会消费习惯。由于对上一次的技术变革带来的影响仍记忆犹新,使得这一轮人工智能的飞跃式进展所产生的震撼和影响更为强烈。不仅技术层面的CIO、CDO和CTo表现出浓厚的兴趣,企业的各个业务单元、包括CEO在内的高级决策层,几乎都在第一时间启动了密切地关注与讨论。而另一方面,在这场由生成式Al引领的技术范式变革中,相关的推动力量从实验室快速走到了公众舆论中心。这些力量,不再仅仅局限于学术会议的探讨。行业头部公司、初创企业及各个研究团队,也在数字化的今天利用自媒体平台和社区平台积极互动,并保持与主流媒体的沟通。开源社区的贡献和风险投
13、资的活跃参与,更是助燃了这场技术革命,大量创新的想法都会快速落地实现、并成为资本追逐的目标。大量的自媒体在这场热潮中成为了连接“圈内”和公众的纽带,他们迅速收集信息,并按更易传播的方法拆解(或碎片化)信息,使其在短时间内成几何级数放大,触达更广泛的受众。然而这种聚光灯下的创新展现也给企业带来了难题。在信息海量涌入的时代过多的信息反而形成了负担。企业在努力把握技术趋势、评估技术进展对自身业务的潜在影响时,往往陷入信息过载的困境,这不仅无法快速做出决策,更可能导致企业面临选择困惑,产生不必要的焦虑。而大量的粗粒度信息,也会对技术产生误解并不恰当的期望,这反而会阻碍早期的创新型尝试。在与众多企业客户
14、深入交流的过程中,我们深刻地认识到,对于当前的技术进展和各种应用实践进行系统的梳理与小结是至关重要的。这不仅能为企业提供一个清晰的技术发展蓝图,同时也助于他们更好地了解趋势,捕捉潜在机会,进而制定更加科学、前瞻性的战略计划。此外,这样的梳理还能推动行业间的交流与合作,为企业之间打造共赢的合作模式,加速整个数字化转型领域向更新的阶段发展。我们希望通过编撰这篇白皮书”能够起到“抛砖引玉”的效果,引发业界的讨论。我们热切地期望生成式Al相关的技术提供者、应用解决方案的开发者、行业内的重要客户,以及各大研究机构等,能够以这篇白皮书为“靶子”进行深入的梳理和探讨。我们更希望它能成为企业客户和生成式AI技
15、术落地实践者之间共识的起点,帮助大家澄清概念分析当前的技术趋势,预测未来可能的发展方向。我们深知,单凭一家之力难以捉摸整个行业的脉搏,但是,通过集思广益,我们相信能够对这一领域产生更深入、更全面的了解。在这篇白皮书中,我们旨在全面探索生成式Al技术的进展与应用。后续内容将分别从生成式Al的相关技术梳理、技术落地企业应用的路径、以及生态和监管这三个维度展开:对相关技术梳理,将从生成式Al的六层技术生态的角度,思考和总结生成式Al技术在不同维度带来的技术创新和挑战:然后,我们将深入探索生成式Al在落地企业中的实际应用,以及与现有业务的整合和可能遇到的挑战;最后,我们将讨论生成式Al在整个行业生态中
16、的地位,伴随的伦理考量,以及对应的监管建议和未来发展趋势。通过这三个章节,希望可以为读者提供清晰的技术发展蓝图,帮助企业和研究者更好地理解应用并推动技术的健康发展从而应对信息过载技术误解和创新尝试中的挑战,正如我们在白皮书开篇所述的背景和目的。并发式创新的复杂局面和企业应对的策略生成式Al的企业应用落地,事实上已经形成了基础研发、监管和安全、应用开发、企业(或行业)私域数据就绪、企业能力就绪等多个领域并行探索的局面。上述每一个领域既相互促进,又相互制约,而在企业应用的实际环境中,又需要探索业务流程、使用习惯和技术落地之间的变通和粘合。例如企业(或行业)私域数据就绪意味着企业需要建立一套完整的数
17、据管理和维护体系,来确保数据的质量、完整性和安全性,当大语言模型需要进行微调或适应特定场景时,可以迅速地获得高质量的训练数据。而最为重要的是,生成式AI的基础技术研发还在快速进展之中,制约其在真实业务场景使用范围的问题:例如在私域知识框架内的对齐,包括幻觉消除,知识收敛,以及上下文长度等,还在不断探索和解决之中。其中应用场景更为广阔的多模态大模型技术,更是令人充满期待。从来没有哪一个时刻,使得企业在制定技术战略时,需要理解如此复杂的技术趋势,平衡考虑如此多的矛盾因素。从近期和客户的广泛交流中,我们发现,一些非常值得借鉴的策略已经形成:1、两个立即着手:立即着手采用点状业务创新的方式:紧密跟踪最
18、新技术进展探索安全和监管的边界构建;立即着手采用共创的方式:选择外部供应商和合作伙伴,为有可能到来的生成式Al的场景爆发准备好强大的外援力量。2、两个规划制定:私域知识治理规划:生成式Al技术助力企业数字化转型,无论如何都需要企业私域知识的加持,部分企业曾经开展过数据治理工作,这为企业私域知识治理打下了很好的基础;生成式AI应用开发和管理平台规划:不论软件1.0、2.0还是3.0的应用,都是企业数字化转型落地的手段,在点状创新之后,需要认真规划新应用的体系化开发、部署、运维和管理的平台,以及大模型及其算力管理平台和现有技术栈的触合。神州数码,作为中国IT生态的核心参与者,始终致力于促进先进技术
19、在企业的系统化应用。作为生态链的建设者和守护者我们深知生成式Al技术的崛起标志着一场技术革命的开始。因此暇们决意联合整个生态体系,共同帮助企业全面拥抱这一技术范式转变的到来。面对巨大而复杂的机遇与挑战,儒家经典礼记中庸篇为我们提供了宝贵的指导思想:“故君子尊德性而道问学,致广大而层精微J这启示我们在追求技术创新的道路上,既要有宏观的视角,又必须全神专注于每一个关键的落地技术细节。持此信念,神州数码将继续汇聚各方力量,助力生成式Al技术为企业数字化转型注入更强劲的动力。2生成式AI的六层技术生态GpT的成功,促成整个AI行业的技术生态正发生着巨大变革,并形成了激烈的竞争:从众多AI芯片厂商奋力追
20、赶英伟达当前的技术优势,到模型厂商间的“百模大战”迅速升级为“千模混战”,生态中的厂商都在力图找准自己的定位,形成自己的技术优势。激烈竞争的同时也带来了技术的快速发展,相关的论文和报告以惊人的速度发布着,新的应用以及产品更是层出不穷。随着不断地创新、试错以及优化,生态架构中许多关键的概念逐步清晰,一些关键的技术沉淀下来,积极影响着企业场景的落地。我们可以明显观察到生成式AI相关技术的发展已经形成了六层技术生态体系,包含AI算力基础设施、基础大模型与相关技术、大模型与训练及评测数据、生成式Al应用开发技术、生成式Al安全与监控以及生成式Al应用设计。本章概述了架构中每层的核心技术,并结合自身在实
21、际应用场景中的经验与思考,为大家带来生成式Al技术生态的总结。模型的安全和监控偏倚桧溜 和缓解改进训炼 数据多样性增加用户反 馈/对抗性 浦试应用公平性 技术Al防火墙等生成式Al应用创新层图2生成式AI六层架构技术生态体系1.1.1 AI算力基础设施大模型的基础算力设施是Al生态中不可或缺的核心组成部分,为大模型在企业场景中的实际应用提供了关键的驱动力。其中Al芯片是算力的核心来源,其选型会直接影响到后续大模型的开发效率和性能。与此同时,AI服务器,作为Al芯片的主要承载平台,其架构设计和性能优化也显得尤为父键。基于AI服务器,各大厂商会根据所持有的算力资源,发展出不同的经营模式。一些厂商选
22、择采用“基础设施即服务(IaaS)”馍式.,主要提供硬件设施的使用权限;而一些厂商则采用“平台即服务(PaaS)”模式,不仅提供算力,还为用户提供了一系列与模型开发相关的服务。为了更高效地管理这些AI服务器和算力资源,许多企业和政府机构会选择构建智算中心,这是一种集中管理和优化算力资源的方式,同时也反映了其对AI技术的重视和支持。我们将深入探讨大模型基础设施的各个方面,包括Al芯片、Al服务器、AIIaaS、AIPaaS以及Al智算中心,阐述大模型对基础设施的特定需求,旨在为读者提供一个更全面的视角。2.1.1 AI芯片2.1.1.1 AI芯片概述与分类AI芯片也称为Al加速器,专门用于处理人
23、工智能应用中需要的大量计算任务的模块,为AI任务提供基础算力。AI芯片前身是GPU(GraphicsProcessingUnit图形处理单元),专门为游戏或者图像软件提供高效图形渲染的处理器,之后在人工智能技术逐步发展的过程中发现GPU的独特高效并行计算架构同样适用于人工智能计算加速过程。在人工智能理论知识逐渐丰富的过程中,芯片厂家也对AI芯片处理器的计算单元和架构组成有了更多的探索。根据芯片的处理单元和可编程灵活性分类,AI芯片可以分为GPGPU、FPGA和ASIC以及类脑芯片。其中GPGPU(GeneralPurposeGraphicsProcessingUnit*通用图形处理器)是GPU
24、的衍生概念,保留了GPU的并行计算能力,去除了图像渲染显示部分。目前学术界和工业界普遍使用英伟达的Al芯片进行人工智能模型和应用开发,考虑到模型应用的普适性人们也都以GPGPU作为首选。FPGA(FieldProgrammableGateArray,现场可编程门阵列)可以通过配置文件重新定义门电路和存储器之间的连线从而改变计算方式,与GPU相比具有高性能低功耗和可硬件编程的特点。ASlC(ApplicationSpecificIntegratedCircuit,专用集成电路),是一种专用芯片,是为了某种特定的需求而专门定制的芯片的统称。在其所针对的特定的应用领域,ASlC芯片的能效表现要远超G
25、PU等通用型芯片以及半定制的FPGA。近几年,颠覆传统冯诺依曼架构模拟人脑神经元结构的类脑芯片成为学界和工业界探索的新思路。根据Al应用场景分类芯片有云端、终端和边缘端三种类型。云端芯片一般部署在公有云或私有云侧,支持模型的训练和推理任务。其优点是高性能、高计算密度,缺点是单价高、产品硬件形态单一。终端芯片通常部署在手机等移动设备中,支持模型推理任务,其优点是低功耗、高效能、成本低、产品最终硬件形态众多。边缘端芯片部署在边缘设备上如路边监控控制通讯设备,其对功耗、性能、尺寸的要求介于终端和云端之间,同样以推理任务为主,产品的硬件形态相对较少。根据芯片在AI任务中的功能分为训练芯片和推理芯片。训
26、练芯片支持大型模型的训练过程,通过大量数据的输入训练构建奥杂的深度神经网络模型。在模型训练的过程中涉及大量的训练参数和复杂的模型网络结构,需要巨大的运算量,对处理器的计算能力、可处理数据精度和可拓展性的要求都很高。推理芯片支持使用训练好的模型进行推理运算,对单位能耗算力、时延和成本有一定的要求。2.1.1.2 AI芯片的性能指标和大模型的算力消耗在模型推训的过程中,主要关注AI芯片硬件的以下几个指标:算力、功耗、面积、带宽和显存。算力是衡量Al芯片的重要指标,常用的单位是TOPS和TFLOPS,分别代表芯片每秒能处理多少万亿次的INT8的整型运算或FP32单精度浮点运算。AI芯片的算力越高代表
27、它的运算速度越快,性能越强。功耗是芯片运行的电力消耗,由于模型推训耗时漫长,大量的电力消耗进而需要更大的资金投入,对使用者而言,AI芯片的功耗不容忽视。摩尔定律预言了芯片面积和利润的关系,通常来讲相同工艺制程之下,芯片面积越小、良率越高,则芯片成本越低。考虑到大数据并行访问的需求,Al和大数据处理需要高带宽和大存储容量的内存。因此,大模型对于AI芯片有以下两项性能要求:其一,带宽,位数越大说明时钟周期内所能传输的数据量越大:其二,显存,大显存能减少读取数据的次数,降低延迟。大模型的算力消耗受以下几个因素影响,每参数每TOken算力需求、模型参数规模、训练数据规模和算力使用效率。以GPT-3(1
28、75B)为例,其模型的参数量是175B,假设训练数据为300Btokens,每参数每token对算力的消耗是6Flops,以NVIDIA80GBAlOOGPU为例,理论算力是312TFLoPS,Megatron利用张量并行和流水线并行技术能达到51.4%的利用率,即每秒能完成0.16PFLoPS,根据上述条件,结合模型算力消耗约等于(每参数每token的训练需求*训练数据规模*参数规模)/算力使用效率,推测单张AIoO完成一次迭代计算所需耗时约为65年,若采用100O张AloO,训练时间大约可缩短为1个月左右。2.1.2 Al服务器区别于传统服务器,Al服务器搭载了各类AI加速卡,通过异构的方
29、式组成不同的Al服务器。其常见的组合开乡式是CPUGPU、CPU+FPGA、CPU+TPU、CPU+ASIC或CPU+多种力口速卡等。近期甚至提出了“GPU+DPU的超异构”设计,加入DPU的强大数据处理调度能力的Al服务器将更加适合大模型时代超大数据量并行计算的场景。Al服务器根据应用场景、芯片类型和GPU数量有不同的分类。根据深度学习应用场景分为训练型服务器和推理型服务器,训练型服务器对算力要求较高,推理型服务器对算力要求较低。根据AI服务器搭载的芯片不同,分为“CPU+GPU”的异构类型和“CPU+XPU”超异构类型。最后,根据搭载GPU的数量分为多路AI服务器,常见的有四路、八路和十六
30、路AI服务器。大模型的训练和推理任务对算力和网络都有了新的需求,超大参量的模型需要超高的算力,然而训练时间的延长,对模型训练期间的网络稳定性也有要求。近来,芯片领头企业将目光转向了“超异构”计算架构,集成CPU、GPIJ和DPU多种芯片的Al服务器可以高效解决Al大模型计算中遇到的多种计算加速、可拓展性、数据带宽延迟、训练速度、网络稳定性等问题。2.1.3 AIIaaSIaaS(Infrasti-UCtureasaService,基础设施既服务),运营商通过软件定义算力资源的方式将硬件资源池化提供给客户。客户通过即用即付的方式获取计算、存储和网络等IT基础设施资源的调度使用权限,并在此基础上部
31、署、维护和支持应用程序。运营商负责运营维护基础物理设施,采用依赖虚拟化、容器和自动化技术的云计算架构高效控制IT资源。AllaaS服务平台通过软件定义Al算力组成具备池化能力、池化调度和运维管理能力的功能架构。其中,池化能力支持算力切分、远程资源调用、资源聚合、算力超分和随需应变的功能。池化调度包括本地或跨机房调度、指定节点指定型号任务队列调度和多资源池管理。资源池的运维管理功能包括运行时自动注入组件高度可用、集群运维管理、平台运维管理以及全局资源监控。AIIaaS的关键技术点是算力池化。算力池化基于传统云计算技术(如Kubemetes、OpenStack)用软件定义的方式,对GPU等Al算力
32、资源进行分时调度管理,并且采用GPU/A宓片的RUmime提供的APl劫持、应用程序监控等技术实现计算资源跨界点远程调用。AIIaaS通过高速无损网络互连互通的CPU、GPU、ASlC芯片等算力资源进行池化整合,实现资源的集中调度、按需分配,使资源充分利用,降低碎片概率,提高总体有效算力、降低智算中心购置成本,能够做到化整为零。革新传统的整卡分配、“一虚多”的虚拟化分配等粗放式分配方式,使能精细化分配能力,根据AI任务的资源需求进行按需分配,使资源可被充分利用,降低碎片概率,提高总体有效算力,降低基础硬件设施购置成本。2.1.4 AIPaaSPaaS(PIaIfbrmaSaSerVice,平台
33、即服务)为软件研发提供了一种服务化的平台,采用软件即服务(SaaS)的模式交付。对于Al大模型的开发者,PaaS提供了一个便捷的环境,支持大模型应用的快速部署、开发和测试。PaaS平台架构AI大模型的PaaS平台主要提供以下五大功能:1、加速生产和部署:提供工具和指南,优化并加速模型的推理,满足生产部署的需求。比如平台会使用如DoCker或KUbCrneteS的容器技术,确保模型在不同的环境中都能一致、稳定地运行,并通过CIZCD流程,确保模型的更新和部署能够自动且连续地进行。2、模型库与接口:提供统一的接口,支持多种预训练的NLP模型,如BERT、GPT、ROBERTa等。TranSfOrm
34、er库的APl支持各种NLP任务,如文本分类、命名实体识别、文本生成等。通过APl调用,开发者可以轻松地加栽和使用模型,并可以通过接口提供丰富的参数和选项,使开发者可以根据自己的需求进行定制。3、数据管理与处理:DataSetS库可以提供NLP数据集的访问、管理和处理工具,TokeniZerS库可以支持文本数据的标记化为模型准备输入数据。比如开发者可以直接在平台上加载和使用库中包含的多种NLP数据集,平台会允许开发者上传自己的数据集,并为数据集提供版本管理功能,从而确保数据的一致性。4、模型训练与微调:允许用户下载预训练模型,进行微调,适应特定任务,包括模型训练、微调封装、验证、部署和监控。使
35、用预训练模型并对其进行微调已经成为了Al领域的标准做法,尤其是在NLP中。这种方法结合了预训练模型的通用知识和特定任务的数据,从而获得了更好的性能。5、模型共享:ModelHUb和SPaCe为用户提供模型共享、代码分享和协作环境。鼓励开发者之间的开放合作,促进NLP技术的快速发展Space社区支将/Space社区提供一个悔作环境,可用于协作开展NIP项目、分享代码和合作用户在社区中讨论向JS、分享经验、提出问Ifi,并共享横SL代码|和实的结果。通过开放的合作精神促送了NlP技术的快速发展|模S2训缪和撇调允许用户下载预训炼模姒权重,在自己的数据上进行微调,以适成特定任务一:.:“/中一二/:
36、,:/叮:,灯於/广:DatasetsK数据瞥理与处理Tokenizers三用于访问、管理和处理NIP数据集的工具用于将文本数据进行标记化(分词)的库,为Hl型准备输入故据TranSfOrmerS座的APl模型接口和詈道胃道(PiPeline)工具利用APl接口来执行各种NLP任务,如文本分类命名实体识别、文本生成等为待定任务提供罚单的API,使用户J婚轻松使用预训炼模型TrainerModeIHub允许用户在自定义数据集上进行模型训练和彼调提供了一个平台,让用户可以共享、发现和下载用训媒模盟模型降和TranSfOrmerS为各肿攸训塔的NLP模型提供一个一致的接口,使用户能够无理地在不同根3
37、2之间切换。TranSfOrmerS支持包括BERT、GPT、RoBERTa、DistiIBERT、XLNet等在内的多种模型生产和部署提供了优化和加速模型推理的工具和指南,以适应生产部署需求托管平台托管和共享训练模型、数据集和其他资源图3大模型PaaS平台传统的PaaS平台主要关注用户软件应用开发周期的加速,通过开发工具的集成、硬件基础设施的自动管理、多租户应用共享基础资源和开发者多平台灵活访问的方案为企业和开发者提供便捷服务。大模型的高算力和高开发门槛要求PaaS平台更加关注大模型的开发部署流程的优化。参考目前市场中成功的厂家案例,如GgleAIPlatform、AWSSageMaker和
38、HUggingFaCe等,这些厂家平台在部署大量基础设施资源的情况下为用户提供大模型快捷开发环境、大模型的全生命周期的监控调优,同时也会提供一些预训练模型和数据集。大模型PaaS平台的上述功能优势也将为个人开发者和一些微小企业的Al应用开发提供便利,大大降低大模型硬件基础设施的购买运维成本和搭建复杂的基础开发环境的时间精力消耗。2.1.5 智算中心智算中心是基于最新人工智能理论,采用领先的人工智能计算架构提供人工智能应用所需算力服务、数据服务和算法服务的公共算力新型基础设施,通过算力的生产、聚合、调度和释放,高效支撑数据开放共享、智能生态建设、产业创新聚集,有力促进Al产业化、产业Al化及政府
39、治理智能化。智算中心作业环节是智算中心的支撑部分,智算中心通过作业环节实现了算力的生产、聚合、调度和释放,是区别于其它数据中心的具体体现。功能部分是四大平台和三大服务,四大平台分别是算力生产供应平台、数据开放共享平台、智能生态建设平台和产业创新聚集平台;三大服务分别是数据服务、算力服务和算法服务,目标是促进Al产业化、产业AI化及政府治理智能化。智算中心通常采用三方主体协作的投资建设运营模式:1、投资主体:智算中心建设通常采用政府主导模式,政府作为投资主体加快推进智算中心落地,以智算中心为牵引打造智能产业生态圈,带动城市产业结构优化升级,增强城市创新服务力。2、承建方主体:智算中心建设通常选择
40、政府主导下的政企合作模式,由企业具体承建智能计算中心。3、运营主体:运营主体为具体负贡智算中心投入使用后的运营服务机构。AI智算中心不仅是一个高效的计算中心,更是一个综合性的创新平台,它结合“平台+应用+人才”的三合一策略,为新型Al产业的繁荣提供强大的算力支持、实际应用开发的鼓励以及顶尖Al专家的培养和吸引。此外,中心还强调“算力+生态”的双轮驱动,通过持续的硬件投资和开放的Al生态合作,旨在吸引更多的企业和研究机构,从而推动Al全产业链的形成和快速发展。2.2基础大模型与相关技术2.2.1 大模型研究发展迅速2017年TranSfOrmer模型提出并在机器翻译领域取得巨大成功后,自然语言处
41、理大模型进入了爆发式的发展阶段。自2018年以来,大型预训练语言模型的发展经历了几个重要阶段和突破:2018年,GoOgle发布了BERT模型,引领了自然语言处理领域预训练范式的兴起;2020年,OPenAI发布了GPT-3模型,展示了强大的文本生成能力和在少量标注任务上的优秀表现,然而基于提示词学习的方法并未在大多数任务上超越预训练微调模型:2022年11月,ChatGPT的问世展示了大语言模型的潜能,能够完成复杂任务并在许多任务上超越有监督模型。这一突破表明大型语言模型在复杂任务上的潜力。大语言模型的实现细节和训练过程仍存在许多复杂性,对研究人员提出了挑战。同时,大语言模型的发展也带来了一
42、些挑战和争议,关于数据隐私、模型偏见和滥用等问题引发了广泛讨论。为了解决这些问题,研究人员和机构开始探索模型透明化、可解释性和模型治理方法。更多的具备多模态功能的大模型也将很快推出,例如GoOglC的GeminiOpcnAIGobi,开源的NExT-GPT等。多模态大模型的视觉功能会带来潜在的法律安全风险这些潜在的风险会延缓多模态大模型的推出进度。2.2.2 大模型与小模型将持续并存大模型与中小模型在未来几年会并存。尽管大模型当前表现优异,但对于各行业使用者来说,实际应用于业务场景仍然存在较高的技术和成本门槛。从业务层面分析,一定会出现资源配置更加高效的小模型,例如细分领域的专用小模型。不仅仅
43、存在大模型和小模型的融合使用,大模型的小型化,以大模型为底座的小型化微调,也是一种趋势,这种方式能够以低廉的成本解决大量的业务问题。“大和小是一个相对的变化。当前大模型的参数标准并不统一,相对于参数量级,模型的效果且是否能够支持快速迭代对于用户实际应用来说更为重要。用户能够在一个白盒大模型基础上快速地、低成本地微调和迭代出定制化的小模型,才能高效地实现丰富场景的大模型应用。模型需要持续迭代,表明了Al基础软件工具链的重要性。2.2.3 大模型的基础理论与设计2.2.3.1 大模型网络架构的发展当前主流大模型是基于TranSfOrmer架构进行设计的偌统的TranSfOrmCr架构通常具有二次计
44、算复杂性,在上下文长度较长时,训练和推理效率已成为一个重要问题。为了提高效率一些新的语言建模架构被提出来,例如RWKV,RetNet等。 Transformer,由于其架构的出色并行性和容量,使得将语言模型扩展到数百亿或数千亿个参数成为可能,Transformer架构已成为开发各种大模型的事实标准骨干。一般来说,主流大模型架构可以分为4种类型,即Decoder-Only、Encoder-Only、Eneoder-DeCOder和MOE。Decoder-Only,典型代表是GPT和LLaMA等模型,EnCOder-Only的典型代表是BERT和ALBERT等模型,EnCoderDecoder的典
45、型代表是T5和BART等模型;值得特别注意的是,即使GPT4的技术细节未公开,业界的广泛认知是其使用了MOE架构。 RWKV,结合Transformer和RNN的优势,训练时能够像TranSformer那样并行计算,推理时又能像RNN那样高效。高效推理,对于降低模型成本,尤其是在端侧部署有重要意义。RWKV的计算量与上下文长度无关,对于更长的上下文有更好的扩展性。和RNN一样,历史信息是靠隐状态(WKV)来记忆的,对于长距离历史信息的记忆不如TranSfOrmeL如何设计提示对模型的性能会有很大影响。 RetNet,作为全新的神经网络架构,同时实现了良好的扩展性、并行训练、低成本部署和高效推理
46、。在语言建模任务上RetNet可以达到与Transformer相当的困惑度(perplexity)-推理速度提升8.4倍,内存占用减少70%,具有良好的扩展性,并且当模型大小大于一定规模时,ReINel的性能衣现会优于TranSCormer。这些特性将使RetNct有可能成为Transformer之后大语言模型基础网络架构的有力继承者。Output ProbabilitiesInputsOutputs(shifted right)Input EmbeddingInput EmbeddingOutput ProbabiutBesSoftmax -图5 RWKV网络架构图4Transformer网
47、络架构2.2.3.2 大模型的训练目标多样化基础大模型是对世界知识的压缩,从基础模型到通用模型,模型的性能的构建主要来源于包含四个阶段:预训练、指令微调、奖励建模和对齐微调。这四个阶段分别需要不同规模的数据集,采用不同的训练目标,从而训练得到不同尺寸的模型,因此所需要的计算资源也有非常大的差别。 预训练,在将大规模语料库中的通用知识编码到庞大的模型参数中起着关键作用。对于训练大模型,有两种常用的预训练任务,即语言建模和去噪自编码。 指令微调,目标是增强(或解锁)大语言模型的能力,是一种提高大语言模型能力和可控性的有效技术。使用格式化的实例以有监督的方式微调大语言模型(例如,使用序列到序列的损失进行训练)。指令微调后,大语言模型展现出泛化到未见过任务的卓越能力,即使在多语言场景下也能有不错表现。 奖励建模,目标是构建一个模型,用于进行文本质量评价。在使用场景中,指令微调模型会根据一个提示词,生成多个不同结果,然后由奖励模型进行质量排序。 对齐微调,目标是将大语言模型的行为与人类的价值观或偏好对齐。与初始的预训练和指令微调不同,语言模型的对齐需要考虑不同的标准(例如有用性,诚实性和无害性)