From fbffc603e0d3971e2e25b0e8b34aa95c6388e458 Mon Sep 17 00:00:00 2001 From: =?UTF-8?q?=E8=9E=BA=E6=97=8B=E7=8C=AB=E7=8C=AB=E5=A4=B4?= Date: Tue, 20 Aug 2024 15:25:32 +0800 Subject: [PATCH] =?UTF-8?q?=E4=B8=8A=E4=BC=A0=E6=96=B0=E6=96=87=E4=BB=B6?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- ...24\347\251\266\346\212\245\345\221\212.md" | 500 ++++++++++++++++++ 1 file changed, 500 insertions(+) create mode 100644 "3.3\344\272\272\345\267\245\346\231\272\350\203\275\344\272\247\344\270\232\347\240\224\347\251\266\346\212\245\345\221\212.md" diff --git "a/3.3\344\272\272\345\267\245\346\231\272\350\203\275\344\272\247\344\270\232\347\240\224\347\251\266\346\212\245\345\221\212.md" "b/3.3\344\272\272\345\267\245\346\231\272\350\203\275\344\272\247\344\270\232\347\240\224\347\251\266\346\212\245\345\221\212.md" new file mode 100644 index 0000000..7bf6388 --- /dev/null +++ "b/3.3\344\272\272\345\267\245\346\231\272\350\203\275\344\272\247\344\270\232\347\240\224\347\251\266\346\212\245\345\221\212.md" @@ -0,0 +1,500 @@ +## 3.3人工智能产业研究报告 +### 3.3.1 人工智能产业概览  +**(1)人工智能技术及应用领域概述** + +人工智能(AI)是一门融合计算机科学、生理学和哲学的综合性学科,旨在通过模拟和拓展人类的智能来解决复杂问题。人工智能技术的发展与计算机科学行业紧密相关,并在诸多领域展现广阔的应用前景。 + +随着科技不断推进,人工智能(AI)技术逐步渗透到各行各业,成为推动智能化发展的重要力量。人工智能技术旨在模拟人类的智能思维和行为模式,通过大数据、机器学习等技术手段,赋予机器自动执行复杂任务和决策的能力,实现高效智能的人机交互。下面将从传统人工智能和人工智能大模型两个方向展开介绍。 + +**传统人工智能技术与应用发展进展** + +目前,传统人工智能技术主要包括六大核心应用领域:自然语言处理、机器视觉、机器学习、专家系统、智能机器人和推荐系统。 + +自然语言处理(NLP) 是人工智能的关键技术之一,研究如何使机器能够理解、处理和生成自然语言,实现流畅的人机语言交互。NLP技术通过分析文本语义、语法和语用特征,广泛应用于语音识别、机器翻译、情感分析、智能问答等领域。 + +NLP在人工智能领域占据重要地位,是研究的重点方向,旨在探索人机通过自然语言实现高效互动的技术手段。目前,NLP研究主要集中在语言学、数据处理和语言工程等方面。加拿大蒙特利尔大学的TAUM-METE机器翻译系统是该领域较为成熟的应用。NLP技术的应用范围十分广泛,包括机器同声传译、智能客服、聊天机器人等。 + +自2000年以来,语音识别技术日趋成熟,识别准确率可达95%以上,如百度的语音识别系统。NLP技术在客户服务领域应用普遍,移动通信时的智能语音问答就是一个典型案例。随着人工智能的持续发展, 人机对话功能将更加普及, 这有助于解决人口老龄化等社会问题。 + +机器视觉(Computer Vision) 是人工智能领域的又一重要技术,旨在让机器模拟并具备人类视觉系统的功能,实现对图像和视频的理解与分析能力。机器视觉技术可广泛应用于图像识别、目标检测、人脸识别、行为分析等领域。 + +机器视觉技术致力于通过计算机模拟人类视觉系统,代替人眼识别物体、确定物体位置和运动状态。在技术实现层面,机器视觉通常包括三个关键步骤:目标检测(图像预处理、图像分割)、目标识别(特征提取、目标分类、匹配判断)和行为识别(模型构建、行为分析)。 + +机器视觉技术在不同细分领域的发展存在一定差距。目前,生物特征识别是该技术最为成熟的应用场景,在考勤、安防等领域得到了广泛运用,如指纹识别、人脸识别、虹膜识别等。然而, 在物体场景识别方面,由于物种类别繁多、外观特征多样, 技术尚不十分成熟。 + +近三年来,机器视觉行业取得了突飞猛进的发展,行业应用也在不断扩展。除了传统的3C电子、汽车和半导体产业外,机器视觉技术还逐渐渗透到了医疗健康、物流仓储、农业等多个领域。 + +未来,随着算法的不断优化和硬件设备的持续升级,机器视觉技术必将在更多场景展现出强大的性能,为人机交互、智能分析等领域带来革新性体验。 + +机器学习(Machine Learning) 作为人工智能的核心技术之一,主要研究如何利用数据和经验不断优化和提升机器的性能表现和决策准确性。机器学习技术通过构建并训练模型算法,使机器能够自动从海量数据中学习,获取经验知识,并基于学习成果对未知情况做出预测和决策。 + +机器学习技术已被广泛应用于广告推荐、金融风控、医学诊断、智能交通等诸多领域,展现出巨大的商业价值和社会意义。它有望为人类社会带来前所未有的创新体验和生产力提升。 + +机器学习可谓是人工智能领域的核心所在,解决了智能系统"学习"的关键问题。机器学习通过让机器利用现有信息持续学习、更新知识库, 并产出智能化的输出结果。 + +我们不难发现,机器学习技术已经突破了人类智能的部分极限。 + +以"AlphaGo"大战李世石的例子,虽然在第一局中人类下Chess大师李世石击败了AlphaGo,但在第二天的对局中,AlphaGo凭借自身在夜间与自身进行的上百万局对弈练习,达到了连李世石这样的人类顶尖大师都无法企及的水平。机器学习让机器在"学习"的过程中突破自我, 实现了人类难以做到的知识积累和运算能力。 + +第四种人工智能技术是专家系统(Expert System) ,它基于模拟人类专家的决策过程和知识表达方式,通过编码专家知识和推理规则,实现对复杂问题的智能化解决。专家系统广泛应用于医疗诊断、法律咨询、工业控制等领域,帮助人类在专业领域内做出准确决策。 + +第五种是智能机器人(Intelligent Robot) 技术。智能机器人是指具备感知、认知和控制能力的机器人系统。它可借助传感器获取环境信息,对信息进行感知和理解,并根据既定需求和目标做出决策并采取行动。智能机器人已广泛应用于制造业、服务业、医疗护理等领域,为人类提供更加便捷高效的服务体验。 + +智能机器人与普通机器人的区别在于,智能机器人具有相对发达的"大脑",能实现自主控制。一般而言,智能机器人需具备三大要素:感知外部环境的感觉能力、与环境交互的运动能力,以及对信息进行处理并做出反馈的思考能力。 + +目前,智能机器人的应用领域主要集中在工业机器人、服务机器人和产业链。工业机器人应用于汽车焊接、电子装配、食品搬运等。服务机器人则渗透至医疗手术、家居服务、娱乐教育等领域。而在产业链层面,机器人本体、控制系统、传感器等都是发展的重点。 + +在医疗健康领域,智能机器人的应用较为成熟。2016年在日本就有一例,医生诊断无计可施时,智能机器人"沃森"在十几分钟内阅读了两百万页相关医疗文献,并给出了救治方案,最终挽救了那名患者的生命。除此之外,智能机器人也正在远程医疗、康复护理、智能假肢、微创手术等领域发力,为医疗健康事业贡献力量。 + +在家庭服务领域,智能机器人的应用迎来黄金增长期。当下应用较多如扫地机器人、智能音箱、家庭安全监控设备等。以家居清洁为例,现有的智能家务机器人已能实现自主游走、垃圾清理、地面清洁等功能。 +最后的人工智能技术是推荐系统。推荐系统通过分析用户的历史行为和兴趣爱好,预测用户可能感兴趣的内容或商品,并为其提供个性化推荐服务。该技术已广泛应用于电商、社交媒体、音视频等平台,提升了用户体验和商业价值。 + +总的来说,传统人工智能在自然语言处理、计算机视觉、机器学习、专家系统、智能机器人和推荐系统等六大领域展现出广阔的应用前景。随着相关技术的不断创新,人工智能必将为人类社会带来更多便利与可能。 + +**人工智能大模型技术与应用发展进展** + +大型语言模型(以下简称LLM)被广泛认为是迈向人工通用智能(AGI)的关键路径之一。2022年1月30日,一个名为ChatGPT(即聊天生成预训练变换器)的LLM问世,短短两个月的时间内,该模型就吸引了超过一亿的活跃用户。LLM凭借其强大的适应能力和逻辑推理能力,能够执行聊天对话、撰写邮件、创作诗歌、编写代码以及制定商业提案等多种任务,其问世标志着AGI走向新的里程碑。图1便生动展示了自2013年以来LLM在发展历程中所取得的进步,以及模型参数规模的壮观扩张。 + +![](https://i-blog.csdnimg.cn/direct/35b881339a6445918defe9a32c99d91f.png#pic_center) +图1 大语言模型的发展历程及参数规模 + +在Word2Vec和GloVe这类词向量表示模型问世前,对文本语义的理解主要停留在浅层次。这些模型实现了对文本语义进行分布式向量化表示,但却受限于它们的静态特性,无法有效应对一词多义的语境挑战。为了克服这一局限并提升对自然语言的深层理解能力,引入了包含自注意力机制的Transformer架构,该架构通过编解码器堆叠方式,使语义和任务特征的提取能力远远超越了传统深度学习模型如卷积神经网络。 + +目前市场上的主流语言模型基本上都是建立在Transformer的基础之上,这些模型虽然基础架构同质,但构建方法和应用路径则是多样化的。例如,BERT利用了Transformer的编码器来实现双向的特征捕获;GPT则通过Transformer的解码器来实现单向的文本生成;而T5模型则融合编码器与解码器的优势,实现从文本到文本的转换任务。这些模型的提出和发展不仅极大地推进了自然语言处理技术的边界,也为AGI领域带来了新的思路和机遇。 + +随着BERT和GPT系列模型的问世,大型语言模型的架构逐渐演化为两种主流技术路径,即预训练加上微调(Pre-training + Fine-tuning)和预训练加上提示(Pre-training + Prompting)。BERT模型代表了预训练加微调的方法,它首先通过大量无标注数据,诸如维基百科条目和网络新闻,进行了充分的自我监督预训练。随后通过特定任务的有标注数据进行微调,以在特定场景下提升模型的表现。而GPT系列代表了预训练加提示方法,利用大规模无标注数据先行自监督预训练,而后通过零样本(One-shot)或少样本提示(Few-shot Prompting)来帮助模型更好地理解特定任务。这种提示通常通过人工或自动生成的自然语言提示来实现,使得在参数规模足够大时,模型具备少数样本甚至零样本情况下的文本生成能力。 + +在大型语言模型发展初期,BERT模型的微调模式受到更多关注,这主要是由于BERT的双向特性让其在理解类任务上的表现超越了GPT的单向模型。因此涌现出了BERT派生模型,如XLNet、RoBERTa、ALBERT以及ELECTRA。随后,OpenAI研究团队推出了参数更大、数据集更庞大的GPT-2和GPT-3。正如表1所显示,GPT-2的数据量和参数规模是GPT的大约十倍,达到了15亿个参数;而GPT-3的参数规模进一步扩大到了1750亿。当大型语言模型参数日益增长时,它们在进行任务微调时所需的成本也随之增大。因此,GPT-3及其后继模型在应用到下游任务时,通常不进行梯度更新或进一步微调,而是倾向于使用少数样本提示,提供有限的上下文实例进行推理,亦即所谓的上下文学习(In-Context Learning)。这得益于更高的数据质量和更大的数据规模,使得大型语言模型在少数样本学习方面展现出惊人的涌现能力。 + +GPT-3,作为拥有数千亿个参数的模型,展现出了其雄厚的知识处理能力。然而,它所依赖的概率性文本生成机制也可能产生非真实、无用甚至有潜在害处的输出。这一挑战并非通过简单扩大模型规模所能解决。于是,InstructGPT和ChatGPT应运而生,它们的目的是使大型语言模型的输出更加符合人类意图。InstructGPT以GPT-3为基础,而ChatGPT则基于GPT-3. 5架构。值得一提的是,GPT-3.5在训练时结合了GPT-3和Codex模型的数据,并以InstructGPT为基础,经过人工标记数据的有监督微调而成。2023年,GPT-4被提出,标志着大型多模态模型的新阶段,能够处理文本和图像的多模态信号。 + +作为自回归语言模型和提示学习方法的代表,GPT系列得到了众多企业和教育机构的广泛支持。例如,谷歌在2022年发布了LaMDA和PaLM。LaMDA在GPT-3的架构基础上进行了改进,通过人工标注数据的微调和模型的外部知识利用,显著增强了模型在安全性和事实性方面的能力。继LaMDA之后,谷歌在2023年3月推出了Bard模型,这是经过LaMDA微调的一款模型。PaLM是Google Pathways系统训练下的首个超大规模语言模型,参数扩展至5400亿,并且大幅提升了多语言性能。在2023年5月,PaLM 2作为与GPT-4对等的模型被推出,尽管其训练参数大幅减少,但它展现出了比PaLM更优越的多语言和推理能力,并且在计算效率上更高,在一些任务上实现了与GPT-4相当乃至更优异的性能表现。 + +2023年2月,Meta公司发布了开源的大型语言模型LLaMA(Large Language Model Meta AI)。LLaMA模型的特点是只利用公开可获得的数据进行训练,并做了更多的标注以得到相对小型的模型,这让它在运行效率和资源消耗上优于其他模型。斯坦福大学在LLaMA-13B模型的基础上研发了Vicuna模型。凭借约300美元的训练成本,Vicuna-13B模型已达到了ChatGPT和Bard模型90%以上的效能。而英伟达/微软的Megatron-Turing模型,华为的PanGu-α和PanGu-Σ等十亿级参数规模的大模型也都采纳了GPT-3的架构,并在此基础上作了改进。 + +除了BERT和GPT系列模型架构,清华大学的研究团队提出了一种名为GLM(General Language Model)的模型架构,它利用自回归的填空方式进行学习。基于GLM,清华大学在2022年10月推出了一个拥有1300亿参数的中英双语预训练大型语言模型GLM-130B。在此基础上,2023年3月推出了ChatGLM-6B模型,这是一个支持中英双语的对话语言模型,特别优化了中文问答和对话的生成能力。通过对大约1万亿中英标识符进行训练,并配合监督微调、反馈自助和人类反馈强化学习等技术,ChatGLM-6B模型已能产生极为符合人类喜好的结果。此外,还有一些基于ChatGLM的特定领域应用模型也相继被研发出来,例如DoctorGLM等。 + +**(2)人工智能大模型的局限及发展趋势** + +尽管如ChatGPT这样的大型语言模型标志着聊天机器人的进步,从简单的任务自动化走向更深层的智能,但在技术和安全方面还面临着诸多挑战和风险。 + +技术局限: + +* 输出存在真实性和偏见问题。 虽然通过RLHF算法优化了模型的输出以更贴近人类意图,大型语言模型仍有可能生成违背常识、带有偏见和歧视的不当回复。多样化的评价指标也难以确保模型在各方面达到均衡,仍有真实性存疑的风险。 +* 缺少实时自学能力。 大型语言模型作为一个封闭系统,缺乏可解释性,基础模型也难于根据新数据更新知识库。尽管“预训练+提示”模式能够使得模型输出更接近人类意图,但这种基于提示的学习方式不能及时地吸纳新知识,也不适合处理长篇复杂或高度专业的语言结构内容。尽管可以通过微调模式来集成新知识,这种方式效率较高、成本较低,但可能会造成所谓的“灾难性遗忘”。 +* 依赖大量高质量数据。 大型语言模型的表现取决于庞大的、高质量的训练数据。尽管RLHF算法降低了部分数据标注成本,但仍依赖于大量的高质量标注数据。训练数据中的语言风格、用语习惯及标注者的个人偏好都会对模型产生重大影响。另外,对于资源较低的语言,优质的训练数据较少,使得模型在这些语言上的表现难以达到英语处理的水平。 +* 语言生成的趋同性和单一化。 虽然大型语言模型的文本生成速度快、准确率高,但它们在语言多样性和富有表现力方面尚有不足。与谷歌翻译等翻译工具相比,在处理常见语言时表现出色,但对于资源较少的语言则表现较差。如ChatGPT的英文训练数据量远超其他语言,导致其多语言处理能力有限。 +* 需要大量计算资源。 大型语言模型的部署和运行依赖于高性能的计算资源,这意味着巨大的能源消耗和环境成本。因此,模型的轻量化和性价比更高的计算平台的开发迫在眉睫。 + +安全风险: + +* 数据隐私问题。 大型语言模型可能在未经充分授权的情况下处理用户数据,存在个人隐私泄露或滥用的风险。 +* 信息安全问题。 模型可能在缺乏可靠来源支撑的情况下生成看似可信的内容,对判断能力不足的用户构成潜在误导。同时,由于用户群体庞大,这些模型具备一定的社会舆论引导和动员能力,可能引起信息传播的安全隐患。 +* 数据伦理问题。 模型输出可能反映训练数据中存在的偏见,包含歧视性或违反社会准则的内容。此外,面对不同文化和社会背景,模型可能无法做出恰当的反应,增加了跨文化伦理的风险。 +* 降低违法犯罪成本。 技术的操纵性使得它可用于帮助犯罪行为,如通过仿真社交环境诱导透露敏感信息,从而便利了犯罪活动。 +* 鉴于大型语言模型在技术层面的局限和安全层面的风险,其发展不仅需要技术创新,也需要政策监管和安全上的保障。 + +技术改进方向: + +* 从 “大规模” 到 “轻量化” 模型的转变。 研究揭示了模型的参数量、数据量、以及训练过程的计算量与效果之间的缩放关系。虽然品质随规模增加而提升,但这也带来了对计算资源的巨大需求。为了降低成本,当前趋势是采用模型压缩技术,如量化、剪枝和稀疏化等以减小模型规模和计算需求。 +* 从 “单一模态” 到 “多模态” 模型的发展。 大型语言模型正逐渐引入更多的多模态信息,例如图像和声音,以更好地与人类认知对齐,满足多样化的应用需求。这需要更丰富和高质量的训练数据,有助于提升模型性能。如GPT-4和KOSMOS-1,已经开始将多模态特性整合进模型中。 +* 从 “通用模型” 到 “领域特定垂直模型” 。 通用大语言模型无法充分满足个性化需求且训练成本高昂,未来的发展将转向针对特定行业以深入解决行业痛点的垂直领域模型。这类模型的训练成本、资源消耗均小于通用模型,并且能够提供更加专业、深入的行业解决方案。例如,Bloomberg News基于GPT-3为金融领域定制了模型,谷歌推出了医学和安全两个领域的专用模型Med-PaLM 2和Sec-PaLM 2。 + +政策调整与安全监管: + +* 人工智能监管成为全球政府关注的重点,当前缺乏针对生成型人工智能的专门监管机制和完善法规。 +* 构建人工智能风险评估框架。 明确大型语言模型如ChatGPT的潜在风险指标并通过评估来发现及处置隐患,加强监管和制定风险防范计划。 +* 强化多维监管和责任落实。 涉及技术、行业和主体信用的多层面监管措施,例如算法备案制度、基于风险分级的行业规则和法律责任机制,以及企业和个人对应的安全义务和法规。 +* 推动法律适用和行业自律。 将现有的法律如《网络安全法》、《数据安全法》、《个人信息保护法》扩展适用到大型语言模型,同时建立行业法律与规范,促进自律机制的形成。 + +大型语言模型如ChatGPT在人工智能的发展中起到了标杆作用,不仅展示了出色的通用性能和逻辑推理能力,也带来了转变AI研究的范式和应用模式。未来的发展趋势将是模型轻量化,多模态能力的扩展,以及向垂直领域模型的演变。与此同时,政策监管将必不可少,确保技术的创新发展与社会安全、伦理和法律框架同步前进。 + +**(3)人工智能产业链及主要参与者** + +人工智能产业链是硬件软融合、多主体参与的复杂生态系统,主要包括基础层、技术层、应用层三层,如图2所示: +  +![](https://i-blog.csdnimg.cn/direct/ff1cbd420cc94db38917e4312c04e56b.png#pic_center) +图2 人工智能产业链三层结构 + +基础层(Infrastructure Layer)主要包括算力和数据。包括硬件基础、数据资源和云计算平台三个组成部分。硬件基础主要为AI芯片的研发与制造企业,为AIGC(Artificial Intelligence Generated Content,即人工智能生成的内容)提供算力支撑深度学习和算法运行。数据资源同样属于基础层,包括数据的收集、清晰、存储和管理,以语言类大模型为例,“token”是最基本的数据处理单元,需要将数据处理为token,经过编码后变成一个唯一的数字ID,这样模型就可以通过数学运算来处理原本难以解析的自然语言文本。模型通过学习海量token及其在上下文中的关系,建立起对语言的理解和生成能力。云计算同样也是重要的基础设施,通过云操作系统,支持大规模分布式计算、容器化部署和弹性扩容,为企业和开发者提供便捷高效的数据处理和模型训练环境。 + +技术层(Technology Layer)主要包括算法和AI训练工具。机器学习、深度学习、自然语言处理(NLP)、计算机视觉(CV)、强化学习等各种人工智能核心算法。中间件与工具:如TensorFlow、PyTorch、Keras等开源框架,以及各类AI开发工具包,用于构建、训练和优化AI模型。 + +应用层(Application Layer)主要包括解决方案和智能终端。将AI技术应用于不同行业的解决方案通常是一系列应用和功能的综合组织,如智慧城市解决方案。另一个重要部分为面向终端消费者提供的服务,包括智能手机、智能音箱等硬件,也包括虚拟助手、AI客服机器人等直接面向消费者的产品和服务。 + +此外,产业服务在人工智能产业链中也占据着重要地位,包括三类内容:一是咨询服务,即提供AI战略规划、项目实施等咨询服务的企业。随着人工智能技术与产业应用的融合程度提升,这类服务需求激增。二是教育培训机构,主要为AI人才提供职业教育培训和在线课程平台,支持从业者获取最新职业培训。三是标准制定与测试认证方。参与制定AI相关国际国内标准的组织,以及提供AI产品性能测试与认证的服务机构。 整个产业链还包括政策法规制定者、科研机构、投资机构等多元角色,共同推动人工智能技术的发展和应用落地。随着模型技术发展,对不同模型性能的测评已经成为驱动模型技术发展的重要力量。 + +国际上对大模型(尤其是大型预训练语言模型)的测评主要聚焦于其在多个任务上的表现、泛化能力、资源效率、可解释性等多个维度。以下是一些通用且重要的评测标准和内容: + +跨任务评估: + +* GLUE Benchmark (General Language Understanding Evaluation):针对自然语言理解任务设计的一套基准测试,包括文本蕴含、相似性判断、问答等多种任务类型。 +* Big-Bench:谷歌推出的大规模语言模型评估基准,包含众多涉及常识、逻辑推理、数学能力和世界知识等复杂任务。 +* Multi-Task Evaluation Suites:XTREME,跨越多种语言和任务类型的评估基准,测试模型在翻译、句法分析、命名实体识别等多个任务上的性能。 +* MMPT (Multilingual and Multitask Prompted Training):考察模型在多语言环境下对多种任务的零样本和少样本学习能力。 +* Foundation Model-Specific Benchmarks:C-EVAL,这是一个针对基础模型(Foundation Models)的多层级多学科评估套件,旨在全面评估模型在广泛NLP任务上的高级能力。 + +此外,IEEE大模型标准工作组也在制定相关标准,包括《大规模深度学习模型评估框架及流程》,涵盖了从模型性能到部署实践等全方位的评估内容。随着技术的发展,新的评估基准和指标不断出现,旨在更全面地反映大模型的真实效能和潜在风险 +  +从参与者类型来看,人工智能产业主要参与者包括硬软件及算法研发、产业应用、监管部门及协会组织等组成,也有覆盖链条较长、环节较多的头部互联网平台: + +* 科研机构:如大学、研究所等,负责前沿理论研究和关键技术突破。 +* 科技巨头:如谷歌、微软、亚马逊、阿里巴巴、百度、腾讯等,拥有强大研发实力,覆盖从基础技术到应用产品的全产业链条。 +* 创业公司与独角兽:专注于某一细分领域的AI技术或应用,例如商汤科技、旷视科技、优必选等,在人脸识别、图像识别、语音识别、具身智能等领域具有影响力。 +* 芯片制造商:如NVIDIA、英特尔、AMD、华为海思等,提供专门针对AI计算需求的硬件支持。 +* 数据服务商:提供数据标注、数据清洗等数据预处理服务的企业。 +* 垂直行业企业:将AI技术集成进自身产品和服务的传统行业企业,如医疗影像诊断公司、自动驾驶汽车制造商等。 + +此外,政府、行业协会、投资者和用户也是产业链中的重要组成部分,共同推动着人工智能产业的发展与创新。 + +**(4)人工智能产业市场规模及增长趋势 ** + +人工智能产业近年来在我国高速发展。据中国信通院测算,2022年中国人工智能核心产业规模达5080亿元,同比增长18%;初步统计,2023年人工智能核心产业规模达到5784亿元,增速达13.9% 。2023年随着ChatGPT带来的生成式人工智能大模型发展,人工智能市场格局发生突变,生成式人工智能发展带来算力需求涌现。2023年11月3日,人工智能计算大会发布的《中国人工智能计算力发展评估报告》显示,2023年我国人工智能算力市场规模将达到664亿元(IDC预测24年中国AIGC市场规模在14亿美元左右),同比增长82.5%,人工智能算力需求快速增长。从地区分布看,北京、杭州、深圳、上海、苏州排名前五,智算中心的建设是拉动地区实现人工智能发展的重要驱动力。未来中国人工智能市场发展要取决于应用普及速度。 + +当前从行业渗透率看,互联网行业作为人工智能技术应用的主阵地居于首位,电信、金融和制造业排名靠前。从应用场景看,知识管理、对话式应用、代码生成等是企业应用人工智能的主要场景。目前,67%的中国企业已经开始探索人工智能的应用机会或已经开始进行相关资金投入,中国的人工智能技术应用已经迈入加速阶段。预测到2027年之前,中国智能算力规模年复合增长率将达33.9%,同期通用算力规模年复合增长率为16.6%。IDC预测中国到2027年,人工智能市场总体规模将接近400亿美元。 + +在应用层,IDC调研显示,在未来一年半左右,所有企业都会把生成式AI当做一个企业发展的核心,预计接近40%的核心业务将会被生成式AI所影响,企业在AI方面的投资增长接近25%。 + +**(5)开源在人工智能产业中的作用和现状 ** + +开源技术在计算机科学和技术的发展中扮演着至关重要的角色,从早期的Unix生态系统到如今的大规模AI和云计算,开源运动一直驱动着创新、协作和共享知识的进步。开源技术在每个阶段都显示出了其降低准入门槛、加快创新速度、保障软件质量和安全、以及促进社区合作与共享成果的独特优势,从而对计算机技术的发展产生了不可估量的影响。 + +对于人工智能产业发展,开源技术使得人工智能领域的研发不再是封闭的个体行为,而是全球开发者共同参与的过程。诸如TensorFlow、PyTorch、Keras等开源框架促进了深度学习和其他AI技术的迅速迭代和标准化,大大加快了整个行业的研发速度。企业和个人开发者可以免费使用开源AI工具和平台,降低了入门门槛和开发成本,尤其对于初创公司和科研机构来说,不必从零开始构建基础设施,可以直接在开源基础上进行创新。大量人工智能开源社区的繁荣鼓励全球范围内的开发者、研究人员和企业进行合作交流,通过贡献代码、文档、模型和案例,形成了一个高度活跃的知识分享网络,提高了整体技术水平和解决方案质量。开源环境为人工智能人才提供了实践和学习的平台,通过参与开源项目,开发者能够提升技能,熟悉最新技术动态,解决实际问题,从而快速成长为符合市场需求的专业人才。开源促进了产业链上下游的整合与联动,如硬件厂商优化对开源框架的支持,企业围绕开源项目打造产品和服务,形成健康的生态系统。 + +引发本轮人工智能大模型浪潮的Transformer架构自2017年由Google的研究团队在论文《Attention is All You Need》中首次提出以来,彻底革新了神经机器翻译和其他序列转换任务的方法,取代了传统的循环神经网络(RNN)和卷积神经网络(CNN)在许多自然语言处理任务中的地位。Transformer通过自注意力机制解决了长距离依赖问题,并因其并行计算友好性而大大提高了模型训练效率,公开的理论研究推动了工程化实践。TensorFlow & PyTorch TensorFlow由Google Brain团队开发,PyTorch由Facebook团队开发,这两个深度学习框架的开源极大推动了AI研究和应用的进程。研究人员和工程师可以轻松访问先进的模型和算法,从而快速迭代新的AI解决方案。 + +2023年Meta推出的开源LLaMA模型(Large Language Model by Meta AI, 或简称Llama)提供了多种参数规模的语言模型供研究者和开发者使用,降低准入门槛,使得更多人能够参与到大模型的研发与应用中来,促进了整个领域的开放性和透明度。LLaMA模型在Transformer架构基础上可能进行了创新性的改进和优化,包括但不限于对注意力机制的改进、模型结构的精简或增强等,这些技术进步不仅提升了自身模型性能,也为后续大模型的设计提供了参考和借鉴。LLaMA系列模型开源了多个参数量级,从小规模到大规模均有布局,且在诸如对话场景等方面表现优异,这表明它们能适应不同的应用场景需求,有助于推动大模型在实际业务中的广泛应用。开源的LLaMA模型让较小规模的研究团队和公司也能获得高质量的语言模型资源,减少了对闭源商业大模型的依赖。 + +美国模型开源社区已经实现商业转化。Hugging Face人工智能开源社区专注于自然语言处理(NLP)领域,重点围绕NLP模型开源、模型库、工具和API开源,成立于2016年。最为人所知的是其开源项目Transformers库,这个库包含了一系列基于Transformer架构的预训练模型,比如BERT、GPT-2、RoBERTa、XLM-R等,极大地推动了NLP研究和应用的民主化进程,使得开发者无需从头开始训练模型就能快速实现诸如文本生成、问答、文本分类等多种任务。Hugging Face 还运营了一个名为“模型_hub”的在线平台,用户可以在上面发现、分享和使用各类AI模型和数据集。该平台吸引了包括微软、Meta、OpenAI、英伟达等在内的诸多企业和研究组织参与,共同促进AI技术的开源和协同创新。随着社区的发展和影响力的扩大,Hugging Face 公司也获得了资本市场的高度认可,截至2023年数据显示其估值达到了20亿美元,反映出开源模式在AI产业发展中的重要性和前景。 + +在中国,随着开放原子开源基金会等组织的成立和推进,国内开源生态环境得到了大力扶持与发展,越来越多的企业和个人参与到开源AI项目中,提升了本土创新能力。截止至2023年底及2024年初,中国在大模型领域的开源活动相当活跃。截止到2023年底,阿里通义千问、智谱chatGLM、幻方量化deepseek-67B模型、零一万物的Yi-34B模型、百川的baichuan2-13B模型等陆续开源。阿里与中国计算机学会共建AI开源社区魔搭是目前国内最大的模型开源社区,共开源模型超4000个,阿里贡献了超千个行业最优模型,智源研究院、智谱、百川、澜舟等海淀研究机构和大模型企业积极参与社区贡献;汇集全球开发者超450万,累计提供免费算力超3000万卡时。百度星河社区包含飞桨PaddlePaddle深度学习框架等核心项目,旨在搭建起产学研用一体化的开源生态,推动国内AI技术的研发与应用。北京智源人工智能研究院作为国内领先的人工智能研究机构,同样积极推动开源工作。虽然没有具体的案例细节,但推测其可能通过开源研究成果、工具和平台等方式,来促进学术界与工业界的深度融合,培养高质量的人工智能人才,并帮助中小企业更快地采用和落地先进的人工智能技术。 + +**(6)人工智能开源面临的问题、风险和挑战** + +人工智能开源的确促进了技术进步和行业生态的繁荣,但也面临着多维度的问题、风险和挑战。 + +一是安全漏洞与滥用风险。一项2018年的研究表明,通过对GitHub上的数十万个Python项目进行扫描,发现许多流行的机器学习库存在可利用的安全弱点(来源:OWASP ML-Security Project)。开源AI模型容易被复制并用于恶意用途,比如生成伪造的内容,或者在未经适当安全措施下应用于关键基础设施,从而增加安全风险。 + +二是知识产权与商业利益冲突。尽管许多大型科技公司在推进AI开源项目,但他们在保护自己的核心技术知识产权方面仍然非常谨慎。例如,Google虽然在TensorFlow等项目上采取了开源策略,但在某些高级功能和最新研究成果上仍会有所保留,以维持自身在市场中的竞争优势。 + +三是模型偏见与伦理问题。2020年,MIT Media Lab的一项研究指出,语言模型如GPT-3在处理性别、种族和社会敏感话题时表现出显著的偏见(来源:《On the Dangers of Stochastic Parrots》)。 + +四是合规与监管挑战。随着GDPR等严格数据保护法规的出台,开源AI项目在处理个人数据时需要格外注意合规性。例如,欧盟在2021年强化了AI相关的法规草案,其中特别提到AI系统的可追溯性和透明度要求,这对开源AI提出了更高的合规门槛。 + +五是标准化与互操作性。在开源AI领域,不同的框架、模型和工具之间的互操作性一直是挑战。例如,尽管PyTorch和TensorFlow都是开源的深度学习框架,但是它们之间的模型转换和代码移植并不总是无缝对接。为此,业界一直在努力推进统一的标准和中间件,如ONNX(Open Neural Network Exchange),以促进跨平台和框架的兼容性。 + +六是可持续发展与社区维护。开源AI项目在初期可能得到大量关注和支持,但后续的维护和升级却可能因资源有限而受阻。例如,很多开源项目由于缺乏持续的资金支持和技术投入,随着时间推移可能会失去活力,导致安全性更新滞后,或是不能及时适应技术发展趋势。 + + +### 3.3.2 中国人工智能技术实力 + +**(1)中国人工智能大模型发展历程** + +自从20世纪50年代人工智能技术诞生以来,已经历了从专家系统到机器学习,再到深度学习以及当前的大模型时期四个重要发展阶段。尽管前三个阶段因受限于数据、计算能力、应用场景和投资效果等因素而没有完全实现AI产业的商业化,大模型时代凭借其通用性、涌现性及强大的计算力,在商业应用成熟度上显示出巨大潜力。 + +专家系统阶段:在早期,专家系统是人工智能领域的先锋,主要采用规则和推理方法来模仿专家知识。专家系统通过编码专家知识与规则,结合推理引擎来模拟解决问题的决策过程,但受限于构建知识成本高、表达困难和泛化技术能力弱,仅在商业化循环的数据及知识层面取得进展。 + +机器学习阶段:随后,基于数据的机器学习方法推动了人工智能的进步。其核心是从数据中识别出模式和规则,为计算机系统赋予智能行为。但彼时受限于适用场景较少、对训练数据的严重依赖及计算资源的限制,主要进步在“算法+算力”层次。 + +深度学习阶段:深度学习作为机器学习的子集,通过使用深度神经网络学习模式识别,利用多层的神经网络结构掌握高层次的特征表达,但因泛化能力和投资回报率不足,并未形成完整的商业闭环。 + +大模型时代:目前,我们迎来了大模型时代。大模型代表了预测模型的重要演进,它们拥有巨大的参数量、复杂结构,能够展现前所未有的通用性和创新能力。随着数据和算力条件的成熟及对多任务有更高的适应性,大模型提高了技术的商业潜力,并有望构成一个自足的商业闭环。 + +从技术可实现性和未来的广阔空间来看,越来越多的参与者投身于发展大模型技术,为AI商业化开拓更广阔的天地。大模型阶段最终可能实现人工智能技术的商业利用,成为AI产业化的一个重要转折点。 + +自2022年12月ChatGPT-3.5问世以来,全球对超大规模语言处理模型的关注急剧上升。随后,中国高等院校等科研机构、科技巨头如百度、阿里巴巴、360和商汤科技等公司推出各式各样的大模型。至2023年6月,中国市场上涌现出大量的通用和领域特定大模型。目前,中国公开的大模型数量已超过300个,市场呈现出竞争激烈的多极格局,形成了一场被业内称为 “百模大战” 的竞争热潮。 + +在这个不断演变的大模型市场中,各家机构纷纷推陈出新,竞争激烈。2023年2月,复旦大学首发MOSS模型,北京大学随后推出了ChatExcel的测试版。3月,百度发布了文心一言,360推出了1.0版本智脑大模型,商汤科技推出了SenseNova,阿里巴巴推出了通义千问,昆仑万维发布了天工模型。4月,复旦大学开源了MOSS,同时,出门问问也发布了序列猴子模型。 + +接着不久,政策也开始响应市场热潮,北京和深圳相继出台了推动AI发展措施。6月,随着更多产品如百川智能的Baichuan-7B和科大讯飞的星火计划的加入,大模型行业的发展态势愈发显著。其中,10亿级参数规模以上的大模型数量已达79个,41个算法模型完成了备案。 + +随着时间推进到2023年下半年,新的参与者持续涌入,像华为、京东和网易等也加入了这场大模型的竞赛,带来更多更新的版本和应用,让市场竞争的格局日趋明朗。各大机构的新模型和更新迭代,如百川智能的Baichuan-53B、腾讯的混元大模型、蚂蚁金融的大模型以及上海人工智能实验室的书生系列模型,都是这一时期的杰出代表。 + +进入2024年,中国大模型领域持续蓬勃发展。各类大模型纷纷涌现,完成备案的模型数量不断攀升,显示出行业的高速增长和法规的积极跟进。各家企业不断推出新的升级版大模型,从华为的盘古升级版到商汤科技的SenseChat V4,再到抖音发布的AI构建平台Coze“扣子”,持续引领着行业的风潮。 + +总之,伴随着“百模大战”的激烈竞争,通用和垂类大模型的发展格局逐渐明朗,竞争日益激烈。这些模型在赋能行业转型升级的同时,中国的AI大模型产业正奔跑在走向更加智能的未来,迈向人工通用智能(AGI)时代的征程上。 + +**(2)中国在人工智能芯片、系统等硬件算力层面的实力** + +随着ChatGPT的广泛流行,AIGC行业得到了行业界和公众的集中关注。大规模语言模型的拓展正推动着AI计算力市场步入新纪元,积极构建起强健的AIGC运算基础架构。在复杂的系统工作中,大模型的训练不仅是一项系统性挑战,而且也需要系统化的计算支撑。基于这一背景,我们开展了AIGC领域计算力的深入研究,力图在AIGC产业不断演进的过程中,把握并理解其计算力发展的各种动态。 + +在AIGC元年,计算力已成为驱动整个产业进步的核心动力,决定着技术的发展节奏和质量。AI的计算能力不仅局限于模型训练,它还支持多领域、多场景下的AI应用,催生出多样化的产品和服务新模式。 + +2022年年底,得益于ChatGPT的成功,我们见证了大量高参数规模的通用大模型相继问世。这些大模型的训练过程不仅需要处理千亿乃至万亿数量级的参数,还要经历上千GB的高质量数据,训练过程中的迭代次数进一步加剧了对高性能计算资源的需求。 + +AIGC产业的飞速发展,在很大程度上依赖于我们称之为 “暴力美学” 的强大计算资源,而具体的应用实践需要计算力在现实场景中的有效落地。AI技术实际应用包含两个关键环节:训练与推理。训练涉及通过海量数据构建AI模型,旨在满足特定需求,代表着AI技术的研发过程,进一步高级化的参数量对计算力需求极大。而推理环节则利用训练完善的模型,通过处理实际输入数据获得相应的结论,通常体现在日常应用中,关键是对于实际应用场景数据吞吐量的处理能力。 + +AIGC领域的运算能力是一个工程化的产物,涵盖了从微芯片设计到综合资源服务的多个层面。随着未来大规模模型的产业应用不断深入,其所要求的系统工程变得更为复杂,中心任务是建立起既高效又稳定的计算力支撑平台。在这个过程中,成熟的算法技术、健全的数据链、配套的工具集以及广泛的生态系统构成了实现优化解决方案的关键要素。 + +在构建AI计算力平台方面,软硬件的兼容性以及调优性能的专业技巧是保证AI系统适应性和稳定性的重要保障。这些细节处理所需要的技术知识不是由单一参数或简单组件就能决定的,而是需要通过综合考虑多方面因素并应用深层次的工程专业知识的。 + +AIGC行业的快速扩展加速了AI芯片市场的增长,并促进了产品线的多样化。随着生成型人工智能技术的进步及其在各种场景中的应用,如数据中心、边缘计算基础设施以及终端设备等,对AI芯片的生产和应用需求也随之增加。展望未来,据预测到2027年AI芯片市场的规模将超过2023年的两倍,达到接近1194亿美元的高峰。这一显著增长反映了AI芯片在技术进步和市场拓展两方面的重要作用。 + +随着大模型的参数数量经历了指数级增长,训练这些模型的过程迫切需要依赖于由GPU组成的集群化计算资源。 + +在AI芯片的定义中,更为狭隘的理解是指那些为人工智能算法特别设计以实现加速的芯片。当前,随着深度学习算法在人工智能界的认可度和实际应用的快速增长,AI芯片主要被定义为那些专门为处理和训练大规模数据集以及执行推断任务而优化的芯片。 + +在AIGC时代,随着模型复杂度的增加,内存成为了计算力有效利用的关键决定因素,这要求我们探索崭新的内存解决方案。例如,Transformer模型的参数在短短两年内增长了240倍,而相对应的,单个GPU内存的容量却仅仅以每两年翻一番的节奏增长。AI模型训练对内存的需求往往是参数数量的数倍,因此对内存的需求迅速触及了现有技术的上限,这里的“内存上限”不但涉及容量问题,还包括数据传输带宽的制约。 + +此外,数据通信已成为另一个影响计算力的瓶颈。这个问题涵盖了芯片内部、不同芯片之间以及AI加速器之间的所有通讯环节。在过去二十年间,尽管我们见证了算力的显著提升,存储技术从DDR一直进化到GDDR6x,并且接口标准也从PCIe 1.0a更新到NVLink 3.0,通信带宽的增长率却仅有30倍。从长远来看,仅依靠增加显存的方式来解决问题是不可行的。因此,我们需要更高效的方法来处理数据通讯问题,以便真正打破AI训练方面的限制。 +  +存算一体技术彻底革新了解决存储墙问题的方案,优化了对Transformer架构算法的兼容性。在传统的冯·诺依曼体系结构中,数据处理过程依赖数据在内存和计算单元之间的频繁移动,由此产生了有限带宽导致的数据交换速度瓶颈,同时引发了存储墙和功耗墙问题。实际计算能力因此常常低于理论峰值。 + +通过在存储器中直接处理数据,存内计算技术有助于提高实际算力,可以突破因带宽限制产生的计算瓶颈。该技术利用存储器本身进行数据的直接处理,实现了存储与计算的同步进行,解决了传统架构下数据传输的限制,并降低了能耗。 + +特别是在人工智能和深度学习领域,这种计算理念优势显著。深度学习算法处理密集的矩阵乘法运算——一种乘累积过程,通过存算一体架构直接在存储结构内完成这些运算,既提升了能效比,也降低了延迟。生成式AI常用的Transformer结构,特别适合通过存内计算得以高效运作。 +综合来看,从云服务、大模型一体化设备到智能计算中心和服务器,再到计算芯片供应商,这些构成了当前AIGC领域计算力发展的核心。这类技术的发展,对于推动人工智能领域的创新和应用至关重要。 + +**(3)中国人工智能开源生态的代表性组织和项目** + +随着人工智能大模型产业的飞速发展,模型的开放性成了业界热议的话题。基于模型源代码和训练数据公开程度的不同,大模型可被归类为开源和非开源两种模式,双方之间的争论日趋激烈。开源模式以其能够激发创新和促进生态系统繁荣而备受推崇,而非开源模式则以其出色的安全性和严格的质量控制著称。 + +在国内市场,一些大模型公司选择了走开源的道路,但对企业来说,是否开源需要评估其自身的技术优势和发展战略。例如,阿里巴巴选择了开源模式,以其强大的算力资源支持和对生态系统繁荣的推动为考量;而华为则保持其大模型的非开源状态,以确保“AI for Industries”战略下用户数据的安全性。 + +开源模式的优缺点分析如下: + +优点: + +* 创新发展:吸引更多开发者参与模型的改进,推动技术创新; +* 透明度高:代码和模型公开使得众多参与者能够进行直接审查,增加了安全信赖; +* 安全可靠:开源将使AI具有更大潜力来提升其创造力和协同能力,而对AI发展尤为关键的安全更离 +* 不开开源,AI技术发展的前沿是安全问题; +* 生态共建:便于建立积极的社群环境,促进大模型的持续升级与完善。 + +劣势: + +* 滥用风险:可能会导致模型被不当修改或用于网络攻击等安全问题; +* 安全标准缺失:由于开源项目来自不同实体,其安全性和维护水平参差不齐。 + +非开源模式的优缺点分析如下: + +优点: + +* 质量管控:更好地维持模型的稳定性和质量控制,确保用户体验的一致性; +* 数据隐私:增强了用户数据的保护,减少了数据滥用的风险。 + +劣势: + +* 创新局限:可能对技术多样性和突破性创新构成障碍; +* 垄断风险:增加了行业进入门槛,对新进入者造成排挤,有可能导致市场垄断。 + +在决策时,企业应选择适合自己的模式,并考虑到行业格局和长远发展。 +阿里巴巴在自研大模型领域内采取开源行动,目标是通过开源策略使得广大中小企业和AI开发者得以更便捷、更及时地接触并利用其通用型人工智能模型 “通义千问” 。截至2024年2月,阿里巴巴已经分多阶段开放了多个版本的模型。 + +自2023年8月以来的开源历程概述如下: +* 2023年8月,发布了70亿参数的 “通义千问” 模型 Qwen-7B。 +* 2023年9月,开放了140亿参数的 “通义千问” 模型 Owen-14B 以及其对话型模型 Qwen-14B-Chat。 +* 2023年12月,对720亿参数模型 Qwen-72B、18亿参数模型 Qwen-1.8B 和专为音频设计的 Qwen-Audio 模型开放了源代码。 +* 2024年2月,推出了 “通义千问”开源模型的1.5版本,包括0.5B、1.8B、4B、7B、14B、72B六种规模的Base和Chat模型。 + +智谱AI: + +![](https://i-blog.csdnimg.cn/direct/027a6978a9784fb5becd0168d58cdc52.png#pic_center) +图 3 智谱AI开源地图 + +自2021年开始,智谱AI就致力于推进大模型的开源事业,陆续推出了包括GLM-10B、GLM-130B和CodeGeeX等一系列开源项目。迄今为止,智谱AI的开源模型数量已超过20个。特别是ChatGLM系列,在GitHub上获得了6万stars、7,300多个forks的卓越表现,在Hugging Face平台上下载量超过1300万次,连续四周位居趋势排行榜首。在科技部发布的《中国人工智能大模型地图研究报告》中,ChatGLM-6B模型的开源影响力位列首位(如图4)。此外,项目团队也被评为全球最高点赞AI机构之一,位列第五,并且是国内唯一入选的组织。 + +![](https://i-blog.csdnimg.cn/direct/d610a75ccd40441c890d2dcb3690f892.png#pic_center) +图4 中国人工智能大模型地图 +  + +### 3.3.3 中国人工智能产业发展现状与挑战 + +**(1)人工智能技术在中国的应用现状及典型案例** + +根据北京市经信局统计,截至2024 年3 月25 日,全国大模型企业总量达到了352个,北京大模型企业数量持续超过半数。大模型广泛应用于交通安全、智能制造、金融服务、教育、医疗健康等领域。百度、阿里、腾讯等在内的大型科技公司以及众多初创企业和科研院校,均在积极探索和实践人工智能大模型技术,研发和应用领域涵盖自动驾驶、语音助手、推荐系统、搜索引擎优化等。人工智能技术在中国的应用现状表现出以下5个显著特点: + +* 一是产业规模持续扩大; +* 二是核心技术突破迅速,机器学习、深度学习、计算机视觉、自然语言处理等方面取得了重要进展; +* 三是行业应用深入。包括但不限于金融、医疗、教育、农业、交通、智能制造、智慧城市等。比如,在金融领域实现风险评估、反欺诈;在医疗健康领域辅助诊断、精准医疗;在教育领域个性化教学;在城市管理中实现智能化监控和公共服务智能化升级; +* 四是政策支持力度大。中国政府高度重视人工智能产业发展,将其列入国家战略层面,出台了一系列政策和规划予以支持。各地政府也在积极建设人工智能产业园区,吸引和培育相关企业,推动产业链协同创新发展; +* 五是人才需求旺盛。中国企业在人工智能人才的需求上极为迫切,许多企业愿意提供更高的薪资以吸引和留住具备AI技能的员工。同时,教育培训体系也在逐步完善,以满足市场对人工智能专业人才的需求。 + +当前应用案例主要集中在toC服务、生产辅助、硬件融合、辅助决策、智能制造5个方面。 + +2023年6月,修图AI 应用妙鸭相机爆火。妙鸭利用AI算法优化照片质量,包括但不限于提升画质、修复瑕疵,并可以生成与用户上传照片类似但风格各异的新照片。用户上传自己的照片后,软件通过AI技术构建人脸模型并与其他模型合成,生成不同风格的写真照片,大大简化了传统修图流程。 + +智谱CodeGeeX是由北京智谱华章科技有限公司研发的一款基于大模型的智能编程助手,旨在通过先进的人工智能技术来提升软件开发的效率和质量。CodeGeeX结合了大规模预训练模型和深度学习技术,提供实时代码建议、自动补全、从自然语言生成代码、代码分析与改进、自动生成注释、搜索相关代码示例及跨语言转换等功能。 + +阿里云通义千问与联想合作推出的AIPC(即AI个人电脑)产品,该产品集成了阿里云的通义千问大模型,实现了人工智能与联想个人电脑的深度融合。该产品支持自然语言交互,提供便捷的信息查询、文件管理和智能办公等功能,利用通义千问的语言处理能力增强用户体验和设备智能化。 + +**(2)人工智能相关企业和机构的发展状况** + +中国人工智能明星企业源于初代“AI四小龙”——旷视科技、商汤科技、依图科技、云从科技,是中国人工智能领域的领军企业,特别是在计算机视觉领域享有较高知名度。它们在人脸识别、图像识别、无人驾驶等诸多细分领域拥有前沿技术和创新应用。但因为AI企业普遍面临高昂的研发投入,长期处于亏损状态。例如商汤科技虽有巨额研发投入,但这也导致了较大的财务负担,即使上市,也需面对投资者对其商业模式可持续性的质疑。AI技术转化为实际收益的能力面临考验。尽管拥有先进的技术,但在大规模商业化落地过程中,如何找到稳定的盈利模式和市场切入点是一大难题,很多AI企业高研发投入与实际收入不成比例。随着全球及中国资本市场对AI赛道的投资热度趋于理性,投资方更加关注企业的盈利能力及可持续发展能力,这对于尚在烧钱阶段的AI四小龙来说,融资难度增大,不利于其快速扩张和持久经营。 + +大模型五小虎月之暗面、智谱、百川、Minimax、零一万物发展迅速。百川智能大模型Baichuan-13B-Chat(V2)在SuperCLUE的2023年8月排行榜中夺得国产大模型的榜首位置,表明百川在自然语言处理领域的技术水平处于领先地位,并且在2024年持续加强研发投入和模型迭代,扩大市场影响力。Minimax获得了阿里集团的高额投资,成为“大模型五虎”之一。智谱AI作为大模型独角兽之一,其发展态势同样值得关注。随着国内大模型市场的快速成长,智谱有可能在2023年强化了自身在学术研究、产业应用以及与多方的合作关系,推出新的研究成果或商用解决方案。零一万物被列入大模型独角兽名单,意味着它在大模型领域有一定的技术积累和市场份额。2024年,零一万物继续聚焦在自己的核心技术方向上,比如通用型大模型的研发,或者在某个垂直领域(如工业、医疗等)取得重要成果。月之暗面是成立于2023年4月17日的创新型科技企业,专注于通用人工智能。同年10月即推出了全球首款能处理20万汉字输入的智能助手产品——Kimi AI,显示出其在AI技术研发上的强劲实力和创新能力。 + +**(3)中国政府在人工智能领域的政策支持和规划** + +2018年10月31日,习近平总书记在十九届中央政治局第九次集体学习时讲话提出,加快发展新一代人工智能是我们赢得全球科技竞争主动权的重要战略抓手,是推动我国科技跨越发展、产业优化升级、生产力整体跃升的重要战略资源。2023年4月28日、5月5日中央会议关于人工智能发展提出三个第一次:第一次提出“通用人工智能”,第一次提出“产业智能化”,第一次提出“把握人工智能等新科技革命浪潮”。中国的各级地方政府积极响应国家对人工智能产业的战略布局,密集出台了多项政策,促进人工智能技术的创新与发。 + +其中,北京市于2024年启动“人工智能+”行动,适度超前建设5G、算力等基础设施。工信部则从三个方面出台支持政策:一是加快构建以先进制造业为支撑的现代化产业体系。改造升级传统产业、巩固提升优势产业、培育壮大新兴产业。推动新一代信息技术、智能网联汽车、航空航天、生物制造等新兴产业健康有序发展,加快北斗产业发展和规模应用。同时,超前布局建设未来产业。二是着力提升产业科技创新能力。加快推动以大模型为代表的人工智能赋能制造业发展。今年将开展“人工智能+”行动,促进人工智能与实体经济深度融合,推动人工智能赋能新型工业化。持续优化创新平台网络。三是推进信息化和工业化深度融合。当前,5G应用在工业领域深入推广,将适度超前建设5G、算力等基础设施,推动工业互联网规模化应用。同时,持续推进制造业数字化转型,积极建设智能工厂,实施中小企业数字化赋能专项行动,加快数字技术赋能,促进制造业向数字化、网络化、智能化发展。 + +总结来看,国内人工智能产业政策主要聚焦以下八个方面: + +* 一是为产业提供政策扶持和资金支持,设立专项基金,为人工智能企业提供研发补贴、税收优惠、贷款贴息等财政支持。鼓励社会资本投入人工智能领域,设立引导基金吸引风投和私募基金加大对AI初创公司的投资力度。 +* 二是加大力度支持基础设施建设如数据中心建设,为AI企业提供高性能计算资源和数据存储服务,并加强5G、物联网、云计算等新一代信息技术设施配套,为AI应用提供优质的网络环境。 +* 三是支持技术研发和成果转化。扶持高校、科研机构和企业开展人工智能核心技术攻关,重点支持深度学习、自主无人系统、自然语言处理等关键技术的研发。 +* 四是鼓励产学研用深度融合,建立科技创新联盟,促进科技成果转化为生产力。 +* 五是人工智能人才引进和培养,实施人工智能高端人才引育计划,提供优厚待遇吸引海外人才回国创业就业。支持企业与高校共建人工智能学院和研究生培养基地,加大人才培养力度,完善人才培养链条。 +* 六是开放应用场景。支持人工智能在智慧城市、智慧医疗、智能制造、无人驾驶等领域的应用示范工程。出台场景清单,鼓励企业申报和实施人工智能重大应用场景项目。 +* 七是标准体系建设和安全保障,包括加快人工智能技术标准和伦理准则的制定,推动形成完善的行业标准体系。强化人工智能安全技术研发,建立健全数据安全和隐私保护制度。 +* 八是加强产业集群和生态建设。包括支持开源社区、平台发展中,设立人工智能产业园区,构建产业链上下游协同发展的一体化创新生态。举办各类人工智能峰会、竞赛等活动,搭建交流展示平台,推动区域间交流合作。 + +**(4)中国人工智能产业发展的瓶颈和制约因素** + +我们可从中美人工智能发展差距理解中国人工智能产业发展的瓶颈和制约因素。 + +美国依托AI基础理论、云计算、芯片、开源生态、人才、数据、资本等优势,在这一轮AI竞争中取得先发优势并持续巩固提升。 + +算法层面:我国基础大模型能力尚未达到GPT-4。国内基础模型在复杂推理、数学、代码等能力方面存在明显短板。美即将发布新一代基础模型,性能有数量级的提升,如OpenAI今年可能推出GPT-5,性能将比GPT-4提升50%-100%。GPT-5及后续版本对算力、数据、资金、人才、工程化能力要求极高,赶超GPT-5及后续版本的难度会指数级提升,中国具备跟随能力的企业只有2-3家。尖端人才是大模型创新发展的重要基础,Sora团队仅13人,展现了年轻一代在AI大模型发展中的决定性作用。当今顶级的AI研究员工作所在地,美国占了60%,中国只有11%。 + +数据方面:我国缺少高质量的中文数据集。国内外基础大模型参数数据集主要以英文为主,如Common Crawl、BooksCorpus、WiKipedia、ROOT等,最流行的Common Crawl中文数据只占据4.8%。已上线中文数据集的整体数量和质量,与英文数据相差巨大,相当一部分内容非常陈旧。 + +算力层面:中国大模型企业需要迅速获得大量低成本、高效能的算力,而非芯片本身。单纯的芯片国产化替代暂时无法解决当前我国大模型面临的实际问题。美国已形成“芯片+云厂商”输出算力模式,芯片通过微软、谷歌、亚马逊等云厂商的公共云,形成低成本高效能的算力,服务大模型企业。但目前各地一哄而上建设“小散多”智算中心,不以公共云模式提供算力服务,导致算力利用率极低。 + +中美AI应用及产业生态差距拉大。基于应用场景的商业化闭环是AI竞争的焦点,是AI可持续发展的动能。当前美国大模型产业应用的速度、广度和深度都远超我国。一是美国AI产业应用速度快。OpenAI正式推出GPTStore,推动美国大模型进入了大规模的商业化应用阶段;二是AI大模型在美国的制造、法律、医疗等千行百业均有应用,微软、Adobe等美国科技企业正在持续使用大模型提升核心竞争力。近期微软市值更是超越苹果,成为全球市值最高的公司。美国AI原生企业数量全球领先,呈现出“千亿级+百亿级+十亿级+几亿级”不同估值规模、不同行业的AI原生企业,产业生态持续繁荣。 + +### 3.3.4 中国人工智能产业发展建议 + +**(1)加强人工智能大模型时代人才培养** + +大模型技术增强了人工智能的泛用性,它使得开发者们可以以更低的成本和门槛,针对特定场景研发出更优质的AI模型,从而加速应用型人工智能的落地。大模型被视作贯穿人工智能应用实施的关键路径,它触及的技术领域之广、知识和技能的交融程度之深,导致相关技术岗位既有高度的共性也有交集。在大模型时代,人才培育应着重考虑以下几个方面: + +* 国家正加紧推进人才培养工程,现阶段,诸如职业认证和技能标准的定义正在制定中,同时,人工智能大模型技术人才的培养模式正在创新之中,以期满足行业快速发展的需求和市场的期待。 +* 需要构建并完善人工智能人才培养体系,致力于培育一支知识渊博、素质卓越、执行高效的人才梯队,为大模型创新投入坚实的人力资源。 +* 需要建立一个多层次的人工智能大模型产业人才梯队,加强人才队伍的整体建设和层次分明的培育路径。 +总体而言,塑造一支与大模型技术发展相适应的高质量人才库是当务之急,这需要国家和企业各级的全面推动,为大模型技术的创新与进步打造坚实的人才保障。 + +随着数字经济的蓬勃发展和工业数字化转型的不断深化,新技术正日益成为推动社会进步的关键动力。在这股趋势中,新兴行业迅猛增长,诞生了大量新兴职业类型,如人工智能工程师、虚拟现实工程师、物联网工程师、大数据分析师、工业机器人操控师、无人机操作员、智能制造工程师、区块链工程师等。 + +中国人力资源和社会保障部在《中华人民共和国职业分类大典(2022年版)》中初次列举了97个与数字产业相关的职业,这其中就包括了人工智能工程技术人员与人工智能训练师,正体现着这些职业的重要性和规范化趋势。 + +成为一名合格的人工智能工程技术人员,需适应国家职业技能标准,这不仅是技术能力和知识的展示,更是职业教育和人才培养中的关键环节,确保从业者具有标准化的技能,满足不同行业对人工智能人才的需求,从而推动整个行业的全面发展。 + +人工智能工程技术人员职业技能标准涵盖五个主要模块: + +* 基本技能模块:要求从业者掌握数学、物理和计算机科学等基础学科,以及编程、算法和数据结构等专业技能,并应具备良好的语言沟通与信息检索能力。 +* 应用技能模块:从业者需要精通自然语言处理、机器学习、数据挖掘和计算机视觉等专业领域知识,能够自如开发和实施AI应用。 +* 管理和组织技能模块:要求具备项目管理、团队合作和沟通协调能力,确保项目进度高效率推进。 +* 创新技能模块:激发创新精神,能够主导科研活动,用创新思维解决实际工作中的问题。 +* 法律与伦理模块:强调法律意识和职业道德,确保在符合法规的框架下进行人工智能技术的研发和应用。 + +这一职业技能标准构成了一个完备且系统化的框架,有助于人工智能工程技术人员提升专业能力,达到行业要求,推动人工智能技术的广泛普及与应用。 + +人工智能训练师的国家职业技术技能标准专门为那些运用智能训练软件的专业人士而设计,这些人员负责管理数据库、调整算法参数、设计人机交互、跟踪性能测试以及从事其它相关辅助工作。这一标准将职业技能分为五个等级,从L5到L1,涵盖数据采集处理、数据标注、智能系统的运行与维护、业务分析以及智能系统的训练与设计等多个层面,并为每个等级的职业能力设定了具体的要求和标准。 + +人工智能训练师资格考试由理论知识考试、实操技能考核和综合评审组成。理论知识考试主要以书面或电脑化考试的形式进行,考查候选人对专业基础知识的掌握程度;技能考核则通过实际操作或模拟演练来评估其专业技能;而综合评审通常针对技术层级较高的职称,如技师或高级技师,通过审核相关材料及口试来进行全面评定。 + +在理论考试部分,根据不同等级的资格认证,所测试的理论知识领域也会有所不同。五级和四级主要考察数据处理等基础知识,而从三级及以上则需要涉及更加专业的技能,如智能系统设计以及指导培训等。 + +国家不仅在职业资格证书中增添了与数字技术相关的职业,还在2019年推出了“专业技术人才知识更新工程实施方案”,以应对经济社会高质量发展需求。该更新工程在诸如新一代信息技术、生物技术、新能源、新材料等战略性新兴产业领域进行了大规模的知识更新与继续教育。 + +重点项目中,数字技术工程师的培养项目专注于智能制造、大数据、区块链和集成电路等数字技术新兴职业。凭借技术创新和数据赋能,以及遵循国家职业标准和新职业培训教程,该工程对从业人员进行规范化培训和社会化评价,计划每年培训约8万名数字技术相关技能人员。 + +截至2023年4月,人社部在新闻发布会上宣布,这个项目已经初步构建了包括政策、组织、标准、培训和评价在内的完整体系,并计划拓展项目范围。北京市在7月提出的培训实施方案计划每年培养一万名数字技术技能人才,其他如重庆、山东、湖南等省市亦制定了相应的培养计划。 + +对于人工智能人才的供应和需求状况以及人才培养现况的分析,我们通过对人力资源社会保障部针对新兴职业的就业市场前景报告进行了综合梳理。在未来五年内,预计对与人工智能、数字化以及智能化紧密关联的新兴职业需求将大幅增长。 + +随着人工智能领域的蓬勃发展,高校作为培养相关人才的重要基地,在过去三年里极大地增加了人工智能专业的开设。根据《2022年中国人工智能人才发展报告》,已有440所本科高校分四批次获批设立该专业,占全国1270所本科高校的34.6%。自2019年以来,人工智能专业在教育部的支持下不断扩张,首批由35所高校开设,紧接着在2020年、2021年和2022年分别有180所、130所和95所高校获得批准。在这些被授权的440所院校中,包括81所985和211工程院校,113所一本院校,以及24所二本院校。这些人工智能学专业遍及全国29个省区市。 + +与此同时,众多企业也正在加强与高校们以及行业组织的合作,提升人才培育的力度。国内的头部企业如华为、阿里巴巴、腾讯和百度等均与高校合作进行产教融合,通过建立产业学院、共建专业、定制培养等多种方式进行人才培养,同时也利用企业的平台和资源开展人工智能人才的培育工作。 + +从国家层面、教育机构到企业,对人工智能人才的培育日益给予重视和投资。然而,我国在人工智能技能人才方面目前存在以下三大缺口: + +* 致力于推进前沿技术和基础理论研究的顶尖人才:这一群体以其在人工智能领域的深厚学术背景及研究资历,对技术前沿的持续推动和理论创新至关重要。由于这类人才较为稀缺,处于探索阶段和前沿的大型企业愿意支付高成本以吸纳他们。企业倾向于向国内外顶尖高校挑选充满潜力的毕业生,提供优质的研究资源和项目,从而进行人才孵化。 +* 能够将理论与实用相结合的算法模型设计人员:他们擅长将尖端理论与实际的算法模型互补,并在算法设计和优化上拥有丰富的实践经验。他们将自己的专业技能投入到设计高性能的算法模型中,以提升人工智能系统的执行效率。大型企业,特别是在人工智能领域的引领者,争相招募这类人才以推动公司的研发和创新。 +* 能够将人工智能技术与行业需求相结合的应用型人才:这些人才紧密结合行业需求,深刻理解各种应用场景,并利用人工智能技术解决实际问题,降低成本、效率以及提升产品和服务的质量。这类人才因应用范围广泛而需求量较大,企业在招聘时会特别关注其行业背景和实践经验,以确保能与公司的具体需求相融合。 + +为适应人工智能这一新技术革命不断涌现的人才需求,政府与教育机构亦相继出台了系列措施以培育和引导人才发展。2023年4月28日,中共中央政治局会议强调了重视通用人工智能发展的重要性,并提到要建立相关的创新生态和风险防范机制。网信办发布的《生成式人工智能管理服务暂行办法》旨在为AI大模型的长远发展建立规范。北京市进一步出台了《北京市促进通用人工智能创新发展的若干措施(2023-2025年)(征求意见稿)》,专注于加强算力资源供给、高质量数据提供、探索大模型技术体系以及推动技术创新等方向,提出了实施21条具体政策和措施。 + +在国家的整体战略和政策指引下,配合中国软件行业协会的服务目标,下面是我们对人工智能大模型技术人才的培养提出了以下思路和建议: + +* 结合“十四五”规划和行业需求,建立与本行业及目标受众适宜的人才培培养目标、体系和服务模式。打造连接企业、行业和教育的“桥梁式”人工智能大模型技术人才培养体系。 +* 贴近行业目标和企业需求,以工作实际所需的技能和知识为基础设计培养与认证体系,加强企业参与并借助专业教育资源,实现产教深度融合。 +* 利用行业研究资源和区域发展需求,针对性地提供人才培养,与当地服务建立人才实训基地,进行专业技能培训和认证,满足企业对人才的急迫需求。 + +**(2)促进产业应用融合创新** + +ChatGPT的发布预示了大模型技术时代的到来。虽然人工智能技术已实现显著突破,但其产业化和商业化仍面临不少挑战。现阶段,如何实现大模型的有效落地并使其赋能各行各业,已成为业界关注的中心议题。对大模型产业生态进行生态学层面的分解,可以将其分为四个层级:数字基础设施层(L1)、通用大模型层(L2)、行业模型层(L3)以及场景模型层(L4)。构建一个生态型的商业模式至关重要,需推动各生态参与者之间的能力共享与组合,灵活匹配核心能力和特有能力,以此推进大模型在各行各业的应用,共创未来的共享经济。 + +人工智能技术从早期的探索到现在已经经历三个发展阶段,但在商业和产业应用方面始终难以突破。1956年的达特茅斯会议首次引入了“人工智能”术语,当时人工智能领域主要局限于理论研究。1970年代,计算能力和算法取得进展,但数据量的限制阻碍了进一步发展。21世纪第二个十年,硬件如GPU的提升、算法优化以及大数据集的可用性为人工智能开启了新纪元。神经网络的演进以及深度学习的興起代表了AI领域的一个转折点。深度学习训练的复杂网络推动了大模型的发展,并成为现代人工智能的关键支撑。但至今,人工智能在商业化方面仍未实现大规模应用,主要困境是寻找适用场景与行业知识的不足。 + +大模型引领了AI的新纪元,迁移学习是支撑大模型的关键技术之一。Transformer架构的提出和模型如BERT、GPT的成功应用标志了自然语言处理领域的重大突破。大规模图像数据集如ImageNet为图像处理大模型奠定了基础。现代大模型如GPT系列在不同领域崭露头角,人工智能生成的内容(AIGC)引起了广泛关注,展现出大模型的应用潜力。 + +大模型需要基于生态视角推进产业化发展。本研究将分析大模型产业生态的四个层次,并讨论如何构建生态型商业模式,将大模型的力量与各行各业的实际应用相结合。为了进一步加强大模型和行业之间的紧密联系,本文提倡应用生态培育的理念,与多方生态伙伴合作,集合创新力量,共同构筑大模型产业生态系统。 + + +本研究集中于以下四个生态层次,分析其特征及作用: + +* L1 数字基础设施层:提供必要的基础设施以支持大模型训练和运行。 +* L2 通用大模型层:作为广泛应用的基础模块服务各行业。 +* L3 行业模型层:结合特定行业需求的定制模块。 +* L4 场景模型层:更细致地针对特定场景或问题提供解决方案。 + +概述大模型产业化和商业化应用的发展潜力,并探索在现代商业生态中大模型如何赋能各行各业,推动数字化转型和智能化升级。 + +本研究提出,大模型产业生态结构可细分为四个互相支撑的层次,包括数字基础设施层(L1)、通用大模型层(L2)、行业模型层(L3)以及场景模型层(L4)。 + +* L1 层次 — 数字基础设施层:数字基础设施构成了大模型产业发展的根基,涵盖硬件如CPU、GPU、专用智能处理器,软件包括数据库、中间件以及操作系统,云计算服务,以及数字网络设施例如5G和工业互联网。这个层次提供了处理大量数据和运行复杂模型所需的关键算力支持,云服务为大模型带来灵活的计算资源,而高性能网络保证快速数据输。 +* L2 层次 — 通用大模型层:通用大模型提供跨行业普适的AI能力,如自然语言处理、图像识别和语音处理等。它们需要处理海量数据以提炼出通用能力,并通过不断迭代和优化以跟上技术进步。以GPT系列模型为例,其模型规模和能力持续扩展,例如,GPT-4引入多模态处理的能力,能够处理包含视觉信息的复杂任务。 +* L3 层次 — 行业模型层:该层次基于通用模型进一步定制化,结合特定行业的数据和特征,打造出针对特定行业需求的大模型。这种行业专属模型从行业数据中提取关键特征,解决行业独有的挑战,例如健康诊断、风险评估与优化建议等。 +* L4 层次 — 场景模型层:场景模型层更进一步在行业模型的基础上进行细分,针对特定行业内特定场景或问题提供解决方案。这些模型针对确切的问题定制设计和训练,并融合特定场景的数据和专业算法进行构建,如自动驾驶交通场景下的数据处理与决策支持。 + +大模型产业生态的这种层级化构造旨在确保从基础设施到应用层面的有效衔接,使不同类型的大模型能够适应并解决不同层级的问题。如自动驾驶的智能交通应用,场景模型层可能专注于优化载货路径以减少运输成本,或者在Robotaxi场景中确保严格的安全性和适应性。这种分层的生态结构有助于将AI和大模型的威力更准确地配对到不同行业和场景的具体需求。通过这种方式,企业和组织能够基于通用模型能力,以更加高效、精准的方式推动领域内的创新和问题解决。 + +矿山行业的大模型应用也呈现多样化的场景需求。以华为盘古矿山大模型为例,已涵盖了从采煤、掘进、到物资运输等多达21个不同场景的应用。每个场景下,AI大模型的焦点都因需求而异。例如,在矿山主运输系统中,大模型承担起“高速公路”般的角色,其AI能力主要集中在智能监测与识别,能够取代传统的人工巡检,以全天候的监控实时识别异常,为系统安全和高效运行提供保障,并且减少人工成本和风险。在掘进环节,由于涉及到的操作规范对于作业人员的安全尤为关键,大模型的主要任务是执行精确监测,确保作业流程的标准化执行,从而最大化地维护作业人员安全。 + +整个大模型产业生态由以上提及的四个层次构成,其中任何一个层次的缺失都将影响大模型产业的整体竞争力。全球各国亦在大模型产业生态的构建中争夺先机,以发布数量为例,美国和中国目前处于领先位置。截至2023年7月,美国累计发布了114个大模型,而中国的发布数量也实现了迅猛增长,达到130个。不过,中国在大模型生态的发展状态依旧是 “量多质未优”,在理论、算法和技术路径上仍依赖国外。在L1数字基础设施层和L2通用大模型层,美国设置了大模型发展的主要技术框架,而在中国,尽管如百度、华为和商汤等企业进行了基础框架的自研工作,但国产大模型有不少是基于国外开源模型进一步训练和微调的结果。L3行业模型层和L4场景模型层方面,国外以谷歌、微软、Meta为中心的大模型生态系统更为成熟,企业通过API接口来调用大模型,形成了一套完善的生态体系;中国则呈现多点开花的竞争局面,多个行业正探索大模型的应用潜力。 + +展望未来,中国在构建大模型产业生态上需要发挥自身产业特色,积极创新和提高在L1和L2层次上的自主能力,同时利用本国产业基础和市场优势,精准施策于L3和L4层次,以促进大模型在更多行业的应用,并推动行业智能化转型升级。 + +大模型产业生态通过其多层次结构彰显了生态型商业模式(EMB)的核心思想。EMB是由多种多样的参与者联合构成的综合商业模式,形成一个不断演变的生态系统。与传统商业模式相比,EMB不再局限于单一产品或服务的价值创造和价值获取,而是涉及多样化合作方的共同发展。目前的商业模式研究主要集中在战略和创新两个领域,强调公司能力和对外部创新的响应。EMB概念重塑了这一研究范式,突出了参与各方在价值共创中的互动与合作,并增强了共同创新的重要性。 + +在大模型产业生态的构建中,通用平台和生态伙伴的共存是实现生态型商业模式的基础。例如,L1数字基础设施层和L2通用大模型层形成了广泛对外开放的平台,这些平台作为技术供应商,提供必要的支持和服务,勾画出了广阔的应用蓝图。而各类行业的生态伙伴,则利用这些平台下的资源和服务,根据自身特定的需要,发展出适合自己行业和场景的定制化解决方案。 + +大模型产业的发展需要众多生态参与者的相互配合与支持,包括政府、行业协会、数字企业、行业巨头和中小企业等。政府应该构建良好的数字基础设施,引导和规范参与者间的交互与合作,促进产业的规范化发展。行业协会和企业则应该联手制定研发计划和相关标准,推动标准化和创新合作,尤其是行业领导者发挥示范作用至关重要。同时,必须具备开放的生态融合思维,使各个领域的参与者在大模型的支撑下开展创新实践,拓展新的应用场景,实现共赢。 + +生态型商业模式突出了对能力共享和组合的需求。在这种商业模式下,企业不再仅提供单一产品服务,而是要充分展现自身特有的技能,并与生态伙伴的能力相结合,以形成适应多变场景需求的解决方案。通用平台扮演着提供核心AI能力的角色,如云计算、AI模块等。同时,为了发挥大模型在各细分行业的潜力,还需融合各行业伙伴的专有知识和技术。 + +通过这种跨领域合作和能力整合,生态型商业模式能推动动态、互补的发展体系。利用通用平台核心能力的伙伴,可以在较低的投入成本下开展创新和适应市场需求,而成熟的平台企业则能借助于这些多元化合作丰富自身的行业洞察和解决方案集。这不仅实现了资源的优化配置,而且为打造应用广泛的共享经济铺平了道路。 + +借助生态型商业模式推动大模型产业生态的成熟,将为多个行业的数字化转型注入助力。通用大模型提供的核心功能构成数字化转型的基础,支持企业进行高效的数据分析和决策,提升生产和服务效率。这促使企业不断发展自身的特色能力,加快构建全面的大模型技能生态。大模型的兴起预示着工业和消费互联网领域更深层次的融合,如在工业制造中实现生产过程的智能监控与优化,在消费服务中提供更加精准的个性化推荐,这些都有助于实现全面的数字化生态和智能服务。 + +然而,面临大模型产业生态建设,我们还需解决若干挑战。首先是在标准制定与市场监管方面,必须协同行业伙伴共同推动技术标准、产业规范和市场标准的建立,确保技术互通和市场的良性竞争。其次是数据市场的构建和管理,此项对于大模型的训练至关重要,加强数据流通平台的构建并妥善处理数据隐私和安全,是推动大模型生态进步的关键。此外,知识产权是大模型发展的核心问题之一,必须确立明确的产权归属、使用许可以及成果分享的规则,保证生态中各方的合理利益。 + +展望未来,大模型时代的到来将激励各行各业发挥其潜力,从而构建一个广泛合作与创新的生态系统,引领科技革新与经济增长。随着数字化转型的推进,大模型还将为全球面临的环境、能源和医疗等挑战开辟新的解决方案。在这新时代中,跨领域的合作、制度完善和生态发展将是实现大模型商业化落地和创新的关键,为全球共同繁荣提供强大的动力。 + +**(3)完善政策法规和伦理治理** + +我国大模型的发展在法律和政策层面面临以下几个关键问题: + +* 数据安全与隐私保护:随着大模型对海量数据的依赖性增强,如何确保数据收集、存储和使用的合规性,避免侵犯公民隐私和个人信息安全成为一个重大挑战。解决办法可能包括制定和完善相关法规,比如严格执行《网络安全法》《数据安全法》《个人信息保护法》,要求企业在使用数据前获得合法授权,并采取必要的脱敏、加密等措施保障数据安全。 +* 数据产权与使用权界定:由于大模型训练所需的大量数据往往来源于多个主体,数据产权不明晰可能导致法律纠纷。建立清晰的数据权属制度,明确数据来源和使用权分配,鼓励数据合法合规流通和共享。 +* 法律责任认定:在大模型输出结果产生错误、误导或侵权时,如何准确界定法律责任归属也是一个难题。需要进一步细化相关法律法规,确立合理的过错责任原则和追溯机制。 +* 技术出口管制:鉴于大模型技术的战略意义,国家可能会加强对其出口和技术转移的监管,制定相应的出口管制清单和技术审查程序,确保核心技术不被滥用或流向不当。 +* 行业标准与监管滞后:大模型技术发展迅速,而对应的行业标准和监管机制可能存在滞后现象。政府应当引导和推动建立适应新技术特点的标准体系,同时强化市场监管能力,对违规行为实施有效惩处。 + +为解决目前人工智能治理面临的立法、标准、监管问题,应加强立法工作,紧跟科技发展趋势,修订完善现有法律法规,填补法律空白。制定大模型领域具体的技术规范和行业标准,指导企业和研究机构合规发展。设立专门的数据监管机构,严格监管数据采集、处理和应用过程。提升公众对数据权益的认知,推动形成全社会共同维护数据安全的良好氛围。加强国际合作,借鉴国际先进经验,参与全球数据治理规则的制定,促进国内外市场的有序竞争和健康发展。 + +**(4)推动开源生态建设, 加强开放协作** + +中国加速发展模型开源社区,不仅有助于缩短技术研发周期、降低成本,还有利于激发全社会的创新活力,促进跨界融合和资源共享,培养大批高技能人才,并在全球人工智能竞赛中赢得战略主动权,从而推动整个产业的可持续、健康发展。 + +推动我国人工智能开源生态建设,发展开源社区,在政策引导上,可通过政策倾斜、设立专项基金等形式,鼓励和资助人工智能开源社区的建立和发展,如科技部在科技创新2030新一代人工智能重大项目中,就强调了开源、开放的原则,并引导国家项目支持研发成果的开放共享。在激励机制上,可设立开源项目奖励计划,表彰和资助优秀的开源项目团队和个人,如设立开源项目奖项,为开源贡献者提供荣誉与物质激励。启智社区、中国科学院牵头的“鹏城实验室”等,都是国家层面对开源社区建设的有力支持。同时支持企业开源技术,为主动开源的企业提供税收优惠与补贴,可以给予相应企业税收减免或财政补贴,减轻企业在开源技术研发过程中的经济负担。对于企业开源的技术成果,可以考虑在一定条件下豁免部分专利申请费用,同时,在政府采购中优先考虑采用国产开源AI产品的项目。 + +同时补贴开源应用落地。设立专项资金支持基于开源技术的人工智能应用示范项目,鼓励开源技术在各个行业的实际应用,对成功的应用案例给予补贴或推广奖励。对于由开源技术孵化出的产品和服务,可通过创新券、科技成果转化基金等方式给予支持,降低商业化初期的成本和风险。由政府和产业园区通过举办开源创新大赛、提供创新创业支持等方式,推动开源AI技术在本地产业的应用。 + +最后,营造良好的开源文化和环境。一是在高校和职业培训中加入开源文化课程,培养具有开源精神的AI人才,同时加强对开源社区建设的理论研究和实践经验的传播。二是参与国际合作,积极参与全球开源社区,与国际领先的开源组织合作,引进国外先进的开源理念和技术,同时推动中国AI开源项目的国际化。 + +**(5)提出针对现状问题的解决对策建议** + +大力发展公共云,为我国大模型的训练和产业化应用提供优质高效低成本的算力。建议将大力发展公共云纳入国家“十五五”规划,加大中央和地方各级财政专项对公共云核心技术攻关及应用研究支持,政府和央国企数字化项目要优先采购公共云算力服务和产品,加强对“小散多”智算中心建设的约束,明确算力中心以公共云提供服务的比例要求,更好保障我国大模型的训练和规模化应用,并进一步提升已建算力中心的可持续运营能力。 +坚持把大型科技平台作为中美AI竞争的主力军。在AI国家战略布局上,应把具备体系化竞争能力的大型科技企业作为中美AI竞争的主力军,在美实施非对称竞争和打压背景下,聚焦国家战略资源,以赛马形式大力支持大型科技企业加速研发下一代AI多模态大模型,全面提升AI芯片、云计算平台、基础模型、开源生态、场景应用等方面的体系化竞争能力。 +坚持扩大公共数据开放,加快形成高质量的中文多模态数据集。加快构建统一的公共数据开放基础制度规范,扩大面向AI产业的公共数据供给范围,加大政务类、医疗类、数学类、科技类、广电媒体类、教材教辅类等多模态数据开放力度,推动各类图书馆、知网等专业数据库与AI企业合作,支持龙头企业牵头制定数据标注规则和数据标注质量评估体系,加快构建中文高质量数据集。 + +坚持开源开放,促进AI产业技术生态繁荣发展。加强AI开源生态的顶层设计,将AI开源生态建设纳入国家相关规划、抓好落地实施,探索利用科技专项等政策举措支持科技平台企业做大做强AI模型开源社区,推动在政府资助下形成的AI研发成果的开源,扩大AI开源供给。支持企业加速应用基础大模型、研发应用行业模型和企业专属模型,通过“用模型”反哺技术创新。 + +加大力度吸引和培养全球AI人才。支持民营企业AI人才参与国家重大科技专项、重点研发计划等顶层设计和执行。支持民营企业AI专家参与国家杰出青年科学基金、长江学者奖励计划、两院院士等高层次人才评选,并在政策扶持、经费支持等方面享有与国有企事业单位同等待遇。对于符合条件的高端AI人才,实行优先落户政策,提供税收优惠,保障子女就学、家人就医等,解决人才后顾之忧。 + +坚持审慎包容、分类分级的治理态度和思路,鼓励AI技术创新和产品研发。考虑到中美AI竞争的实际情况,对还处于发展初期的AI大模型技术和应用,建议结合其技术特征和发展规律,在监管模式上更注重事中、事后监管,对应用场景风险较低的新技术新应用(如电商、生活服务、企业数字化转型等),以行业自律等方式予以治理,留出更多试错、容错空间,保护企业投资意愿和创新活力。 -- GitLab