6个回答

大模型火爆发展的过程中,蕴藏着哪些值得关注的创业机会?

孙建新

本文是《2023大模型产业发展白皮书》为未完成稿,作者:王文广,两个孩子的爸爸。欢迎各种合作!

大模型太卷了,卷大模型最关键的还是商业落地:

第一章 大模型技术要点

人工智能(Artificial Intelligence,AI)是指由计算机系统或机器执行的智能行为,如学习、推理、感知、创造等。人工智能在各个领域都有广泛的应用,如医疗、工业、教育、金融、安全、娱乐、交通、营销等等。人工智能也是当今世界最具创新性和竞争力的技术之一,对于提升国家的科技实力和经济发展有着重要的意义。

人工智能大模型(Large Models)即神经网络预训练大模型,通常简称为“大模型”,是一种基于深度学习的人工智能技术。其核心思想是将模型使用大量的计算资源,通过深度学习等方法在大规模数据集上进行预训练,使其学会一般性的特征表示、知识和语言模式,训练出具有强大的泛化能力和表达能力的人工智能模型,然后通过微调适应特定任务。

人工智能大模型可以处理多种类型和规模的数据,如文本、图像、音频、视频等,可以完成多种复杂和高级的任务,如自然语言理解、计算机视觉、语音识别、自然语言生成等。自2022年11月30日 ChatGPT 发布以来,人工智能大模型通常是指以语言为核心的大语言模型(Large Language Models)或者多模态大模型(Multi-Modal Models),是当前人工智能领域炙手可热的研究方向,形成了一种新的人工智能范式,也被认为是实现通用人工智能(AGI)的最可行的路径。

1.1 预训练+微调的技术方案

大模型通常采用预训练+微调(Pre-training+Fine-tuning)作为基本的模型方法,以提高模型的通用性、适应性、有用性和安全性。例如,GPT-3首先在大规模的文本数据上进行无监督的预训练,学习通用的语言知识和表示,然后在特定的任务数据上进行有监督的微调,学习特定的任务知识和技能。同时还是用人类反馈的强化学习来对齐价值观,确保更好的安全性。

预训练是大模型的第一阶段,模型在大规模数据集上进行训练,学会语言结构、语法、常识等一般性的信息和知识。这个阶段的模型并不是针对特定任务进行优化,而是学习如何从数据中提取有用的特征。 大模型需要使用海量的数据来进行预训练,以提高模型的性能和泛化能力。例如,GPT-3是目前世界上最大的自然语言处理(NLP)模型,它使用了约1750亿个参数,并使用了45TB的文本数据来训练。 大模型的第二阶段是微调,模型在特定任务的数据集上进行微调,以适应具体任务的要求。这种预训练与微调的融合,使得大模型在少量任务数据下就能取得出色的表现。

1.2 先进的网络结构

大模型通常拥有深层的神经网络结构,例如 GPT-3用来93层的 变换器网络(Transformer)的解码器(Decoder)块。由于网络层数的增加,模型能够学习更加抽象和高级的特征表示。为了训练这些大模型,需要大量的计算资源,包括高性能的硬件和优化的训练算法。这些资源的结合使得大模型的训练成为可能,同时也为其带来了强大的泛化性、通用性和实用性。

人工智能大模型通常采用Transformer作为基本的网络结构,使用了自注意力(Self-Attention)机制来捕捉长距离的依赖关系。

1.3 需要强大的计算资源来支撑

人工智能大模型需要使用强大的计算资源来训练,以缩短训练时间和提高训练效率。例如, LLaMA-2-70B 的大模型,使用了2000个Nvidia A100 GPU的分布式超级计算集群来训练,耗费了1720320 小时的A100 GPU计算量(2000个 A100 GPU,约35天)。Falcon-180B大模型,使用了4096个Nvidia A100 GPU,耗费了约700万 GPU 时。

1.4 大模型的量化技术

量化是一种能够有效减少大模型计算和存储开销,降低大模型的部署成本和推理延迟的技术,其核心思想是通过减少每个参数和激活的位数,来压缩模型的大小和加速模型的运算。量化的基本思想是将连续的浮点数映射到离散的整数,例如将32位浮点数转换为8位整数。这样,每个参数和激活就可以用8个比特来表示,从而实现4倍的模型压缩和运算加速。然而,量化也会引入一定的误差,导致模型的精度下降。因此,如何在保证模型精度的同时,实现高效的量化,是一个具有挑战性的问题。

目前,主要有两种量化的方法:后训练量化(Post-Training Quantization, PTQ)和量化感知训练(Quantization-Aware Training, QAT)。PTQ是指在模型训练完成后,直接对模型的参数和激活进行量化,不需要额外的训练过程。QAT是指在模型训练的过程中,对模型的参数和激活进行量化,并通过反向传播来更新量化的参数,以减少量化误差。PTQ的优点是简单和快速,不需要额外的计算资源,但是在低位数的量化下,模型的精度会显著下降。QAT的优点是可以保持较高的模型精度,甚至在低于8位的量化下,但是需要重新训练模型,消耗大量的计算资源。

针对LLM的量化,目前的研究主要集中在PTQ上,因为QAT对于LLM来说,需要的训练时间和成本太高。然而,PTQ也面临着一些挑战,主要是由于LLM中的激活存在一些异常值(outliers),这些异常值会影响量化的范围和精度,导致量化后的模型性能下降。为了解决这个问题,一些方法提出了对激活进行变换或重组,以减少异常值的影响。例如,SmoothQuant提出了一种数学等价的变换,将激活的异常值转移到权重上,从而实现了8位权重和8位激活(W8A8)的量化,同时保持了模型的精度。QLLM提出了一种自适应的通道重组技术,将激活的异常值分配到其他通道上,从而平衡了激活的分布,实现了4位权重和4位激活(W4A4)的量化,同时超越了之前的最优方法。Outlier Suppression+提出了一种针对不对称性的通道式移位和针对浓度的通道式缩放的方法,将激活的异常值压缩到量化的范围内,实现了实现更好的量化负担平衡,保持了模型的精度。

除了对激活进行处理,一些方法还提出了对量化后的模型进行微调,以补偿量化误差。例如,LLM-QAT提出了一种无数据的量化感知训练方法,只学习一小部分低秩的权重,而冻结预训练的量化模型。在训练后,这些低秩的参数可以与冻结的权重融合,不影响推理。大模型的量化是一种有前景且非常有价值的技术,它可以降低大模型的部署成本和推理延迟,减少推理过程中所需要的计算量,从而促进大模型的普及和应用,并在减少碳排放实现碳中和目标中提供支持。当前,大模型量化的研究,集中在如何设计更高效和更通用的激活变换或重组方法,以适应不同的大模型和不同的量化位数。

1.5 大模型蒸馏技术

大模型蒸馏的基本思想是使用一个大的教师模型(teacher model)来指导一个小的学生模型(student model)的学习,使得学生模型能够从教师模型中吸收有效的知识,实现接近与教师模型的性能和泛化能力。模型蒸馏的优点是可以利用大模型的强大能力,同时减少模型的规模和复杂度,提高模型的效率和可部署性,这对于需要巨大计算量支持的超大模型来说非常有用,可以大幅减少推理成本。模型蒸馏的挑战是如何设计合适的学生模型和损失函数,以及如何选择合适的训练数据集,以保证学生模型能够最大程度地从教师模型中学习到有用的知识,而不是过拟合或者欠拟合。

1.6 泛化能力和跨领域迁移能力的突破性提升

大模型在经过预训练后,展现出惊人的泛化能力。即使在只有少量任务数据的情况下,它们能够理解并适应任务的上下文、要求和特点。这为许多应用场景带来了巨大便利,无需大量数据的情况下,就能快速构建高性能的人工智能应用。

大模型的技术在多个领域都取得了突破性的性能提升。在自然语言处理领域,大模型在机器翻译、文本生成、情感分析等任务上都表现出色,达到甚至超越人类水平的表现。在计算机视觉领域,大模型在图像分类、物体检测、图像生成等任务中也取得了重大进展。智能语音领域的语音识别、语音生成等任务也因大模型技术而得以显著提升。

第二章 人工智能技术简史

人工智能从上世纪五十年代开始,至今已经有七、八十年的历史了。

2.1人工智能萌芽期

1950年代之前:理论萌芽与思想奠基 在人工智能概念之前,1950年,图灵( Alan Turing )在论文《Computing Machinery and Intelligence 》提出了图灵测试的概念,认为如果机器表现的像人类,那么它就跟人类一样智能。比如和一个机器人聊天,当你无法分辨出对方是机器人的话,那么就可以认为那个机器人跟人一样智能。

1950年代前后,工智能的奠基工作开始,符号主义的逻辑推理引擎等是当时的焦点,它们能够解决数学问题并进行逻辑推理。这个时期的代表性成果是人工智能三大范式的诞生,即:

  • 联结主义,神经元,1943年Pitts 等发表了论文《A logical calculus of the ideas immanent in nervous activity》
  • 行为主义,控制论,1948年维纳出版了书籍《Cybernetics: Or Control and Communication in the Animal and the Machine》
  • 符号主义,逻辑理论家,1955年艾伦·纽厄尔等编写了"Logic Theorist"程序,被成为史上第一个人工智能程序,证明了在怀特黑德和罗素合作撰写的数学原理中首52个定理中的38个。

2.2 人工智能诞生期

1956年的达特茅斯会议上,麦卡锡、明斯基、香农等逻辑学家在达特茅斯学院召开的会议中,提出了人工智能(Artificial Intelligence)的概念。

时间来到1960年年代,符号主义继续发展,知识表示与专家系统逐渐兴起。人工智能开始关注如何将知识编码到计算机中,以便解决特定领域的问题。DENDRAL等专家系统将领域专家的知识转化为计算机可执行的规则,并得到了极大的发展,在此后的七八十年代大放异彩。

2.3 人工智能的第一个冬天

1970年代初,人工智能开始了第一个冬天,原因包括XOR 异或问题无法解决,自动翻译遇到了巨大的困难,逻辑的方法遭遇了危机。在1970年代末,反向传播算法被提出,人工智能慢慢走出低谷。

2.4 冬天过后的繁荣期

到了1980年代,知识是当时的绝对主角,专家系统崛起,CYC、WordNet 等许多本体库被构建,人们认为列出所有存在的事物,并构建一个本体描述我们的世界是智能系统的基础。这个观点促使了知识和逻辑的结合,并使得专家系统达到鼎盛,被应用于医疗、金融等等诸多领域。

计算机的能力开始迅速的提升,机器学习开始复兴,支持向量机(SVM)和决策树等方法为数据驱动的机器学习奠定了基础。同时,强化学习中的马尔可夫决策过程(MDP)框架为智能体与环境的交互提供了理论基础。而机器学习和符号主义的结合,IBM 的深蓝击败了国际象棋世界冠军为这一波人工智能的巅峰添加了浓墨重彩的一笔。知识的表示发展到了语义网的阶段,大量的知识和复杂的逻辑相结合过于复杂而无法实用。

2.5 人工智能的第二个冬天

1980年代末到1990年代初,专家系统的维护成本高昂导致人们逐渐对齐失去了兴趣,人工智能逐渐冷却,形成了第二个冬天。

2.6 统计学习的兴起

1990年代~2000年代属于摩尔定律和互联网高速发展的时期,人工智能依附于互联网开始积蓄力量。由于语料的增长,统计学习在这个时期迅速发展,贝叶斯网络、隐马尔可夫模型、信息论、神经网络、SVM 等算法喷涌而出。马尔可夫决策过程和控制论的结合,形成了一种称之为智能体(Agent) 的新思想,具身智能开始发展。

2.7 认知智能时代

2000年代末期,由于计算机算力的发展和互联网带来的数据增长,神经网络以深度学习的概念重新崛起,并逐渐成为了人工智能的主角。深度网络(多层神经网络)能够从大量数据中学习复杂模式,在语音识别、图像识别与理解中 得到广泛应用。

2010年代开始,一方面,符号主义的RDF、本体和逻辑以知识图谱的形势重新回归,知识的表示与推理高速发展;另一方面,大数据和大算力的组合,推动着深度学习迈向大规模预训练模型(如 BERT、GPT 等)时代。知识图谱和深度学习共同推动着人工智能的高速发展,迈向了认知智能时代。

2.8 迈向通用人工智能

2020年代伊始,以ChatGPT 为代表的大规模预训练语言模型展现出了强大的理解能力,并为通用人工智能 AGI 带来了第一缕曙光,也因此,伦理、隐私和社会影响等问题也日益受到关注,为技术的发展与应用提出了新的挑战。

第三章 大模型发展情况

人工智能大模型目前发展的情况是美国遥遥领先,中国紧跟其后。在核心技术方面,主要的创新由 Google(包括 DeepMind)、 OpenAI、 微软、Meta 等公司和斯坦福、伯克利等高校为主。中国的清华大学、浙江大学、北京智源研究院、上海人工智能实验室以及百度、华为等也有所贡献。

3.1 开源基础大模型

下面是开源基础大模型全解析,未完全: LLaMA:开源开放大模型观察之LLaMA

LLaMA2:开源开放大模型全观察之LLaMA-2

Baichuan:开源开放大模型观察之baichuan-7B

Baichuan2:开源开放大模型全观察之Baichuan-2

BLOOM:深度全解析开放开源大模型之BLOOM

QWen:开源开放大模型全观察之QWen

Falcon:开源开放大模型全观察之Falcon

3.2 国外大模型测试与点评

-ChatGPT:AGI生成式AI面试题目解析、全面面试ChatGPT及专业点评,大模型的差距看得见系列之一

-Bing Chat:全面面试Bing Chat及专业点评,大模型的差距看得见系列之二

-Google Bard:全面面试 Google Bard和Claude2及专业点评,大模型的差距看得见系列之三

-Anthropic Claude:全面面试 Google Bard和Claude2及专业点评,大模型的差距看得见系列之三

-LLaMA-2:全面面试LLaMA-2、WizardMath和CodeLLaMA及专业点评,大模型的差距看得见系列之四

3.3 国外领军大模型一览表



公司大模型说明
OpenAIChatGPTChatGPT-4支持Plugins,Code Interpreter
微软Bing Chat搜索增强,有三种模式
GooglePaLM2,Bard,GeminiBard支持图片内容识别,包括OCR等
AnthropicClaudeClaude 2,支持读入pdf、txt、csv等文件进行分析、总结和问答等
MetaLLaMA,LLaMA-2, CodeLLaMA最强开源开放大模型,月活用户小于7亿的组织和个人可随意商用
Stability AIStableLM
AmazonTitan
BloombergBloombergGPT
MosaicMLMPT
IntelAurora genAI
UC Berkeley, Microsoft ResearchGorilla
inflection.aiInflection-1
xAIGrōk从OpenAI 到xAI
cohereCohere
Scale AIScale
character aiCharacter
Colossal-AIColossalChat
NvidiaChipNeMo


其中,国外大模型的详细分析:

Gemini : 值得关注的Google下一代通用人工智能双子座Gemini系统

xAI:我为什么创办xAI?马斯克自述从OpenAI到xAI的心路历程

第四章 国产大模型深度分析

从模型本身角度,中国可谓是热火朝天,百模大战不是盖的。截至今天,中国已发布的大模型有188个。数据来自“微信公众号:走向未来”收集,原始数据存放于“Github :github.com/wgwang/LLMs-”。欢迎评论提供缺失遗漏的国产大模型。

4.1 国产大模型地图分布

在这188个大模型中,按省份进行统计,并用地图可视化出来,如下图所示,可以清楚地看出,祖国山河几乎一片红,特别是东部沿海地区的省市都有机构发布了大模型。按省级单位来说,这188个大模型分布于23个省级单位(包括自治区、直辖市和特别行政区)。

其中,有3个或更多的机构发布了大模型的省和直辖市有10个,这些省市如下所示:


序号省级单位大模型个数
1北京69
2广东26
3上海22
4浙江16
5江苏15
6山东6
7四川5
8福建5
9安徽3
10重庆3


各个省级区划的占比如下面饼图所示。下图可以清楚地看出,北京遥遥领先,占比近37%,广东、上海、浙江和江苏紧随其后。这跟大家对人工智能行业的传统认知也是十分接近的。

4.2 国产大模型城市分布

按城市来看,排在前列的城市地图如下:

4.3 国产大模型城市五强

具体来说,排名前五的分别是北京、上海、杭州、深圳和广州。这与大家的传统认知是一致和吻合的。过往许多的报告都提到,北京、上海、深圳、杭州和广州是中国最具人工智能发展潜力的五大城市。事实上,这些城市在人工智能核心技术、应用场景、产业生态和政策环境等方面都做的非常好,人工智能大厂也多数坐落于上述五大城市。


序号城市数量
1北京69
2上海22
3杭州15
4深圳14
5广州10


  • 北京:北京是中国大模型的领军城市,拥有全国最多的发布了大模型的机构,同时在论文和人才方面也处于领先水平。北京也是大模型有关的人工智能的政策制定和标准制定的中心,并发布了一系列的指导性规划和措施来支持大模型的创新和发展。北京在大模型领域的代表性机构有百度、清华大学、北京智源人工智能研究院、北京大学、中国科学院自动化研究所、中国科学院计算技术研究所、百川智能、云知声、抖音等等。
  • 上海:上海是中国大模型的创新高地,也拥有许多的大模型研发机构,同时在投资机构和创业孵化器方面也处于领先水平。上海也是中国人工智能的国际合作和交流的窗口,举办了世界人工智能大会等一系列的国际性活动,展示了中国人工智能的成果和愿景。许多机构选择在WAIC2023上发布了大模型【参考:上海世界人工智能大会WAIC,好看的点都在这里:大模型是绝对的王者,其他呢?】。上海在大模型领域的代表性机构有上海人工智能实验室、复旦大学、上海交通大学、达观数据、商汤科技、稀宇科技等。
  • 深圳:深圳是中国人工智能的产业基地,在人工智能相关产业链和配套服务方面名列前茅,特别是与智能硬件有关的产业链,是全球说一不二的地方。同时,深圳也是中国人工智能的创业之都,吸引了大量的优秀的人才和项目,形成了良好的创新氛围和文化。深圳在大模型领域的代表性机构有华为、腾讯、鹏城实验室、香港中文大学深圳校区、IDEA 研究院等等。
  • 杭州:杭州是中国人工智能的应用先行者,拥有许许多多人工智能应用场景和案例。杭州也是中国人工智能的示范之城,建立了以城市大脑为核心的智慧城市体系,提升了城市管理和服务水平。杭州在大模型领域的代表性机构有阿里巴巴、浙江大学、之江实验室、蚂蚁集团、恒生电子等等。
  • 广州:广州在大模型方面表现也不俗,大模型领域的代表性机构有华南理工大学、云从科技、网易等。

4.4 典型国产大模型评测与点评

参考文章:全面面试国产大模型但不点评,大模型的差距看得见系列之五

4.5 国产大模型榜单

国产大模型榜单如下,请查看 Github 上的 原始数据 “Github :github.com/wgwang/LLMs-


序号公司大模型省市类别官网
1百度文心一言北京通用
2智谱华章清言北京通用
3百川智能百川北京通用
4达观数据曹植上海工业
5上海AI实验室书生上海通用
6科大讯飞星火安徽合肥通用
7深度求索Deepseek Coder浙江杭州代码
8商汤科技日日新上海通用
9春田知韵(抖音)豆包北京通用
10中国科学院自动化研究所紫东·太初北京通用
11阿里云通义千问浙江杭州通用
12华为盘古,盘古气象,盘古-Σ广东深圳工业
13复旦大学MOSS上海科研
14智源AI研究院悟道·天鹰,悟道·EMU北京通用
15浙江大学启真,TableGPT,智海-录问,智海-三乐,PromptProtein浙江杭州垂直
16OpenBMBCPM,CPM-Bee北京通用
17元象科技XVERSE-13B广东深圳通用
18腾讯混元广东深圳通用
19云知声山海北京医学
20东北大学TechGPT,PICA辽宁沈阳科研
21IDEA研究院封神榜MindBot,ziya-coding广东深圳通用
22贝壳BELLE北京垂直
23360智脑,一见北京通用
24哈尔滨工业大学本草,活字黑龙江哈尔滨医学
25北京大学信息工程学院ChatLaw北京法律
26港中文深圳华佗,凤凰广东深圳医学
27中国科学院计算技术研究所百聆北京科研
28好未来MathGPT北京教育
29晓多科技+国家超算成都中心晓模型XPT四川成都客服
30昆仑万维天工Skywork北京通用
31中国科学院成都计算机应用研究所聚宝盆四川成都金融
32华南理工大学扁鹊,灵心SoulChat广东广州医学
33虎博科技TigerBot上海金融
34度小满轩辕北京金融
35北京交通大学致远北京交通
36恒生电子LightGPT浙江杭州金融
37上海交通大学K2,白玉兰上海科学
38左手医生左医GPT北京医学
39上海科技大学DoctorGLM上海医学
40华东师范大学EmoGPT,EduChat上海教育
41艾写科技Anima浙江杭州营销
42澳门理工大学XrayGLM,IvyGPT澳门医疗
43北京语言大学桃李北京教育
44中工互联智工北京工业
45稀宇科技ABAB上海通用
46追一科技博文Bowen广东深圳客服
47智慧眼砭石湖南长沙医学
48香港科技大学罗宾Robin香港科研
49网易有道子曰北京教育
50智媒开源研究院智媒广东深圳媒体
51创业黑马天启北京创投
52蚂蚁集团贞仪,CodeFuse浙江杭州金融
53硅基智能炎帝江苏南京文旅
54西湖心辰西湖浙江杭州科研
55国家超级计算天津中心天河天元天津通用
56星环科技无涯、求索上海金融
57清博智能先问北京农业
58智子引擎元乘象江苏南京客服
59拓世科技拓世江西南昌金融
60医疗算网Uni-talk上海医学
61慧言科技+天津大学海河·谛听天津科研
62第四范式式说北京客服
63拓尔思拓天北京媒体
64出门问问序列猴子北京营销
65数说故事SocialGPT广东广州社交
66云从科技从容广东广州政务
67浪潮信息山东济南通用
68中国农业银行小数ChatABC北京金融
69麒麟合盛天燕AiLMe北京运维
70台智云福尔摩斯FFM台湾工业
71医联科技medGPT四川成都医学
72电信智科星河北京通信
73深思考人工智能Dongni北京媒体
74文因互联文因安徽合肥金融
75印象笔记大象GPT北京媒体
76中科闻歌雅意北京媒体
77澜舟科技孟子北京金融
78京东言犀北京商业
79香港中文大学PointLLM香港通用
80清华大学NowcastNet北京科研
81鹏城实验室鹏城·脑海广东深圳科研
82宇视科技梧桐浙江杭州运维
83智臻智能华藏上海客服
84美亚柏科天擎福建厦门安全
85山东大学夫子•明察山东济南司法
86数慧时空长城北京地球科学
87循环智能盘古北京客服
88知乎知海图北京媒体
89网易伏羲玉言广东广州通用
90清睿智能ArynGPT江苏苏州教育
91微盟WAI上海商业
92西北工业大学+华为秦岭·翱翔陕西西安工业
93奇点智源天工智力北京通用
94联汇科技欧姆浙江杭州通用
95中国联通鸿湖北京通信
96思必驰DFM-2江苏苏州工业
97中国科学院计算机网络信息中心MatChat北京材料
98电科太极小可北京政务
99中国移动九天,九天•众擎北京通信
100中国电信TeleChat,启明北京通信
101容联云赤兔北京客服
102理想科技大道Dao北京运维
103乐言科技乐言上海客服
104沪渝AI研究院兆言重庆科研
105中央广播电视总台央视听北京媒体
106超对称技术公司乾元北京金融
107蜜度文修上海媒体
108中国电子云星智湖北武汉政务
109理想汽车MindGPT北京工业
110阅文集团妙笔上海文旅
111携程问道上海文旅
112实在智能塔斯浙江杭州客服
113瑞泊VIDYA北京工业
114有连云麒麟上海金融
115维智科技CityGPT上海公共服务
116用友YonGPT北京企业服务
117天云数据Elpis北京金融
118孩子王KidsGPT江苏南京教育
119佳都科技佳都知行广东广州交通
120今立方12333福建厦门政务
121阳光保险集团正言广东深圳金融
122中科创达魔方Rubik北京工业
123聆心智能CharacterGLM北京游戏
124大经中医岐黄问道江苏南京医疗
125蒙牛MENGNIU.GPT内蒙古呼和浩特食品
126快商通汉朝福建厦门营销
127众合科技UniChat浙江杭州交通
128金蝶苍穹广东深圳企业服务
129云问科技云中问道江苏南京营销
130天壤智能小白上海通用
131小米MiLM-6B北京商业
132长虹长虹超脑四川绵阳媒体
133开普云开悟广东东莞政务
134赛灵力科技达尔文广东广州医学
135航旅纵横千穰大模型北京民航
136奇安信Q-GPT北京信息安全
137车之谷叆谷山东青岛汽车
138索贝时代明眸四川成都媒体
139海尔HomeGPT山东青岛智能家居
140马上消费天镜重庆金融
141白海科技白聚易北京营销
142二元工业妆舟江苏苏州日化
143格创东智章鱼智脑广东广州工业制造
144创业邦BangChat北京创投
145新华三H3C百业灵犀浙江杭州工业
146作业帮银河广东广州教育
147企查查知彼阿尔法江苏苏州商业
148绿盟风云卫北京网络安全
149江苏欧软WISE江苏苏州工业
150创新奇智奇智孔明山东青岛工业
151大汉软件星汉江苏南京政务
152零点有数零点楷模北京政务
153国农生猪大数据中心PIGGPT重庆农业
154微脉CareGPT浙江杭州医疗
155吉大正元昆仑吉林长春信息安全
156武汉大学CheeseChat湖北武汉教育
157方正电子魔方北京媒体
158似然实验室TraderGPT广东广州金融
159网易智企商河广东广州客服
160深圳供电局祝融2.0广东深圳电力
161万兴科技天幕西藏拉萨媒体
162惟远智能千机百智广东深圳客服
163兔展智能兔灵广东深圳营销
164中国科学技术大学UniDoc安徽合肥通用
165钢谷网谷蚁陕西西安电商
166浪潮海岳inGPT山东济南企业服务
167木卫四科技蝴蝶北京汽车
168汇通达网络汇通达江苏南京企业服务
169九章云极元识北京企业服务
170汉王天地北京法律
171南京审计大学审元江苏南京审计
172天翼云慧泽北京政务
173北京大学行为与空间智能实验室PlanGPT北京城市规划
174吉林大学棱镜吉林长春通用
175慧安股份蜂巢知元北京工业
176VIVO蓝心广东东莞消费电子
177元年科技方舟GPT北京企业服务
178电科数字智弈上海水利
179云天励飞天书广东深圳政务
180北京理工大学东南信息技术研究院明德福建莆田通用
181恩博科技林海思绪江苏南京林业
182亿嘉和YJH-LM江苏南京消费电子
183大华股份星汉浙江杭州城市治理
184福建医科大学孟超肝胆医院孟超福建福州医疗
185中文在线中文逍遥北京文旅
186CCAI宁波中心iChainGPT浙江宁波企业服务
187光启慧语光语上海医疗
188安恒信息恒脑浙江杭州信息安全


第五章 大模型典型应用

暂缺,敬请期待。

最后,对通用人工智能有兴趣的,推荐阅读下面文章:

大模型产业落地难,知识图谱来帮忙!

语义增强可编程知识图谱框架SPG白皮书在 CCKS2023发布,为知识图谱赋能AGI 夯实基础(附白皮书下载链接)

珠峰书《知识图谱:认知智能理论与实战》“升级”了:配套PPT,教学更easy!

算力!AGI的九层之台,算力为基——谈谈大模型的算力问题

极简概述知识图谱及其应用

GPT-4模型架构:它比你想象的更简单

如果觉得文章对你有用,请随手打赏。你的赞赏,是两个孩子的爸爸努力码字的最强大的动力!

发布于 2023-12-12 13:26・IP 属地英国
wgwang
自由评论 (0)
分享
Copyright © 2022 GreatFire.org