AI 原生应用架构白皮书(ali)
2025-11-21 08:45:37 0 举报
AI智能生成
《AI 原生应用架构白皮书(ali)》是一份阐述云计算环境下人工智能(AI)应用构建和部署的技术指导文件。该白皮书着重介绍如何利用先进的AI技术与云计算平台相结合,推动传统应用向AI原生架构转型,实现智能化升级。它详细解释了AI原生应用的定义、核心组成以及开发部署的最佳实践。通过采用微服务架构、容器化部署、服务网格等现代技术,推荐了一整套支持自动化、高可用性和快速迭代的解决方案。此外,白皮书还特别强调了数据治理的重要性,并提供了一个全面的参考框架来辅助开发者和企业在构建安全可靠的AI原生应用时能够做出有见地的决策。
作者其他创作
大纲/内容
1、AI原生应用及架构
1.1 大模型技术发展回顾和产业价值
1.1.1 大模型的发展回顾与展望
模型即服务(Maas)
模型上下文协议(MCP)
A2A架构
AI从单点工具向系统级生产力工具的转变
1.1.2 大模型的五大产业价值
效率新工具
生成式 AI 可自动化生成高质量内容与数据,大幅降低企业在文本处理、产品设计、生产运营等环节的成本及人力依赖,
减少重复性工作消耗,为企业运营效率提升提供支撑。
减少重复性工作消耗,为企业运营效率提升提供支撑。
专业服务与办公
法律文书起草、市场分析报告
、办公助手(自动化撰写、摘要、PPT生成)
解放人力处理重复性工作,聚焦高价值任务
农业与公共服务
农业知识问答与生产决策推理(如神农大模型)
、智慧城市管理(如智能交通信号优化)
推动产业现代化、提升公共服务效率与资源分配效率
法律文书起草、市场分析报告
、办公助手(自动化撰写、摘要、PPT生成)
解放人力处理重复性工作,聚焦高价值任务
农业与公共服务
农业知识问答与生产决策推理(如神农大模型)
、智慧城市管理(如智能交通信号优化)
推动产业现代化、提升公共服务效率与资源分配效率
服务新体验
依托大模型的推理与交互能力,可从服务的精准度、个性化适配、定制化水平及交互人性化等维度,
打破传统标准化服务局限,重塑用户体验链路,让用户获得更优质的服务感受。
打破传统标准化服务局限,重塑用户体验链路,让用户获得更优质的服务感受。
产品新形态
大模型以生成式能力革新内容创作,降低绘画、写作等领域创作门槛;让硬件设备对图像、语音等有更精准的感知和理解,
推动产品交互模式发生质的飞跃,催生新形态产品。
推动产品交互模式发生质的飞跃,催生新形态产品。
决策新助手
AI 融合数据驱动、实时优化等能力,重构企业从战略到运营的决策链条,将传统经验驱动升级为“数据+算法+领域知识”的复合智能,
提升决策的科学性与效率。
提升决策的科学性与效率。
科研新模式
AI凭借智能计算平台、数据处理及大模型算法能力,加速科学发现、优化实验设计、解决复杂科研问题,
为科研人员提供全新工具与方法,为科研注入活力、提升效能。
为科研人员提供全新工具与方法,为科研注入活力、提升效能。
1.2 AI时代应用架构的演进
1.2.1 IT 应用架构的演进脉络
业务痛点→技术突破→架构升级
单体架构:早期业务场景简单,单体架构以一站式开发快速落地,但随着功能叠加,代码耦合导致“修改一处,影响全局”,维护成本陡增,成为业务创新的枷锁。
垂直架构:当业务线分化,垂直架构通过模块化拆分实现负载均衡,缓解了单一应用的膨胀问题,但模块间协作仍依赖硬编码,跨域交互效率低下。
面向服务架构(SOA):企业级系统互联需求爆发,SOA以服务化技术实现功能解耦与复用,但集中式服务治理的复杂度,仍制约着响应速度
微服务架构:互联网流量井喷,微服务将业务拆解为原子级自治单元,支持独立部署与弹性扩展,但细粒度服务带来的运维压力,倒逼技术进一步突破
云原生架构:Kubernetes等技术通过容器化、集群化管理,解决了微服务的运维难题,实现按量使用、秒级弹性的极致资源调度。至此,云不再只是资源池,而是默认的运行环境。
每一次架构的升级,都是在满足业务规模更大、需求变化更快、资源成本更低情况下的诉求,先用拆分降低复杂度问题,或用平台化屏蔽复杂度问题。
1.2.2 云原生应用架构向 AI 原生应用架构的跃迁
云原生解决的是如何高效地运行,那么AI原生是在此基础上解决如何智能地运行
LLM具备通用理解、推理和生成能力,并能通过函数调用、外部工具联动和知识库,形成可扩展的Agent体系。由此,AI 由嵌入功能跃升成为应用的底座
全新的应用范式,AI原生应用(AI NativeApplication)应运而生,其运行逻辑不再完全由工程师编写的代码所决定,而是由大模型进行自主判断、行动和生成,并具备以下3个特征:以 LLM 为核心,用自然语言统一交互协议;以多模态感知扩展输入边界,以Agent框架编排工具链;以数据飞轮驱动模型持续进化,实现系统的自我优化
1.3 AI原生应用及其架构定义
AI原生应用架构:模型、应用开发框架、提示词、RAG、记忆、工具、网关、运行时、可观测、评估和安全等
1.3.1 大模型推理决策
依托大语言模型在语义理解与推理方面的能力,AI原生应用能够在面对模糊和复杂的开放式任务时,自主生成和调整业务执行逻辑,并根据需要完成工具调用与流程编排
1.3.2 Agent 编排和执行
传统应用更多是工具,Agent却是一个助手或者伙伴。这个助手能够有聪明的大脑(模型),丰富的经验和记忆(数据),灵巧的双手(工具),并且基于设定的角色协同完成的任务
1.3.3 数据优化决策
由于模型输出具有概率性和不确定性,AI原生应用的逻辑表现也可能存在偏差,甚至在某些情况下完全不符合用户或业务方的预期。为了解决这一问题,AI原生应用必须具备基于数据驱动的持续进化能力。
在多轮交互中,AI原生应用需要能够持续保留并利用历史信息,以便理解用户的偏好、行为习惯与目标。这使得应用不仅能够准确响应用户需求,还能在长期使用过程中识别并把握用户的整体行为模式,从而形成更为精准的个性化响应。
同时,应用还需要通过数据采集构建高质量的评测数据集,并结合行业数据、用户反馈数据和客户业务数据进行持续评估与优化。
1.3.4 工具调用与环境连接
AI原生应用通常通过工具调用的方式扩展模型的环境连接能力
支持语音、图像乃至动作等多模态输入,支持个性化语音、界面交互;支持联网检索获取最新信息,并且通过API 对接外部系统,或直接驱动企业内部系统的业务流程
1.4 AI原生应用架构成熟度
1.4.1 AI 原生应用架构成熟度的定义
AI 原生应用架构成熟度是指用于综合衡量AI原生应用在技术实现、业务融合与安全可信等方面所达到的水平,客观反映其从简单功能集成到复杂智能决策的演进阶段与发展层次
在技术实现方面,AI原生应用与传统嵌入AI 功能的应用存在根本性差异。其核心特征体现为AI作为中心决策系统,深度融入业务架构的底层逻辑与运行流程。
在业务融合方面,高阶的AI原生应用需具备动态推理与自主决策能力
安全可信方面,AI原生应用在具备的所有能力必须构建于安全可信的保障机制之上。
AI原生应用架构成熟度是在于推动AI从辅助工具转变为核心决策主体,通过安全可信、可持续进化的端到端架构,为规模化的产业智能升级提供一套可靠的实现路径与体系化支撑,以及用于衡量此类应用在技术实现、业务融合与安全可信等方面综合发展水平的评价标准。
1.4.2 AI 原生应用架构成熟度的演进
概念验证级(M1)、早期试用级(M2)、成熟应用级(M3)和完全成熟级(M4)
1、概念验证级(M1):单点功能辅助
在此阶段,应用的核心目标是验证AI技术在特定业务场景下的技术可行性
2、早期试用级(M2):场景化初步闭环
应用进入有限范围的试点试用。AI开始深入特定业务环节,能够处理更复杂的场景化任务,并初步形成“感知-决策-反馈”的闭环能力。
3、成熟应用级(M3):核心业务深度集成
AI 已成为驱动核心业务流程的关键组成部分。应用具备多模态感知、复杂推理和跨场景协调能力,能够在动态环境中进行实时决策与资源调度,显著提升业务运营的智能化水平
4、完全成熟级(M4):企业级自适应迭代
AI 原生应用达到高度自主化与自适应的形态,成为业务创新的核心引擎。应具备前瞻性预测、战略级决策与自我优化能力,能够应对未预见的变化,并主动驱动业务变革与增长。
AI 原生应用架构的成熟度演进是一个从模块化到集成化,最终迈向驱动化的过程。每一等级的提升,都代表着技术能力、业务融合度、价值创造力和治理水平的系统性飞跃,为各类组织评估自身应用水平、规划未来发展路径提供了科学的参考依据。
1.4.3 AI原生应用架构成熟度的评估
AI 原生应用架构成熟度评估是指衡量其作为以人工智能为核心驱动力的新型应用形态,在技术实现、业务融合与安全可信等方面所达到的综合水平。这一评估体系不仅关注技术能力的完备性,更强调应用在复杂场景中实现自主决策、持续进化及创造业务价值的实际效能
该成熟度评估体系以五大能力特征作为核心评估维度,通过系统化测评应用在自然语言交互、多模态理解与生成、动态推理与自主决策、持续学习与迭代以及安全可信保障等方面的能力水平,实现对AI原生应用架构发展阶段的精准诊断与量化评估。
1、自然语言交互能力
功能定义:衡量应用以自然语言为媒介,实现高拟人化、无障碍人机沟通与任务执行的能力。其核心在于深度理解用户指令的语义、上下文及意图,并生成符合人类交流习惯的回应。
评估要点:重点评估其意图识别准确率、多轮对话维持能力、上下文理解深度以及应答生成的自然度与准确性。该能力是应用实现低门槛交互和普及化的关键指标。
2、多模态理解与生成能力
功能定义:衡量应用对文本、图像、语音、视频等多源异构信息的综合感知、融合理解与跨模态生成的能力。其功能在于突破单一数据模态的局限,实现对现实世界复杂信息的综合处理与表达。
评估要点:主要评估其跨模态检索与关联精度、多模态信息融合效果、以及跨模态生成的质量与一致性。该能力是应用服务于复杂场景的基础。
3、动态推理与自主决策能力
功能定义:衡量应用在复杂、动态且不确定的环境中,进行多步逻辑推理、态势研判并生成最优决策方案的能力。其功能超越了基于固定规则的自动化,实现了对未知情境的主动应对与策略规划。
评估要点:重点评估其应对突发事件的响应与策略调整能力、多目标约束下的决策优化水平、反事实推理能力以及决策结果的准确性与可解释性。该能力决定了应用在关键业务场景中的核心价值。
4、持续学习与迭代能力
功能定义:衡量应用在全生命周期内,通过反馈数据、新知识注入和环境交互,实现性能自我优化、知识库持续扩展以及功能迭代升级的能力。其功能确保了应用能长期适应需求变化,避免性能衰减。
评估要点:主要评估其模型增量学习与微调效率、基于反馈闭环的优化效果、知识发现与沉淀能力以及版本平滑演进与回溯机制的完备性。该能力是应用保持长期活力和降低维护成本的核心
5、安全可信
功能定义:衡量应用在数据隐私、模型安全、算法公平及系统鲁棒性等方面提供的全面保障能力。其功能是确保应用在合规前提下安全、稳定、可靠地运行,并赢得用户信任
评估要点:系统评估其数据加密与隐私保护技术强度、模型对抗样本的鲁棒性、决策公平性与可解释性、内容生成的安全性过滤机制以及合规性认证情况。该能力是应用实现规模化部署和商业化推广的前提条件。
2、AI原生应用的关键要素
2.1 模型
2.1.1 模型分类
通用大模型
通用大模型是我们最熟悉的类型,如GPT、Claude、Qwen、DeepSeek、Gemini等系列。它们拥有非常大的参数规模,具有广博的知识和强大的通用推理能力,它们可以是纯文本的,也可以是多模态的,能够同时理解图像、声音和文字。一般来说,模型越大,处理复杂、开放性任务的能力就越强,但是相应的成本和延迟都相对较高。
垂直或领域模型不具备通用知识,其核心理念是放弃追求通用性,只专注于在垂直行业或特定领域和任务上实现极致的效率和性能。比如在情感分析、语言翻译、意图分类等特定领域都有对应的垂直领域模型
2.1.2 模型能力和微调
能力与局限:大模型能力强大,但知识源于预训练数据,因此是固化的,无法自动了解你公司内部的私有、实时信息(如新产品、API、数据库)。
需要“投喂”信息:要让模型在你的业务场景中工作,你必须主动、有结构地将你的业务规则、工具和信息提供给它,它才能在每次交互中动态理解和运用。
模型 ≠ 应用:模型是AI应用的核心部件,但整个应用还包含其他重要部分(如信息提供、业务逻辑等)
专属模型的优势:针对特定业务微调或训练的专属模型,因为见过大量相关数据,在该业务上的表现会显著优于通用模型。
专属模型的超高成本:训练专属模型成本巨大(算力、高质量数据、专业团队、时间),对大多数企业来说投入产出比不高,难以持续。
2.1.3 如何选择模型
一个务实的策略是从顶配开始,逐步优化
先用能力最强的模型搭建原型以验证业务逻辑,再逐步将流程中的非核心、简单任务替换为更经济、更快速的小模型,最终找到成本与性能的最佳平衡点。一个优秀的AI原生应用,其模型架构往往不是单一的,而是一个经过精心设计的、由不同规模和专业度的模型协同工作的有机系统。
2.2 框架
2.2.1 Agent 设计模式
1、Chain of Thought(思维链)
核心思想:让模型在回答前,把推理过程一步步写出来。不是一口气报出答案,而是把整个推理过程展示出来。
这种方式在逻辑推理、数值计算、逐步分析类问题里,会显得更稳健。
2、Self-Ask(自问自答)
核心思想:让模型在回答时学会“反问自己”,把大问题拆成多个小问题,然后逐个回答。
这种方式特别适合事实链路长的问题。
3、ReAct(推理+行动)
核心思想:在推理(Reasoning)和外部行动(Acting,比如调用搜索引擎或API)之间交替进行。ReAct比CoT、Self-Ask更全能,原因在于它不仅是推理模式,还内建了与外部世界交互的闭环。
这让Agent既有思维,又能动手。
4、Plan-and-Execute(计划与执行)
核心思想:把任务拆成两个阶段,先生成计划(Planning),再逐步执行(Execution)。
适合多步骤、需长时间任务的场景。
5、Tree of Thoughts (ToT,树状思维)
核心思想:不是单线思维,而是生成多条思路分支,像树一样展开,再通过评估机制选出最佳分支。
适合复杂规划和解谜任务。
6、Reflexion / Iterative Refinement(反思与迭代优化)
核心思想:Agent具备自我纠错的能力,犯错后会总结失败原因,再带着反思尝试下一次。
适合代码生成、流程执行类场景。
7、Role-playing Agents(角色扮演式智能体或者说是多智能体协作)
核心思想:把任务拆分给不同角色的Agent,每个Agent都有专属职责,通过对话协作完成任务。
适合复杂系统开发或跨职能协同。
CoT:一步步写过程、Self-Ask:拆分成小问题、ReAct:既思考也动手、Plan-Execute:先计划再执行、ToT:树状多分支探索、Reflexion:自我反思迭代、Role-playing:多人协作分工、
2.2.2 Agent 开发框架
1、从低代码到高代码
低代码工具:Dify、Flowise、Coze、阿里云百炼、Cloud Flow、n8n等产品,通过可视化编排和模板化配置,使非专业开发者也能快速拼装出应用雏形
低代码平台是对于高代码的一层封装,其抽象层次很难满足所有场景,无法在性能、可扩展性和复杂业务逻辑方面满足大规模生产的要求
进入大规模生产应用阶段后,很多低代码方案都需要迁移到高代码框架中实现。
高代码则代表了当下AI 原生应用生产落地的主流形态。ADK、LangGraph、AutoGen、AgentScope、Spring Al Alibaba等框架,为开发者提供了面向Agent的编程接口
相比低代码,高代码具备更高的性能可控性、更强的灵活性以及更好的可预测性,能够支撑复杂场景下的业务逻辑实现与系统集成
阿里云客户实践进一步验证了这一点:目前在大规模业务场景落地的Agent,大部分都是基于高代码方案。
2、高代码的演进
在AI原生应用的三种构建模式中,高代码模式最贴近工程师对系统的可控需求。此类开发方式不限于使用现成Agent框架,更注重灵活的编排、精准的上下文控制、可靠的执行机制,以及对复杂任务的支撑能力。
高代码模式本身经历了从ChatClient→ Workflow→ Agentic的演进过程。
ChatClient 阶段:最初的实现仅是一次单一的LLM调用,简单但缺乏复杂任务执行能力
Workflow阶段:通过将传统工作流转化为LLM节点编排,实现了自主性与确定性的初步平衡,但由于编排复杂,维护成本较高;
Agentic 阶段:逐渐成为主流形态。它通过提供面向Agent的API,并内置多种通用的协作模式(Pattern),使开发者能够在Agentic自主性和Predictability(可预测性)之间取得平衡,从而兼顾开发效率与执行准确性。
3、零代码的愿景
让用户完全通过自然语言即可驱动应用开发,依赖模型本身的推理与规划能力完成任务分解、逻辑编排和工具调用。零代码的潜力在于真正实现AI应用的全民化与智能自治,但现实中受制于模型能力,其生产可用性仍不足:复杂业务场景对推理深度、上下文管理和可控性的要求,远超当前模型的稳定水平。
2.3 提示词
2.3.1 Prompt 是什么
Prompt是用户向AI模型提供的输入指令,用于引导模型生成期望的输出。
它可以是一个具体的问题、一段描述、一组关键词,或是相关的上下文信息,其核心作用是告知模型用户期望获得什么样的内容
Prompt的载体也不仅限于自然语言文本,还可以包含代码片段、数据格式说明,甚至是图像与文字相结合的多模态输入。
2.3.2 Prompt 质量=AI 输出质量
大模型输出质量并非完全取决于模型本身,还依赖于输入的Prompt是否清晰、完整、具体
Prompt的质量直接决定了AI生成内容的质量、相关性和准确性。
大型语言模型输出内容的质量很大程度上取决于Prompt的明确性与具体性。
2.3.3 如何优化 Prompt
一个好的Prompt能让模型更精准、更深入地理解你的意图,从而生成质量更高的内容。
有一个原则是不会变的,开发者需要清晰、有效地与模型交流,并明确指导它如何处理各种情况,这就像是你给一位聪明的助理分配任务,指令越清晰、背景信息越充分,他完成工作的质量就越高。
2.4 RAG
概述
基于 RAG(Retrieval Augmented Generation,检索增强生成)构建知识库,是大模型兴起之后最快被采纳接受的架构范式之一
RAG 技术能够弥补大模型因知识截止而无法获取最新信息的问题,并有效降低其产生幻觉的风险,而且RAG 技术相比于大模型后训练或微调方式,以更加成本低的方式与企业的专有数据作对接,以实现大模型快速技术验证和商业化尝试。
2.4.1 RAG 知识库的应用架构
可以简单划分为离线索引构建和在线检索和生成过程。
离线向量过程通过把用户上传的文档进行文档智能解析、切片,再进行向量化存储到向量数据库。
在线过程则把用户的请求问题向量化之后与向量库中的切片向量进行相似度比对,从而召回最接近用户问题的相关切片。
通常一个简单的RAG 系统无法满足业务需求,会遭遇准确率和召回率的挑战、信息冗余噪声导致的模型幻觉、知识库庞杂难以管理等问题。当前RAG 系统的构建也逐步向模块化、Agentic RAG 的高级架构演进。
从离线过程来看,文档解析技术除了经典的OCR和电子解析技术,也在利用大模型进行更准确的文档解析,比如对于图片类的文档,通过VLM视觉理解大模型,能够对这类文档进行更全面的文档理解。
从在线检索过程来看,检索前、检索中、检索后过程里,都发展出很多的技术手段来加强和管理整体 RAG 的效果。如检索前可以增加Query改写、知识库路由等模块,检索过程可以采用混合检索策略,检索后可以增加重排序、拒识模块等。
从构建包含 RAG 的 AI应用来看,Agentic RAG 成为新的趋势之一,用户将知识库检索作为大模型的工具之一,由大模型来决定是否以及何时进行检索以获取必要的知识库信息
2.4.2 RAG 知识库的应用场景
知识库落地有广泛的应用场景,包括客户服务、个性化推荐、AI陪伴、内容创作等。其中客户服务 RAG 是最广泛落地的应用之一,从其业务特征来看,通常就需要大量的业务背景知识,并且这些知识是不断更新的,例如常见问题解答(FAQ)、产品规格、故障排除指南以及公司政策等。
在这些场景里,知识库是严格知识的来源、可信任,作为降低大模型幻觉的重要手段。甚至在更加严肃的场景里,许多用户将大模型只作为知识库的整理工具,要求大模型回答需要严格遵循知识库里的知识,不能随意发挥,以避免严重的客诉问题。
当前RAG的应用也已经超越简单的问答。基于RAG 的系统,叠加大模型分析客户对话数据等能力,能够帮助企业优化服务策略和挖掘销售线索等。RAG的价值正在从解决幻觉这一技术问题,向赋能业务的更高层面演进。比如在零售电商场景,用户可以通过上传图片来检索商品,从而实现商品图搜和个性化推荐。而在媒体娱乐领域,多模态RAG也帮助从海量音频视频内容中检索出特定的片段,从而服务于音视频内容分发以及新兴的AI视频创作场景。
2.4.3 RAG 知识库技术的未来发展
大模型发展至今,RAG作为最成熟的AI应用架构之一,尽管基础RAG 的实现已趋于成熟,但仍有人认为其技术含量不高
构建一个真正满足复杂业务需求的高级RAG系统仍然充满挑战,并且该领域正在不断演进。比如在当前Advanced RAG 架构里,仍然有许多技术问题待解决。多模态RAG 相关的技术,也在快速地发展当中,其应用场景和想象力空间更大。
首先是动态样例(FewShot)干预,通过在知识库里维护正例、反例,可以实时通过用户Query召回相关的样例,补充到上下文,从而降低大模型幻觉;然后是大模型工具检索,当一个AI Agent需要接入数量很多的工具时,对于大模型选择工具的和工具入参提取的准确率会造成比较大的挑战,通过构建工具的知识库和动态召回少数工具的方式,可以提升大模型工具调用的准确性和降低时延。
无论未来 LLM 架构如何演变,只要它们仍然依赖外部知识来增强其能力,向量检索作为一种高效、语义化的上下文获取机制,仍然将发挥重要的价值。
2.5 记忆
2.5.1 记忆的核心作用
大模型本质上是无状态的,仅能依赖有限的上下文窗口进行交互,这就导致了交互的非连续性,使模型无法积累连贯的认知或沉淀长期的经验。为此AI原生应用的开发中需要引入记忆组件,为模型带来三个维度的能力:跨越会话的连贯性、高度自适应的个性化,以及基于历史信息的深度推理。
1、跨越会话的连贯性
大模型的上下文窗口是无状态的,无法跨越单次会话来维持交互的连续性。每次交互的中断都意味着历史信息的丢失,会造成沟通效率低下和用户体验的割裂。AI应用通过引入记忆组件解决这一问题。它能够长期保存关键信息(如对话历史、任务状态、决策依据),并通过高效的检索与上下文注入机制,在新的交互中动态地为模型提供相关背景。这确保了多轮、长周期交互的逻辑一致性,进一步支持长期任务的执行。
2、高度自适应的个性化
2.6 工具
2.7 网关
2.8 运行时
2.9 可观测
2.10 评估
2.11 安全
3、AI应用开发框架
3.1 智能体的定义与主流开发范式
Main Topic
3.2 开发一个简单的智能体
Main Topic
3.3 工作流与多智能体
Main Topic
3.4 从单进程到分布式部署
3.5 消息驱动的智能体开发模式
3.6 基于统一元数据的AI协同开发模式
4、上下文工程
4.1 提示词工程
Main Topic
4.2 上下文工程
Main Topic
4.3 RAG技术原理与挑战
Main Topic
4.4 RAG系统优化实践:索引构建
4.5 RAG系统优化实践:检索流程
4.6 RAG的未来方向
4.7 上下文管理与记忆系统
5、AI工具
5.1 AI工具简介
Main Topic
5.2 AI工具标准化
Main Topic
5.3 MCP 实践
Main Topic
6、AI网关
6.1 网关的演进历程
Main Topic
6.2 AI网关的定义、特点与应用场景
Main Topic
6.3 AI网关的核心能力和最佳实践
Main Topic
6.4 使用AI网关快速构建AI应用
6.5 API和Agent的货币化
7、AI应用运行时
7.1 AI应用运行时的演进趋势
Main Topic
7.2 模型运行时
Main Topic
7.3 智能体运行时
Main Topic
7.4 工具与云沙箱
7.5 AI应用运行时的降本路线
8、AI观测
8.1 AI可观测的挑战与应对方案
Main Topic
8.2 端到端全链路追踪
Main Topic
8.3 全栈可观测:应用可观测
Main Topic
8.4 全栈可观测:AI网关可观测
8.5 全栈可观测:推理引擎可观测
9、AI评估
9.1 基于评估降低AI应用的不确定性
Main Topic
9.2 AI评估体系
Main Topic
9.3 基于LLM的自动化评估
Main Topic
9.4 自动化评估落地实践
10、AI安全
10.1 AI安全风险的来源和分类
Main Topic
10.2 保护应用安全
Main Topic
10.3 保护模型安全
Main Topic
10.4 保护数据安全
10.5 保护身份安全
10.6 保护系统和网络安全
11、通向ASI之路
11.1 通向ASI之路
Main Topic
0 条评论
下一页