评估优化
基准测试(Benchmarks)
基准测试是评估 AI 模型能力和性能的标准化测试集合,涵盖了语言理解、逻辑推理、知识问答、代码生成等多个维度。知名的基准测试包括 MMLU(大规模多任务语言理解)、HellaSwag(常识推理)、HumanEval(代码生成)等。这些测试为模型比较、能力评估和技术进展追踪提供了客观的量化标准。我们平常所看到的大模型不同版本发布时,都会直接提供各类测试得分和排序,以此来表示新版本模型在哪些能力上有提升。
设计原则与评估维度
一个有效的基准测试通常遵循以下设计原则:
- 标准化与可重复性:基准测试必须提供清晰、一致的测试流程和评估指标,确保不同研究者和团队在相同条件下能够复现测试结果,从而保证模型比较的公平性和一致性。这包括数据集的预处理、模型训练的超参数设置、评估脚本的统一等。
- 全面性与代表性:基准测试应尽可能覆盖 AI 模型在实际应用中可能遇到的各种任务和场景。例如,对于语言模型,除了常见的语言理解任务,还应包含逻辑推理、常识问答、代码生成、多模态理解等多样化任务,以全面评估模型的综合能力。数据集的选择也应具有代表性,能够反映真实世界的数据分布。
- 客观性与量化:评估结果必须是客观的、可量化的指标,避免主观判断。例如,准确率、F1 分数、困惑度、BLEU 分数等都是常用的量化指标,它们能够直观地反映模型的性能水平。
- 挑战性与前瞻性:基准测试应具有一定的挑战性,能够区分不同模型的性能优劣,并随着 AI 技术的发展不断更新,引入新的任务和更复杂的数据,以推动模型能力的持续提升。
基准测试的局限性
尽管基准测试提供了宝贵的量化标准,但其也存在一定的局限性:
- “过拟合”基准测试:研究人员和开发者可能会针对特定的基准测试进行过度优化,导致模型在测试集上表现优异,但在真实世界应用中泛化能力不足。这被称为“过拟合基准测试”或“基准测试饱和”。
- 无法完全模拟真实世界:真实世界的 AI 应用场景往往比基准测试复杂得多,涉及更多不确定性、噪声和多模态信息。基准测试难以完全模拟所有这些复杂性,因此在基准测试中表现出色的模型,在实际部署时可能仍面临挑战。
- 指标的局限性:单一的量化指标可能无法全面反映模型的性能。例如,高准确率的模型可能在某些特定类型的错误上表现不佳,或者缺乏鲁棒性。因此,需要结合多种评估指标和人工评估来全面衡量模型。
- 数据偏差与公平性:基准测试所使用的数据集可能存在偏差,导致模型在某些特定群体或场景下表现不佳,从而引发公平性问题。因此,基准测试的设计需要考虑数据的多样性和公平性。
未来发展趋势
为了克服上述局限性,未来的基准测试将朝着以下方向发展:
- 动态与自适应基准测试:引入动态更新机制,根据模型能力的变化自动调整测试难度和任务类型,避免模型过度拟合。
- 多模态与跨领域基准测试:随着多模态 AI 的发展,基准测试将更加注重评估模型在文本、图像、音频、视频等多种模态数据上的综合理解和生成能力,并拓展到更多跨领域应用。
- 可解释性与鲁棒性评估:除了性能指标,基准测试将更加关注模型的可解释性、鲁棒性、公平性和安全性等非功能性指标,推动 AI 系统向更可靠、可信赖的方向发展。
- 人类参与与众包评估:结合人类评估的优势,通过众包等方式引入更多人工判断,弥补量化指标的不足,提供更全面的评估视角。
总之,基准测试是 AI 模型评估和优化的重要组成部分,但需要辩证看待其作用和局限性。通过不断完善基准测试的设计和评估方法,才能更好地推动 AI 技术的健康发展。
困惑度(Perplexity)
困惑度是衡量语言模型对文本序列预测不确定性的指标,数值越低表示模型的预测越准确。困惑度反映了模型对语言分布的建模质量,是评估生成模型性能的重要量化指标。在模型训练过程中,困惑度的变化趋势可以用来监控训练进度和判断模型收敛状态。例如,困惑度为 10,意味着模型平均在 10 个词中选择下一个最可能的词。困惑度依赖于词表大小和分词方式,因此比较不同模型的困惑度时,需确保在相同数据集和预处理条件下进行。
困惑度的数学定义
困惑度通常定义为交叉熵的指数。对于一个给定的文本序列 $W = (w_1, w_2, ..., w_N)$,其困惑度 $PPL(W)$ 的计算公式为:
$$PPL(W) = P(w_1, w_2, ..., w_N)^{-\frac{1}{N}} = \sqrt[N]{\frac{1}{P(w_1, w_2, ..., w_N)}}$$
其中,$P(w_1, w_2, ..., w_N)$ 是语言模型预测该序列的概率。根据链式法则,这个概率可以分解为每个词在给定前缀条件下的条件概率的乘积:
$$P(w_1, w_2, ..., w_N) = \prod_{i=1}^{N} P(w_i | w_1, ..., w_{i-1})$$
因此,困惑度也可以表示为:
$$PPL(W) = \sqrt[N]{\prod_{i=1}^{N} \frac{1}{P(w_i | w_1, ..., w_{i-1})}}$$
从这个公式可以看出,困惑度可以被理解为模型在预测下一个词时,平均有多少个“等可能”的选择。例如,如果困惑度为 10,意味着模型在预测下一个词时,平均有 10 个词是它认为同样可能的。困惑度越低,模型对下一个词的预测越确定,性能越好。
困惑度与交叉熵的关系
困惑度与交叉熵(Cross-Entropy, CE)密切相关。交叉熵是衡量两个概率分布之间差异的指标,在语言模型中,它衡量的是模型预测的概率分布与真实词分布之间的差异。序列 $W$ 的交叉熵 $H(W)$ 定义为:
$$H(W) = -\frac{1}{N} \sum_{i=1}^{N} \log_2 P(w_i | w_1, ..., w_{i-1})$$
通过对比困惑度和交叉熵的公式,可以发现它们之间的关系为:
$$PPL(W) = 2^{H(W)}$$
这意味着困惑度是交叉熵的指数形式。当交叉熵降低时,困惑度也会随之降低,反之亦然。因此,在模型训练过程中,通常会监控交叉熵损失的变化,其趋势与困惑度是一致的。
困惑度的应用与考量
- 模型评估:困惑度是评估语言模型性能最常用的指标之一。在相同数据集和预处理条件下,不同模型的困惑度可以直接进行比较,从而判断哪个模型对语言的建模能力更强。
- 训练监控:在模型训练过程中,困惑度的变化趋势可以用来监控训练进度和判断模型是否收敛。通常,随着训练的进行,困惑度会逐渐下降并趋于稳定。
- 语料质量评估:困惑度不仅可以评估模型,也可以间接评估语料的质量。对于一个训练好的语言模型,如果输入一段流畅、语法正确的文本,其困惑度会较低;而对于一段有错误或不连贯的文本,困惑度则会较高。
- 局限性:
- 词表大小和分词方式:困惑度对词表大小和分词方式非常敏感。不同的分词策略(如基于词、字符或子词)会导致不同的困惑度值,因此在比较不同模型的困惑度时,必须确保它们使用了相同的词表和分词方法。
- 不完全反映语义理解:困惑度主要衡量模型对下一个词的预测能力,它在一定程度上反映了模型的语法和局部语义理解能力,但并不能完全反映模型对深层语义、逻辑推理或常识知识的理解。一个低困惑度的模型可能仍然会生成语义不合理或事实错误的内容。
- 与人类感知的差异:困惑度是一个统计学指标,其数值上的微小差异可能在人类感知上并不明显。有时,即使困惑度略高,模型生成的文本在人类看来也可能更自然或更具创造性。
提升困惑度的方法
提升模型的困惑度(即降低困惑度值)通常意味着提升模型的语言建模能力,这可以通过以下方法实现:
- 增加模型规模:更大的模型(更多参数、更深的网络)通常具有更强的学习能力,能够更好地捕捉语言的复杂模式,从而降低困惑度。
- 高质量和多样化的训练数据:训练数据的质量和多样性对模型的性能至关重要。清洗数据、增加数据量、引入不同领域和风格的文本可以显著提升模型的泛化能力和困惑度。
- 优化模型架构:采用更先进的神经网络架构(如 Transformer、GPT 系列等)和注意力机制,能够更有效地处理长距离依赖和复杂语境。
- 改进训练策略:使用更有效的优化器、学习率调度策略、正则化技术(如 Dropout)以及更长的训练周期,可以帮助模型更好地收敛并达到更低的困惑度。
- 预训练与微调:通过在大规模语料上进行预训练,使模型学习到通用的语言表示,然后针对特定任务进行微调,可以有效提升模型在该任务上的困惑度表现。
综上所述,困惑度是评估语言模型的重要工具,但应结合其他评估指标和实际应用场景进行综合考量。理解其数学原理和影响因素,有助于更好地设计、训练和评估语言模型。
鲁棒性(Robustness)
鲁棒性是指 AI 模型在面对输入扰动、对抗性攻击或数据分布变化时保持稳定性能的能力。鲁棒的模型能够妥善处理拼写错误、语法变化、恶意输入、域外数据等挑战性情况。一个鲁棒的模型对于未预料到的或“非理想”输入表现出较强的容错性和适应性,不会轻易产生大幅性能下降或错误预测。例如,在图像识别中,对图像轻微旋转、亮度变化或添加微小噪声后,鲁棒模型仍能正确分类。提高模型鲁棒性对于确保 AI 系统在真实世界应用中的可靠性和安全性具有重要意义。
鲁棒性的具体表现
鲁棒性体现在模型对以下几种情况的抵抗能力:
- 输入扰动:当输入数据发生微小、无意的变化(如传感器噪声、图像亮度变化、语音语速变化、文本中的拼写错误或语法错误)时,模型仍能给出正确或接近正确的输出。
- 对抗性攻击:恶意攻击者通过精心构造的、人眼难以察觉的微小扰动(对抗样本),诱导模型产生错误的输出。鲁棒模型能够有效抵御这类攻击。
- 数据分布变化(Domain Shift):模型在训练数据分布与实际应用数据分布存在差异时,仍能保持较好的性能。例如,在特定光照条件下训练的图像识别模型,在不同光照条件下也能正常工作。
- 模型参数扰动:模型内部参数在部署或微调过程中发生微小变化时,模型的性能不会大幅下降。
鲁棒性的评估方法
评估模型的鲁棒性通常比评估其准确率更为复杂,因为它需要模拟各种潜在的扰动和攻击。常用的评估方法包括:
- 噪声注入:向输入数据中添加不同类型和强度的随机噪声(如高斯噪声、椒盐噪声),观察模型性能的变化。
- 数据增强:通过对训练数据进行旋转、缩放、裁剪、颜色抖动等操作来模拟数据变化,并在增强后的数据上测试模型。
- 对抗样本生成与测试:利用 FGSM(Fast Gradient Sign Method)、PGD(Projected Gradient Descent)等对抗性攻击算法生成对抗样本,然后测试模型在这些样本上的分类准确率。这是评估模型对抗鲁棒性的主要方法。
- 域适应性测试:在与训练数据分布不同的目标域数据上测试模型性能,以评估其对数据分布变化的鲁棒性。
- 敏感性分析:分析模型输出对输入特征微小变化的敏感程度,敏感度越低通常意味着鲁棒性越好。
提升模型鲁棒性的策略
提升 AI 模型的鲁棒性是一个活跃的研究领域,主要策略包括:
- 对抗性训练(Adversarial Training):在训练过程中,除了使用正常样本,还加入对抗样本进行训练。这使得模型能够学习识别和抵御对抗性扰动,从而提高其对抗鲁棒性。这是目前提升鲁棒性最有效的方法之一。
- 数据增强(Data Augmentation):通过对训练数据进行多样化的变换(如随机裁剪、翻转、颜色变换、添加噪声、文本同义词替换等),增加数据的多样性,使模型学习到更具泛化性和鲁棒性的特征。
- 模型正则化:引入 L1/L2 正则化、Dropout、Batch Normalization 等技术,防止模型过拟合,提高其泛化能力和对噪声的抵抗力。
- 鲁棒优化算法:开发新的优化算法,使模型在训练过程中能够更好地处理噪声和异常值,例如使用 Huber 损失函数或 M-估计器。
- 特征去噪与平滑:在输入端或模型内部引入去噪机制,或者通过平滑操作减少特征的敏感性,从而提高模型对输入扰动的抵抗力。
- 集成学习:结合多个模型的预测结果,可以有效降低单个模型对噪声或异常值的敏感性,提高整体系统的鲁棒性。
- 可解释性与因果推理:通过提高模型的可解释性,理解模型做出决策的原因,从而发现并修复导致模型不鲁棒的潜在缺陷。结合因果推理可以帮助模型更好地理解数据背后的因果关系,而非仅仅是统计关联,从而提升其在复杂环境下的鲁棒性。
鲁棒性与泛化能力
鲁棒性与泛化能力(Generalization)是 AI 模型性能的两个重要方面,它们既有联系又有区别:
- 泛化能力:指模型在未见过的新数据上表现良好的能力,这些新数据通常来自与训练数据相同的分布。泛化能力强调模型从训练数据中学习到普遍规律,并应用于同分布的新样本。
- 鲁棒性:指模型在面对输入扰动、对抗性攻击或数据分布变化时,仍能保持稳定性能的能力。鲁棒性强调模型对“非理想”或“异常”输入的抵抗力。
可以说,鲁棒性是泛化能力的一个更严格的子集。一个鲁棒的模型通常也具有良好的泛化能力,但一个泛化能力强的模型不一定鲁棒(例如,它可能容易受到对抗样本的攻击)。在实际应用中,特别是在安全敏感领域,模型的鲁棒性与泛化能力同等重要,甚至在某些情况下,鲁棒性更为关键。
总之,提升 AI 模型的鲁棒性是当前 AI 研究和应用中的一个重要挑战。通过综合运用多种策略,可以构建出更加健壮、可靠的 AI 系统,使其在复杂多变的真实世界环境中发挥更大的价值。
量化(Quantization)
量化是通过降低模型参数的数值精度来减少存储需求和计算成本的优化技术。常见的量化方法包括将 32 位浮点数转换为 16 位、8 位甚至更低精度的整数表示。有效的量化技术能够在保持模型性能的同时显著减少内存占用和推理延迟,使大型模型能够在资源受限的环境中部署。虽然量化可能引入微小的精度损失,但通过量化感知训练(QAT)或训练后量化(PTQ)等精细技术,可以在保持模型性能基本不变的前提下,显著提升部署效率,尤其适用于资源受限的边缘设备和追求极致性能的场景。
量化的基本原理
深度学习模型通常使用 32 位浮点数(FP32)来表示权重和激活值。量化就是将这些高精度的浮点数转换为低精度的表示形式,例如 16 位浮点数(FP16)、8 位整数(INT8)、4 位整数(INT4)甚至更低的二进制或三进制表示。这种转换的核心思想是利用低精度数据类型能够节省存储空间和加速计算的优势。
例如,将一个 FP32 的数值范围映射到 INT8 的数值范围,通常需要一个缩放因子(scale)和一个零点(zero-point):
$$Q = round(\frac{R}{S} + Z)$$
其中,$R$ 是原始的浮点数,$Q$ 是量化后的整数,$S$ 是缩放因子,$Z$ 是零点。反量化(dequantization)则是将量化后的整数转换回浮点数:
$$R = (Q - Z) \times S$$
量化的类型
根据量化发生的时间点和是否需要重新训练,量化技术可以分为以下几类:
训练后量化(Post-Training Quantization, PTQ):
- 定义:在模型训练完成后,直接对已经训练好的 FP32 模型进行量化。这是最简单、最常用的量化方法,因为它不需要重新训练模型,实现成本低。
- 优点:无需训练数据,无需修改训练流程,易于实现。
- 缺点:可能导致一定的精度损失,尤其是在量化到非常低的位宽时(如 INT4)。
- 子类型:
- 动态量化(Dynamic Quantization):激活值在推理时动态量化,权重在训练后静态量化。适用于 CPU 推理,精度损失较小。
- 静态量化(Static Quantization):在少量校准数据集上运行模型,收集激活值的统计信息(如最大最小值),然后确定激活值的量化参数。权重和激活值都在训练后静态量化。适用于 GPU 和专用 AI 加速器,性能提升更显著,但需要校准数据。
量化感知训练(Quantization-Aware Training, QAT):
- 定义:在模型训练过程中模拟量化操作,使模型在训练时就“感知”到量化带来的精度损失,从而在训练过程中进行补偿和优化。模型在训练时仍然使用浮点数进行计算,但在前向传播时会插入模拟量化和反量化操作。
- 优点:通常能获得比 PTQ 更高的量化精度,尤其是在量化到低位宽时(如 INT8、INT4),因为模型在训练时就适应了量化误差。
- 缺点:需要修改训练流程,通常需要训练数据,训练时间可能更长。
量化的优势
- 减少模型大小:低精度表示可以显著减少模型参数的存储空间。例如,将 FP32 模型量化为 INT8,模型大小可以减少 4 倍。
- 降低内存占用:更小的模型意味着在推理时需要加载到内存或显存中的数据量更少,这对于资源受限的设备至关重要。
- 加速推理速度:低精度计算通常比浮点计算更快,因为它们需要更少的计算资源和更低的带宽。许多硬件(如 CPU、GPU、NPU)都针对 INT8 等整数运算进行了优化,可以提供更高的吞吐量和更低的延迟。
- 降低能耗:更少的计算量和内存访问意味着更低的能耗,这对于电池供电的边缘设备非常重要。
量化的挑战
- 精度损失:量化是一个有损压缩过程,不可避免地会引入精度损失。如何平衡精度和性能是量化技术的核心挑战。
- 硬件兼容性:不同的硬件平台对量化数据类型和操作的支持程度不同,这增加了量化部署的复杂性。
- 校准数据选择:对于静态量化,校准数据的选择对量化效果有很大影响。校准数据应具有代表性,能够覆盖模型推理时可能遇到的数据分布。
- 量化范围确定:如何确定最佳的量化范围(即浮点数到整数的映射范围)是关键。过大或过小的范围都可能导致精度下降。
进阶量化技术
为了进一步提升量化效果,研究人员开发了多种进阶技术:
- 混合精度量化(Mixed-Precision Quantization):不同层或不同参数使用不同的位宽进行量化。例如,对不敏感的层使用更低的位宽,对敏感的层使用更高的位宽,以在保持精度的同时最大化压缩率。
- 非对称量化与对称量化:根据浮点数分布的特点,选择不同的映射方式。非对称量化可以更好地保留原始数据的分布信息。
- 逐通道量化(Per-Channel Quantization):对卷积层中的每个输出通道独立进行量化,而不是对整个层使用相同的量化参数,这可以更精细地捕捉不同通道的数值分布。
- 知识蒸馏(Knowledge Distillation):使用一个大型的浮点模型(教师模型)来指导一个量化后的低精度模型(学生模型)的训练,帮助学生模型学习教师模型的知识,从而弥补量化带来的精度损失。
- 稀疏化与剪枝(Sparsity and Pruning):与量化结合使用,进一步减少模型中的冗余参数,从而实现更大的模型压缩。
量化技术是实现 AI 模型高效部署的关键,尤其是在边缘计算和移动设备上。随着 AI 应用的普及,量化技术将继续发展,以在更低的位宽下实现更高的精度和更广泛的硬件兼容性。
延迟(Latency)
延迟是指 AI 从接收输入请求到产生完整输出响应的时间间隔,是衡量 AI 系统实用性的关键性能指标。低延迟对于实时交互应用(如对话系统、实时翻译)至关重要。影响延迟的主要因素包括模型规模、硬件配置、网络传输、批处理策略和系统优化水平。
延迟的构成与测量
AI 系统的总延迟通常由多个环节的延迟累加而成:
- 数据采集延迟:从传感器获取数据到数据准备好被模型处理的时间。
- 数据传输延迟:数据在不同组件(如客户端到服务器、CPU 到 GPU)之间传输所需的时间。
- 模型推理延迟(Inference Latency):模型接收输入数据并生成预测结果所需的时间。这是 AI 系统延迟中最核心的部分,受模型大小、计算复杂度、硬件性能等因素影响。
- 后处理延迟:模型输出结果进行进一步处理(如格式转换、结果解析、决策制定)所需的时间。
- 结果传输延迟:处理后的结果传输回用户或下游系统所需的时间。
测量延迟通常使用毫秒(ms)或秒(s)作为单位。在实际应用中,通常会关注平均延迟、P90(90%分位点)延迟、P99(99%分位点)延迟等指标,以全面评估系统在不同负载下的响应能力。
影响延迟的主要因素
模型规模与复杂度:
- 参数量:模型参数越多,通常计算量越大,推理时间越长。
- 网络深度与宽度:更深或更宽的网络意味着更多的层和神经元,增加了前向传播的计算负担。
- 操作类型:模型中包含的复杂操作(如注意力机制、长序列处理)也会显著增加计算量。
硬件配置:
- 计算能力:CPU、GPU、NPU 等计算设备的浮点运算能力(FLOPS)和整数运算能力直接影响推理速度。
- 内存带宽:模型参数和激活值在内存和计算单元之间传输的速度,是影响延迟的重要因素,尤其对于大型模型。
- 缓存大小:CPU/GPU 缓存的大小和效率会影响数据访问速度。
软件优化与运行时环境:
- 推理框架:不同的深度学习推理框架(如 TensorRT、OpenVINO、ONNX Runtime)对模型图优化、算子融合、内存管理等方面的优化程度不同,会影响推理效率。
- 批处理大小(Batch Size):在推理时,将多个请求打包成一个批次进行处理可以提高硬件利用率和吞吐量,但通常会增加单个请求的延迟。
- 并发与并行:多线程、多进程或分布式推理的实现方式会影响整体系统的响应能力。
- 操作系统与驱动:底层系统和硬件驱动的优化也会对延迟产生影响。
数据传输与网络:
- 网络带宽与稳定性:在分布式 AI 系统或云端推理场景中,数据在客户端和服务器之间传输的网络延迟是总延迟的重要组成部分。
- 数据序列化/反序列化:数据在传输前后的编码和解码过程也会引入额外延迟。
延迟的优化策略
降低 AI 系统延迟是一个系统工程,需要从模型、硬件、软件和部署等多个层面进行优化:
模型优化:
- 模型剪枝(Pruning):移除模型中不重要的连接或神经元,减少模型大小和计算量。
- 模型量化(Quantization):将模型参数和激活值从高精度浮点数转换为低精度整数,减少存储和计算成本,并利用硬件对低精度运算的加速能力。
- 知识蒸馏(Knowledge Distillation):使用一个大型的教师模型来训练一个小型学生模型,使学生模型在保持性能的同时,减小模型规模,从而降低推理延迟。
- 架构搜索(Neural Architecture Search, NAS):自动搜索更高效、低延迟的模型架构。
- 轻量级模型设计:直接设计参数量少、计算复杂度低但性能良好的模型架构(如 MobileNet、ShuffleNet)。
硬件加速:
- 选择高性能硬件:使用更强大的 CPU、GPU 或专用的 AI 加速芯片(如 TPU、NPU),它们通常针对深度学习推理进行了优化。
- 边缘计算部署:将 AI 模型部署到离数据源更近的边缘设备上,减少数据传输到云端的网络延迟。
推理框架与运行时优化:
- 使用高效推理引擎:利用 TensorRT、OpenVINO、ONNX Runtime 等推理引擎对模型进行图优化、算子融合、内存优化等,以最大化硬件性能。
- 异步推理与流水线:将推理过程分解为多个阶段,并采用异步执行和流水线技术,隐藏部分延迟。
- 动态批处理(Dynamic Batching):根据实时请求量动态调整批处理大小,平衡吞吐量和延迟。
- 模型编译与部署:将模型编译成特定硬件平台上的高效代码,并优化部署流程。
系统级优化:
- 网络优化:优化网络拓扑、使用更快的网络协议、减少数据传输量。
- 并行与分布式推理:在多个计算设备或服务器上并行执行推理任务,以处理高并发请求。
- 缓存机制:对重复的输入或中间结果进行缓存,避免重复计算。
- 冷启动优化:对于首次请求或长时间未使用的模型,优化其加载和初始化时间。
延迟与吞吐量(Throughput)
延迟和吞吐量是 AI 系统性能的两个重要但相互关联的指标:
- 延迟:衡量单个请求从输入到输出所需的时间。
- 吞吐量:衡量单位时间内系统能够处理的请求数量或数据量。
通常情况下,为了提高吞吐量(例如通过增大批处理大小),可能会牺牲单个请求的延迟。反之,为了降低延迟,可能需要减小批处理大小,从而降低吞吐量。在实际应用中,需要根据具体场景的需求来权衡延迟和吞吐量,例如,实时交互应用更关注低延迟,而离线批处理任务可能更关注高吞吐量。
总之,延迟是 AI 系统实用性的关键指标,尤其在对响应速度有严格要求的场景中。通过综合运用模型优化、硬件加速、软件优化和系统级优化等多种策略,可以有效地降低 AI 系统的延迟,提升用户体验和系统效率。