阿里妈妈内容风控模型预估引擎的探索和建设

作者:徐雄飞、金禄旸、滑庆波、李治

现有的模型预估引擎(Inference-kgb)由于历史业务演进、临时性支持妥协,随着模型数量不断增加问题逐渐暴露出来,下面从能力、效率、质量、成本四个方面详细分析现有的问题,为我们重构新的引擎打下基础。

1.2.1能力问题

缺乏统一的加速方案:仅部分模型通过GPU进行加速,大部分模型性能较差;异构混部模型缺乏通用的接入、导流、蓄洪和限流等服务特性和运维特性。

一致性问题:离线和在线模型结果一致性难以保障,没有形成通用方案;跨平台模型CasebyCase上线,没有统一的服务API;运维干预纯靠人工经验,无可靠的管控API。

1.2.2效率问题

研发周期长:Inference-kgb框架底层采用C++实现,算法同学上线前需要将训练的Python代码翻译成C++代码,开发周期长且部分库无法直接翻译需要手写,会导致实验结果和线上不一致。

部署上线流程复杂:每个模型上线都需要代码开发,像分类模型代码及配置都相同只更换模型文件,由于框架限制需要走完开发、测试、部署、上线全流程。过去模型部署链路在/近/离线是分别管理的,模型上线过程中需要跨多个平台进行配置,操作繁琐。每次模型上线需要通过邮件申请Metaq(阿里内部消息中间件)消息,等Metaq同学回复邮件后才能够继续发布流程;研发流程无法保障多人协作安全、高效。

1.2.3质量问题

缺乏统一的接入标准:早期整个框架是完全自研实现,可参考的方案较少,不断演进之后与业界方案存在差异。如缺乏统一的TensorinTensorout模型层面无业务语义的接口,用户接口设计不合理,接口核心字段为imageUrl和textString导致很多字段都通过拼接的方式传入textString中;输入非结构化存在诸多问题,如离线冷启动执行模型时,需要手动按照线上逻辑进行字段拼接。

子模型问题:将多个通用分类、检测模型部署在一个服务中,然而服务及运维属性都是按照模型粒度设置的,无法根据子模型定制:如Cache、计算资源等是针对整个服务维度生效的,无法根据子模型进行精细化控制。

同质代码缺乏复用:如检索类模型提取向量特征之后需要进行检索库匹配操作,过去的服务框架将特征提取和检索融合在一起,由于检索库的差异会导致部署模型数量膨胀。

1.2.4成本问题

GPU利用率低下:部分大流量的模型之前没有GPU版本,GPU模型普遍使用率比较低。离线无法充分利用资源提取特征,由于模型缺乏GPU镜像,导致离线提取特征是无法充分利用智能引擎(MDL)资源池、主搜(Hippo资源调度)资源池的离线GPU资源。

基于以上问题,我们考虑对现有模型预估系统(Inference-kgb)进行重构,优先考虑复用集团或开源现有的能力,因此我们对集团及开源方案进行了调研。

分别调研阿里云EAS、达摩院Aquila、CRO灵境、阿里妈妈HighService、开源TritonServer。

以上平台/框架,有些包含完整的模型部署、运维功能,有些只包含模型加速功能。我们尝试推演将模型整体部署到平台上,遇到以下几个问题:

资源互通问题:以上平台(如EAS),需要在ASI(AlibabaServerlessinfrastructure)上统一申请资源,现有的Hippo资源无法直接迁移过去使用。

离线计算问题:目前已有平台解决的基本都是在线服务部署的问题,由于风控业务特性,我们遇到风险事件时需要在离线环境进行大批量的特征提取及全量数据的风险防控,在指定时效内完成风险清理,这部分没有现有能力支持。

缺乏偏业务语义的功能:针对偏业务语义的功能,平台没有很好的支持,如模型对应的风险管理,版本迭代后的业务效果,模型结果复用等。

考虑到业务诉求及已有能力最大程度复用,核心构建上层偏业务的服务能力,底层能够接入EAS、HighService、Aquila等多种Backends,进行模型服务和加速。

RD内核部分,参考NIVIDIATritonServer实现(NVIDIA开源推理框架),我们定义了一套标准业务接口,支持多Backends对接的在线服务。其中StandardAPI支持TensorinTensorout标准模型协议,由Model、Version、Tensor标准三元组构成,模型内部支持动态Batching特性。通过对接集团及开源社区已有的Backends低成本的实现模型预估能力。

接口定义分为面向业务及面向数据两个维度,面向业务包含图片、文本、视频等内容识别输入输出接口;面向数据面,我们与主流的KServe(开源云原生模型推理框架)对齐,采用TensorinTensorout进行模型预估逻辑。

3.1.1业务接口

3.1.2数据面接口

在模型内部,都是以Tensor数据格式进行传输,我们支持调用方通过Tensor接口调用模型服务,通过TensorFlow、KServe以及内部EAS对TensorFlow/PyTorch模型的服务接口抽象,定义我们自己需要的TensorFlow/PyTorch模型服务标准API如下图:

3.1.2.1Predict接口

1)TensorDataType:TensorDataType用于标准化指定Tensor的数据类型。

2)TensorShape:用于标准化指定Tensor的维度。

3)TensorDataContent:内部的EAS和外部开源的TensorFlow其实都没有TensorDataContent这个抽象,都使用的完全平铺的方式定义Tensor内容,KServe最新版本对TensorData做了抽象,是能够包含EAS和TensorFlow的定义的,因而采用。

4)InferParameter:InferParameter这个数据结构,内部的EAS和开源的TensorFlow都没有定义,但是KServe最新版本的API定义里预留出来了,目的是未来能够基于标准化的Tensor定义支持跨多个不同的非标准化推理服务平台后端,通过拓展参数增强跨平台的可移植性。考虑到内容风控未来线上模型也会对接多个非标准化Backend,所以考虑在前面统一的APIProtocol标准化Tensor结构定义的基础上,也引入InferParameter以实现跨平台的对接能力。

5)TensorEntity:把TensorDataType、TensorShape、TensorDataContent和InferParameter组合,得到一个标准化定义的TensorEntity数据结构。

6)PredictRequest:如前面所述,我们把原子的TensorinTensorout的推理服务命名为Predictor,PredictRequest则是每个Predictor角色的标准化输入接口入参,这里提取EAS、TensorFlow和KServe各自有用的部分组合而成。

7)PredictResponse:PredictResponse核心返回数据结构是TensorEntity,同时把PredictRequest原始请求的模型信息、拓展参数信息也带回来(参考KServe设计,原生TensorFlow和EAS没有)。

3.1.2.2Metadata接口

1)TensorMetadata:Tensor的元数据由Tensor名、Tensor数据类型和Tensor维度组成的三元组表示。

2)ModelPlatform:后端支持的模型框架平台类型,目前支持原生的Tensorflow、PyTorch、TensorRT三类,以及集团内部HighService、EAS、Aquail等。

3)ModelMetadataRequest:ModelMetadataRequest是用于请求模型推理服务元信息的标准化抽象接口,由模型名(name)+模型版本(version)构成二元组。

4)ModelMetadataResponse:根据ModelMetadataRequest指定的模型名+模型版本二元组获取详细的模型推理服务信息,主要由传入的模型名、模型版本、输入Tensor元数据和输入Tensor元数据这四部分组成。

RiskDetection:提供标准的模型用户接口,提供模型服务特性和运维特性,串联模型前处理、模型预估、模型后处理阶段。

Predictor:提供模型标准数据面TensorinTensorout接口,兼容多种RTP协议的Backends。Predictor逻辑上是拆分成独立的服务,物理实现为了减少I/O请求,可以考虑和前后处理部署在同一台机器上。

Transformer:Transformer用于模型服务的前后置处理,它和Predictor共同完成一个完整的模型推理请求。Transformer一方面可以通过拓展前处理逻辑把外部输入转换成Predictor接收的标准输入格式,另一方面可通过拓展后处理逻辑把Predictor返回的结果做进一步转换供给业务方应用。

Backends:底层具体采用的模型服务框架,包含集团及开源解决方案。

风控业务包括了在/近/离线场景,不同场景对资源、时效、吞吐等要求不一样,各场景提取出来的特征需要保障最终一致。对一致性保障可以划分成两个层级:特征完全一致、业务效果一致。

1)特征完全一致:高保障业务场景,对风险判断要求更严格,我们需要确保模型输出Tesnor保持一致,因此在/近/离线需要保证镜像、模型文件版本、计算资源完全一致。

2)业务效果一致:在一些保证级别要求不高,且计算量大的场景,我们允许在/近/离线计算资源不一致,如在线采用GPU,离线采用CPU(GPU通过TensorRT半精度加速后结果有损),只需要在业务效果上保障一致即可。

过去的Inference-kgb基于原生TensorRT进行模型加速,随着模型迭代更新越来越频繁,每次算法同学训练模型到上线都需要将Python代码用C++重新实现一遍。通过对集团及开源方案调研,现有的框架很多都支持Python直接进行模型部署、加速,能够解决Python语言带来的GIL锁冲突问题,新的框架我们采用Python进行模型预估开发,并且能够支持多种模型加速Backends(如HighService,EAS,Aquila等),可以直接复用已有能力,无需从0开始重新搭建模型推理加速功能。由于整体框架初见雏形,我们先接入了HighService和EAS两个Backends,支持我们核心模型的落地。

HighService是阿里妈妈异构计算团队内部开发提供的,基于Python多并发异构计算服务框架。HighService框架通过解耦GPU及CPU计算,使用多进程进行CPU计算,充分利用多核CPU资源,在多个CPU进程与单个GPU进程之间通信,避免GPU进程饥饿,同时CPU进程数不受GPU大小内存限制。内部集成了TensorRT加速功能,成倍地增加了PyTorch模型的计算能力。使用HighService框架服务的动机,除了它的高性能以外,还有一个重要原因,就是利用Python模型易于迭代、维护、定位问题的优势,可以更好地服务业务,解决了业务方研发周期长的痛点。相比于过去的Inference-kgb框架,利用HighService的RD框架上线一个GPU模型的研发周期得到大幅度提升。

EAS广泛在集团使用,它与PAI平台(模型训练平台)无缝衔接,并且底层拥有完善的Blade加速方案,服务和运维特性非常全面。在与EAS同学深入沟通后,发现由于计算资源池及离线业务特殊性等原因,无法直接将服务完全托管。但EAS提供的SDK能够给支持模型的部署、加速能力,这部分能力可以直接接入RD作为Backend,接入后基于镜像部署可以同时支持在/近/离线的业务。

EAS主要的接入方式有两种:Processor方式接入和Mediaflow方式接入,Processor方式需要将模型部署在EAS平台上,能够方便的部署模型,并且提供标准化的Tensor接口;由于我们无法直接将模型部署到EAS平台,因此我们采用Mediaflow的方式接入。具体实现demo如下:

Mediaflow方式是EAS团队今年新研发的方式,可以将整个模型流程采用DAG进行串联(也可以是单个节点),能够轻量级接入SDK,并且享受到底层Blade加速效果。

完成RD系统重构,我们进行压测及效果验证达标后,开始对接业务。目前RD主要服务于阿里妈妈内容风控在/近/离线模型计算,为内容风控机审风险识别和人审提效服务。在/近线都是常驻型服务,拉起后提供HSF服务接口,离线是通过批量任务的方式启动。

对比过去的Inference-kgb服务拉起配置较为繁琐,需考虑了多个子模型DAG之间的串联,采用OP算子进行关联。每个模型上线都需要开发OP,哪怕仅更换模型文件拉起不同的服务。我们将子模型组装DAG前置到业务编排组件,RD就是纯粹的进行特征提取、模型计算,因此在服务拉起及服务运维方面有较大提升。

5.1.1快速服务拉起

拉起服务主要依赖镜像+模型文件+模型配置三元组,三元组唯一确定一个模型服务,因此快速拉起服务的首要任务就是管理服务依赖的三元组。

镜像:RD所有支持的模型都共用相同的镜像,同时支持CPU、GPU模型运行,这样方便整体的管理和运维。统一镜像也会带来一些负面作用,如修改A模型可能会影响B模型,这个需要我们在开发过程中,修改到公共部分时特别小。需要借助单元测试、集成测试等标准化流程规避此类问题。

模型文件:统一管理在OSS上,由模型名称+版本号唯一确定一个模型文件。可以根据模型文件恢复历史任意的模型服务。该功能为后续做模型效果对比等功能提供底层能力支持。

模型配置:吸取过去的Inference-kgb复杂模型配置教训,RD极大的简化配置内容,将配置分为静态和动态两部分。静态模型配置:如模型代码路径,模型Backend配置,模型是否需要Cache等,这些配置与部署的模型实例无关。如部署GPU、CPU版Face,以上配置都是相同的。动态模型配置:如服务接口、模型版本、资源类型等,每个部署实例有不同的配置。动态配置能够方便的启动相同模型的不同服务版本,能够支持业务进行效果对比或者CPU、GPU混部等能力。

如上图,通过以上设计我们能够更方便的针对同一个模型启动各种版本,使用不同类型和保障级别的资源,支持各种隔离级别的业务。

5.1.2模型服务/运维特性

参考集团及开源方案,核心服务/运维特性主要包括Caching、Batching、Scaling,支持以配置化地方式拓展服务/运维特性从而拓展系统处理能力,主要特性描述如下:

通过在线防控,我们能够解决增量风险问题,然而如果有风险外漏,或者监管调整,我们都需要对全量数据进行风险防控。同时算法同学需要在离线进行大量实验、评测,这些都依赖于离线具备大规模模型计算能力,因此RD需要具备离线计算的能力。

5.2.1离线任务对接

Starling是阿里妈妈风控自研的基于主搜Drogo(资源调度管理平台)之上进行业务调度平台,底层使用主搜Hippo资源池。风控场景在离线需要提取百亿级图片、文本特征进行实验或者风险防控,模型计算需要大量的计算资源,Hippo资源池拥有海量非保障(离线)资源,Starling的初衷是可以削峰填谷地使用这些资源支持业务特性。

RD对接上Starling之后,便拥有了离线调度计算的能力,能够灵活的拉起Hippo资源,并与ODPS(对外产品为MaxCompute)打通,对ODPS数据进行读写。同时能够通过ODPS进行任务调度,进行定时增量数据特征提取。

如上图为RD与Starling对接的架构图,Starling的Master节点管理和调度RD进行模型计算,和模型配置文件分发,StarlingSDK实现ODPS对接及Slave节点状态上报。

上图为通过ODPS配置Starling任务节点进行调度,实现定时特征提取功能。

5.2.2单容器多实例部署

对于模型计算而言,离线与在线存在的核心差异是数据源及消费方式,在线是流式源源不断输入,离线则是固定数据集运行特定的模型。一个任务计算量是亿甚至百亿级别,内容场景有很多图片模型。考虑到拉图成本及多模型任务依赖的管理成本,我们通过单容器支持多个模型运行的方式,节约拉图60%左右,以及简化任务配置实例。

支持单模型多实例部署的前提是模型之间没有相互冲突,所以CPU资源上更容易实现,GPU资源由于16G显存的限制,很容易OOM。CPU也需要根据模型大小、内存申请等控制实例部署个数,例如30G内存部署3个模型。以下是合并前和合并后任务节点的配置,可以发现合并之后节点明显简洁得多。

5.3.1离线清理支持

离线部署6个核心模型支持全量及增量数据提取任务,通过Starling使用非保障资源批量提取增量百万级图片特征可在20分钟内完成。

5.3.2双十一业务支持

RD目前对外提供的接口是同步请求方式,QPS超过模型服务单机承载能力(CPU/GPULoad打满)时,会造成模型服务RT成倍增长影响业务稳定,因此需要对每个模型进行精确限流。内容风控模型服务众多,从模型部署角度上讲:同一个模型可能跑在GPU或者CPU上,也有可能部署在不同机房(机房拉图带宽有上限,需要多机房部署),不同集群之间有Backup的关系(比如GPU集群被限流则自动将流量导入到CPU集群),从业务角度上讲:对于高优先级场景中的底线类风险需要百毫秒级以内得到模型结果,而一些低优先级的体验类风险则可以使用一些便宜的机器进行计算,能够承受一定RT延迟。仅依赖HSF(阿里RPC框架)的限流配置或Sentinal限流(阿里分布式限流框架)组件远不能满足这种异构部署和业务上多样化的导流需求,因此我们自建了InferenceProxy服务来支持基于业务标签的QoS和导流能力,在保护下游RD服务能力的同时,对物理层面的调用关系进行配置化的编排。

导流表其中几项配置如下:

由用户自定义的一段逻辑从请求原始Payload提取信息并打上标签,例如上面这个请求会打上label=1125这个标签。执行时会首先查出符合条件的所有导流项:1、2。按照同优先级+权重的方式分配流量,详细来说:其中1和4的priority都是0,1的weight是10,4的weight是50,则这个请求以1/6的概率打在服务1上,以5/6的概率打在服务4上。

如果请求priority=0的服务失败或超时,则会打到priority等于1的第二项服务2上,仍旧超时或失败,则该请求会进入离线兜底队列。参考导流表设计,一个请求到来时,会筛选出符合条件的几个导流策略,按照priority进行排序分层,各priority之间使用责任链模式串联,如果请求失败或超时,则进入责任链的下一个策略priority进行执行。

核心类图:

过去的Inference-kgb由于性能问题,TOP3请求的模型存在严重的性能瓶颈。RD上线后,我们可以同时支持GPU版和CPU版在线上运行,性能相比线上CPU版有了几十倍的提升,通过InferenceProxy进行模型服务接入,能够精准的控制机器和流量配比。

通过InferenceProxy切流方案,我们能够将新的RD安全稳定的接入到在线服务中,承载TOP3模型流量,优雅解决了双十一大促过程中模型积压的问题。切流链路如下所示:

模型推理加速:完成Inference-kgb迁移RiskDetectionGPU加速,并且持续打磨HighService及接入更多Backends,让模型接入更加简单方便,形成标准化接入流程;新增CPU通用加速流程,形成CPU标准化加速方案,并在ID模型上落地;调研PPU加速方案,尝试采用PPU解决在/近/离线资源瓶颈问题。

服务运维特性:完善核心三大服务及运维特性:Caching,Batching、Scaling;其中Batching、Scaling依赖Backends提供相应的能力,ID实现通用配置化管理。

模型源数据管理:模型文件、镜像、配置进行标准化管理,在/近/离线复用同一套管理标准。

简化模型发布流程:借助已有平台标准化模型效果验证、配置、部署、回滚、灰度发布流程。

代码质量:由于Drogo多Role部署不能直接按照Aone发布流程部署,需要手动在Drogo上部署,导致Aone上设置的CodeReview、单元测试等卡点无法直接生效。因此我们需要制定发布标准,并严格按照标准执行。

服务质量:标准化开发、测试流程,对模型服务质量、代码质量、服务质量提出明确要求,并遵守标准规范,不合规范不允许上线。完善系统监控,报警信息。

提升资源利用率:通过CPU、GPU加速、Batching等功能提升系统性能,从而达到减低计算成本的作用。通过弹性缩扩容落地,更加合理使用资源提升整体资源使用效率。

对模型类型约束:相同类别的模型尽量复用同一套代码(如分类模型)限制模型类别,不过度限制模型数量。类别固定有利于模型更方便的复用,减低开发、运维成本。

THE END
1.上传模式与实时模式详解,操作与应用指南(适用于初学者与进阶用户2、实时模式:指的是数据在产生后,能够立即进行传输和共享的模式,在直播、在线会议、实时通讯等领域应用广泛。 如何操作上传模式 要开始使用上传模式,您需要遵循以下步骤: 步骤一:选择文件 在您的计算机或移动设备中选择您想要上传的文件,这可以是图片、视频、音频或文档。 https://www.shuguo168.com/post/11417.html
2.离线编程操作,优势应用与未来离线编程技术,离线编程操作,优势离线编程操作,顾名思义,是指在没有网络连接的情况下进行的编程操作,传统的在线编程需要在互联网环境下进行,而离线编程则可以在没有网络的环境中完成编程任务,这种编程方式主要依赖于本地计算机的硬件和软件资源,通过编写、调试和执行程序来达到预期的功能。 http://www.skypure.com.cn/post/35344.html
3.三重时空变化模式的视频协调视频协调是一项重要而具有挑战性的任务,旨在通过自动调整前景的外观以与背景协调,从而获得视觉上逼真的合成视频。受手动协调的短期和长期逐步调整过程的启发,提出了一个视频三重变换器框架,用于模拟视频中的三种时空变化模式,即短期空间以及长期全局和动态,用于视频协调等视频到视频任务。 https://zhuanlan.zhihu.com/p/13827922254
4.数据的存储有在线近线和离线等方式。系统数据的存储有在线、近线和离线等方式。系统当前需要用的数据通常采用在线存储方式;近期备份数据通常采用近线存储方式;历史数据通常采用离线存储方式。目前,常用的在线式、近线式、离线式存储介质分别是( )。 问题1选项 A.U盘、光盘、磁盘 B.移动磁盘、固定磁盘、光盘 https://www.educity.cn/tiku/74195.html
5.存储知识:数据一致性分级存储分层存储与信息生命周期管理从性能上来说,磁盘当然是最好的,光盘次之,最差的是磁带。而从价格上来说,单位容量成本磁盘最贵、光盘次之,磁带最低。这就为我们不同的应用追求最佳性价比提供了条件,因为这些不同的存储媒介可应用于不同的存储方式中。这不同的存储形式包括在线存储、近线存储和离线存储。https://cloud.tencent.com/developer/article/1529091
6.百度搜索深度学习模型业务及优化实践02 搜索超大规模在线推理系统 2.1 在线系统与近线/离线系统 搜索在线推理系统,是根据用户query进行实时计算并返回结果,模型主要分为三部分:需求分析/query改写、相关性/排序、分类。 (1)需求分析/query改写,是通过深度学习模型返回一个语义相近的query 当用户问:“熔断是什么意思啊?” 其中含有口语化表达,通过调用深度https://blog.itpub.net/28285180/viewspace-2995181/
7.词汇表包括在线、近线、异地和离线存储在内的存储空间,用户可通过 Oracle HSM 文件系统进行引用。admin set ID(管理集 ID) 由存储管理员定义、拥有共同特征的用户和/或组的集合。创建管理集的目的通常在于,对涉及到来自多个组的用户以及跨多个文件和目录的项目存储进行管理。archival media(归档介质) 写入归档文件的目标介质https://docs.oracle.com/cd/E75712_01/SAMMA/samqfs_glossary.htm
8.国有资产管理模式构建12篇(全文)数据存储管理和迁移服务器是媒体资产管理系统的重要组成部分。软件采用标准的模块化设计, 主要功能是监测素材的使用频率和在线Raid剩余空间, 有选择性地将高码率素材迁移到近线存储中。同时, 迁移服务器还启动带机械手的光盘自动刻录机, 备份素材到离线存储光盘中。 https://www.99xueshu.com/w/ikey6pke632g.html
9.近线存储结构:医疗PACS系统离线存储和在线存储资源近线存储正是为了解决这种需求而设计的,它结合了在线存储的快速访问和离线存储的低成本优势。 近线存储的核心技术是分层存储管理(Hierarchical Storage Management,HSM)。HSM服务通过自动化流程将不常访问的数据从高成本的硬盘迁移到成本更低的存储介质,如光盘库或磁带库。这不仅降低了存储成本,还确保了数据的长期保存。https://download.csdn.net/download/weixin_38686557/12208327
10.LinkedIn数据架构剖析mysql教程因此,LinkedIn 工程师团队提出了三段式(three-phase)数据架构,由在线、离线以及近线数据系统组成。总体上讲,LinkedIn数据被存储在如下几种不同形式的数据系统中(看下面的图): RDBMS Oracle MySQL(作为Espresso的底层数据存储) RDBMS Espresso(LinkedIn自己开发的文档型NoSQL数据存储系统) Voldemart (分布式Key-valuehttps://m.php.cn/faq/133904.html
11.推荐引擎产品RecEng介绍学习笔记主要处理用户行为发生变化、推荐物品发生更新时,对离线推荐结果进行更新。 近线计算不像离线计算那样专门以 max compute 作为输入输出,近线程序的输入数据可以来自多个数据源,比如说在线的表格存储以及用户的api请求或者是程序中的变量,输出可以是程序变量或者写回在线存储,或者返回给用户,出于安全性的考虑,推荐引擎提供一https://developer.aliyun.com/article/1088196
12.近线硬盘是什么,近线离线存储有什么好处所谓的近线存储,外延相对较广泛,主要定位于客户在线存储和离线存储之间的应用。就是指将那些并不是经常用到,或者说数据的访问量并不大的数据存放在性能较低的存储设备上。但同时对这些的设备要求是寻址迅速、传输率高。(例如客户一些长期保存的不长用的文件的归档)。因此,近线存储对性能要求相对来说并不高,但又要https://www.dt-stor.com/yingpanbaike/161.html
13.上海烁谱科技有限公司上海烁谱科技有限公司 非浸入式荧光氧/溶解氧传感器、荧光pH传感器、温度传感器等核心技术https://www.spsens.cn/
14.档案馆电子档案与数据离线备份管理规范2.1近线备份 指存储设备与计算机系统物理连接,操作系统或应用系统不可随时读取和修改备份于其中的电子档案和数据,备份策略、恢复方式等通过独立于操作系统、应用系统的存储管理系统实施。 2.2离线备份 指将电子档案和数据存储于可脱离计算机、存储系统保存的存储介质上,如光盘、磁带等。 2.3在线备份 指存储设备与计算机系统https://wenku.baidu.com/view/8621e4d607a1b0717fd5360cba1aa81144318fa7.html
15.某银行对企业级对象存储7方面性能14个案例的测试实录总行影像数据通过存储分层架构实现在线、近线和离线数据的存储和隔离。在线存储存放于闪存(FS900)当中,约 5T,保存了近 7 天的影像数据,并通过 IBM 的 ECM 客户端定期迁移至 ECM 系统所在的近线存储(DS8870)当中,约 20T,保存了近 30 天的影像数据,最后再通过 TSM备份软件每日将近线存储中的影像数据备份至华为(https://blog.51cto.com/u_15127582/2756934
16.腾讯广告基于混元大模型的生成式召回落地实践图10:近线推理、离线训练工程架构图 不同于广告现有召粗精排模型的 ms 级耗时,LLM 推理的在线耗时通常在 50-500ms 量级、不适合作为在线的实时推理,因此工程上我们建设近线推理的方式,近线预估用户感兴趣的营销对象,在用户下次请求广告系统时做对应推荐。另一方面,即使是近线推理,由于 GPU 推理资源相对珍贵和受限https://53ai.com/news/LargeLanguageModel/2024101726784.html
17.StorageTek近线归档存储方案助CCTV新闻共享系统存储在线近线存储技术是指相对于速度更快、价格昂贵的在线磁盘存储产品和通过手工方式将数据归档到磁带上的离线磁带技术而言的高性能磁带库技术。StorageTek的近线磁带库以离线产品的价格提供接近在线的性能,为客户提供所需的大容量数据的快速备份和随机实时查询的必需能力。 https://www.dostor.com/p/1188.html