java100003字,带你解密双11618电商大促场景下的系统架构体系个人文章

起于2009年,刚开始的双十一还并不出名,电商开展促销月都是以各自的店庆月作为基础的。国美在线是4月份,京东6月份,易购8月份,而淘宝商城选择了双十一作为促销月。促销的初衷是光棍节(11月11日)大家没事干,就该买点啥东西去当礼物送人。于是乎,双11就这样诞生了。

了解双11背景下电商公司的应对措施,有助于提升高访问量背景下的系统架构知识。

从组织架构到技术架构,当前各大电商系统基本趋于中台化。中台在2015由阿里提出,其实是一种企业架构而不是单纯的技术层面,目前几乎各大电商都进行着中台化的建设。

中台没有什么神秘的,说到底,中台就是对”共享“理念系统化的归纳和总结。

即大中台,小前台的前台,电商中直面用户的B2B,B2C等各个业务线。

业务中台基于公共服务的沉淀,需要收敛一些基础的业务服务,如商品、订单、会员、库存、财务、结算等等。

数据中台不是一个平台,也不是一个系统。数据仓库、数据平台和数据中台是有区别的。简单的举例:数据平台可以理解为数据库,数据仓库类比为报表,而数据中台更贴近上层业务,带着业务属性。

与业务无关的基础沉淀,中间件,系统框架,监控,日志,集成部署等等

(根据项目情况有所偏重,例如分布式与一致性是一对矛盾)

该小节从中台的各个团队角度,介绍双11期间的一些应对措施和遇到的问题。

(异步化的目的是什么?大家使用过的mq?遇到的问题?)

场景:

大促期间新增许多需要获取订单状态的服务,比如应对双11而临时增加的数据中台订单大屏展示等

解决:

异步化,并对消息队列调优,多队列分流

问题:

注意异步化引发的乱序问题,一是传输阶段,二是消费阶段

局部有序与绝对有序

图解:

rabbitmq传输:队列级别顺序保障,单消费者消费一个队列可以严格保障顺序性,需要扩充队列数提升性能

kafka传输:分区级别顺序保障,只能保障投放和传输阶段的顺序性

消费阶段:1对1消费存在性能问题,接收消息后对key做二次分发,放入多个内存队列,开启多线程消费

(场景及思考,如果让你做架构设计有什么方案?这些方案有什么优缺点)

双11抢单是最常见的场景,抢单不支付会占据大批量资源,如商品库存。如何取消过期订单是架构师必须面对的问题。主要有以下几种方案:

扫表实现

原理:

通过定时任务轮询扫描订单表,超时的批量修改状态

优点:

缺点:

java延迟队列实现

优点:

消息队列实现

缺点:

redis实现

被动取消

支付交互流程,支付系统设计偏重,关于做过的那些支付系统2014与2018的架构变化,政策的变动经历。

(2018重复支付事故)

原因:

在第一步发起的时候,用户进入支付方式选择页。选第一个支付方式并支付完后因为通知延迟,以为支付失败。在支付又选了第二种,再次支付。

应对方案:

程序屏蔽,前端js触发按钮置灰或者遮罩提示(支付成功?遇到问题?),或者在支付方式选择页直接跳转。

后端处理,发现不同通道下的支付成功回调,抛消息队列或记录日志。

数据修复:

首先查支付日志,确认针对同一笔订单收到了不同支付渠道的回调。

其次,在支付平台管理后端可以查到入账记录,人工介入。

最后对账阶段会发现对方多帐,我方补单时出现重复订单。

问题处理:

调取退款接口或者在支付渠道的管理后台操作退款(一定要多次确认无误)。

支付但未开单

用户明明支付成功,但未开通订单

问题分析:

一般支付渠道会间隔性多次回调开单链接,如果支付未开单,银行未回调的可能性比较小,着重排查开单接口是否可用。如果可用追查日志是否出现异常记录。

应对措施:

未支付但已开单

用户未支付,或者财务中心未收到这笔款项,订单状态已开通。这种就问题比较严重了

首先排除人为操作因素。其次排查系统是否存在漏洞或者级联开单的情况(支付中心测试环境数据回调造成线上意外开单经历)

用户是期望支付完成的同时立马看到结果。但是中间多层远程的调用,可能发生订单状态更新延迟问题。

主动查询。在用户查看订单的时候,如果是类似“支付中”的中间态时,触发远程订单状态查询接口。(大家看到的点击“支付完成”跳转的过程,触发远程支付结果查询)

(你所看到的收银台图标内情...)

背景:

保障支付可用性及支付分流,支付中心对接多家渠道

方案:

大促和活动不分家,一般营销中心所面对的主要是促销策略、优惠方式等业务上的架构问题。

从促销活动的范围来看,分为单品促销活动、套装促销活动、店铺促销活动,平台促销活动。

从促销类型来看,分为满减、折扣、赠品等。

业务复杂度高,一般遵循“同类营销仅可选其一,不同类营销可叠加”的规则。同类叠加意义不大且会造成系统复杂度上升,引发用户困惑。

用户体验上的设计,比如购物车里商品的排序,按商铺分门别类。优惠总价格及时调整。这些依赖于前端的ui设计和交互体验。

(SPU,SKU基础概念,如何设计表结构?京东怎么做的)

赠品有两种设计方案,一种是不做单独的SKU,只有一个空的描述,设计简单,缺点是没有商品详情页,无法给用户直观的查看和估值。

另一种是单独做SKU,赠品也会作为一个商品存在,与主商品关联,下单的时候将会自动加到商品列表,价格降为0。这种更为常见。整个商品有完善的详情页,用户可以直接看到价格甚至单独下单购买。

检查同类别促销,将最大优惠力度的规则应用到订单,并且满足排他性,同类只享受其一。比如满10减3,满20减5,那么用户购买大于20时,只减5即可。

不同类别不做排斥,如购物车整体满减后,不影响单个商品的折扣。在记录数据时,优惠要细化到每个单独的订单明细上。退款也做到明细级别的单独退。

(有没有遇到精度问题?价格字段如何设计?)

满减或平台券等优惠,在多个商品下单时,涉及到金额的分摊。即优惠总额度/购物车总额,得到比例后再按比例均分到每个商品。只有分摊才能在发生部分退款时退回真实金额。

但是这会涉及到一个精度问题。举例如下:满99减9活动,假设用户购买了30+40+50=120,3件商品应付111元。按比例折算的话,9/99取4位小数是0.9090,那么分摊后为30x0.9090+40x0.9090+50x0.9090=109.08与实际支付金额出现偏差。这会造成财务无法平账。

解决方案:记账时在订单明细记录,将误差111-109.08=1.92计入金额最大的明细,也就是50元商品上。那么最终记账为:30x0.9090+40x0.9090+(50*0.909+1.92)=111

退单后要同时恢复用户的权益,比如优惠券的再次使用,限购次数等。确保用户体验。

这个和超时订单设计方案类似,前面已经提到不再赘述。

普通商品可以直接借助数据库锁实现,一般分乐观锁和悲观锁两种方案,如果采用悲观锁(如select语句带forupdate),会带来很大的性能阻塞,所以更多的采用乐观锁设计。(幂等性课题的锁机制有详细讲解)

乐观锁就是在最后执行库存扣减操作时,将事务开始前获取的库存数量带入到SQL语句中作为更新的where条件,如果数量相等,则该条更新库存的语句成功执行返回update条数为1;如果不相等,则表示该商品的库存信息已经被其他事务修改,需要放弃该条update的执行,采用重试处理。

库存秒杀商品因为大批量的访问在一瞬间涌入,数据库扛不住。可以采用redis缓存做decr处理,正常下单后,再使用mq异步更新到db。(秒杀不超卖课题的库存控制)

数据库层的调优,一般发生在大促前的预备阶段,一旦大促开始,对数据库的优化已经来不及了。

(业务篇红包雨课题里有缓存结构的深度应用)

热点数据预热:

(常规加载机制画图展示)

常规缓存设计趋向于懒加载,大促期间的热点数据尽量做到预热加载。比如某个促销专题,不要等待活动开始的一瞬间再读库加缓存,搞不好引发击穿。

细粒度设计:

(细粒度缓存结构画图展示)

集合与单体分开存储,缓存结构细粒度化。如某个橱窗的推荐商品列表,常规存储一个key,value为整个商品集合。优化为列表与每个商品详细信息设置两个独立缓存值,在查询环节组装,可以降低发生修改时对缓存的冲击。新增一个推荐则失效列表,修改商品则仅仅失效当前商品缓存。

可用性:

(回顾三种缓存问题)

优化缓存体系,对关键业务请求,如商品详情页,采用多级缓存处理

首先看浏览器缓存,一般浏览器缓存可分为两种手段,分别交给浏览器和服务端执行

nginx缓存:nginx除了作为负载均衡,也可以作为请求级别的缓存,一段典型配置如下:

proxy_cache_path缓存文件路径

levels设置缓存文件目录层次;levels=2:2:2表示三级目录,每级用2位16进制数命名

keys_zone设置缓存名字和共享内存大小

(算法与数据结构应用-限流算法有详细实现)

CDN的引入本身起到了按ip分流的作用,但是我们可以在下层做到更细粒度化的控制。根据业务情况将不同的请求分流到各自的服务器。

限流不同与分流,是对下层的保护,当系统超过一定流量后,超过的流量做直接拒绝处理,以便保护后端的服务,原则就是要么不进来,进来的都正常服务。常见的限流算法有三种:计数器(滑动窗口)、漏桶、令牌桶。

根据不同的业务线分发请求,配备二级域名如b2b.xxx.com,b2c.xxx.com,或者在nginx软负载层针对不同虚拟主机名做upstream分发

新上的双11活动页,或者促销专题页面,采用新访问入口和机器部署,与主站分离。活动结束后也利于机器资源的快速释放(有没有遇到临时性需求的场景?上线就用1天)

按不同的请求终端分流,在header头的user-agent中可以捕获用户的访问终端。android,ios,pc,根据不同终端设备,做流量分发,到不同的应用机器。同时方便对用户终端流量的监控和统计。

评估双11可能的流量,结合具体业务模块,配备对应限流措施。主要有流量限制和连接数限制两个维度。

#$binary_remote_addr同上limit_conn_zone$binary_remote_addrzone=addr:10m;server{location/b2b/{#限制每个ip下最大只能有一个连接limit_connaddr1;}}4)网关限流从代理服务器放进来的流量,会进入应用服务器,第一道关卡是微服务的网关。应对大促,针对各个微服务具体业务具体分析,配备对应限流措施。zuul和gateway是团队中最常遇到的网关组件。

比如平时客户来我的店铺购买衣服。平时可以试穿,给出建议,帮助搭配,最后下单支付,送用户祝福卡片等。双11大促则简单粗暴响应下单支付收钱发货。其他不太重要的服务关闭开关,腾出资源让位主交易流程。

服务降级可以从前端页面,后端微服务两个点着手。

很好理解,针对页面元素处理,将不重要的操作入口置灰或屏蔽。平时调用后端接口实时呈现数据的地方替换为静态页也可以理解为一种降级操作。

快速熔断可以认为是在应对突发情况时,对服务请求结果准确性的一种妥协。避免因单一服务垮台导致整个调用链路崩溃。常用手段如下:

大促前做好安全防范。常见的DDos,Arp,脚本等攻击平时也会存在,日常防范已经配备。大促期间需要注意的可能更多的是业务层面的入侵,比如抢购或秒杀时的恶意刷接口。

(2018从一次断电看灾备的背景与经历,30分钟以内)

2)数据库配置两地主从,或双主单写。切换前做好数据同步性检查

3)启用脚本,切换代理服务器,代理流量转入灾备机房,正式环境还需要处理dns指向

4)分布式文件灾备日常采用rsync等实时同步,采用云存储的可以忽略

5)es索引等其他数据确保日常同步

6)注意挂好维护页,友好提示

7)配备自动化测试脚本以便快速验证切换结果

包括物理机、Docker容器、以及对交换机、IP进行监控(容器课题)

借助zabbix等开源软件对机器资源配置监控,如果采用云化部署,各大云供应商都会配备完善的监控机制

主动监控,日志或消息队列形式打点输出,定时汇报(日志平台追踪课题)

被动监控,添加监控接口,监控系统定时请求确认可用性

主动监控依然无法察觉的情况下,来自客服的一线反馈成为最后关卡。优先级也最高。开发故障快速响应平台,做到实时性保障。做到客服-业务线-产品-技术排查的及时响应,快速排查。

网络带宽是影响访问流量的重要因素,做好各个机房网络带宽预估,数据在两地机房间传输并且要求低延迟的场景,如数据库主从,可以考虑机房专线。使用公有云的服务,可以购买临时流量。

对容量做预估和硬件资源盘点。配合大促期间不同服务的架构设计,以及项目本身的特性,对cpu,内存做评估。偏运算的项目,重度使用多线程的项目偏cpu,需要大量对象或集合处理的项目偏内存。

所有项目容器化部署,基于镜像即版本理念,打好各个服务的镜像是docker快速复制扩容的基础。大促前对各个中心微服务做统计和盘点。

借助swarm和k8s等编排工具,快速实现容器的伸缩。(运维篇会讲到)

对数据传输通道扩容,比如kafka扩大分区数,rabbitmq增加细分队列。一方面实现了扩容,另一方面在传输的起始阶段就对数据做了一定的分类。

数据降级,关闭某些非核心数据的通道采集,让位网络带宽给核心业务数据。

数据大屏开发。对实时性有一定要求,多采用流式运算。

对关键业务的体量做好预估。如用户的注册、下单量、首页,商品详情页等关键页面的qps,为压测提供参考指标。

架构师统计各中心服务关系,对各个服务扩容做预估,汇总。

(全链路压测课题)

(大家当前使用的环境都有哪些?上线模式是什么样的)

当前成熟系统都具备各种环境,开发环境、测试环境、准生产环境等,对线下可以选择准生产环境做为压测,模拟线上。

线下压测数据安全,不必担心对线上造成干扰。所压测的值可以用于相对性比较,比如其中全链路的某个环境哪个是瓶颈。但是无法精准反馈线上的真实场景。

重点看线上压测,线上压测压出的数据是最真实有效的。但是因为使用的是生产环境,操作不当可能引发灾难性后果。

1)在全链路压测环境下,服务调用关系错综复杂,最重要的是实现压测流量的标识,以及标识在服务上下文间如何有效传递不丢失。服务内借助threadlocal,但是要注意多线程下失效。服务间通过改写远程调用框架或借助框架提供的Context设置。(分布式日志平台,访问链路追踪课题)

2)数据隔离,数据库可以创建影子表,redis等缓存可以设置shadow_等前缀,从开发框架层面封装处理,对数据层持久化框架做二次开发,使其自动发现压测数据。

3)外部服务可以借助服务降级功能,添加开关判断属于压测流量时开关进入降级或mock,比如收银程序添加挡板,直接返回成功,短信应用直接默认一个短信号码。

4)日志打印需要隔离,可以借助分布式日志平台收集时采用不同的输出通道和队列。

5)压测数据最好的方式是流量克隆(TCPCopy工具等),将线上的实际访问请求克隆放大几倍加压到压测入口,如果实现不了,尽量模拟线上的真实数据结构和体量。

5)做好全压流量规划,按预估2~3倍加压,确定流量比例,打压。

人员互备,防止故障,及时响应,应对双11不是什么神秘事。

THE END
1.地产分享房地产展示中心管理制度第一章:展示中心组织架构与工作职责 1 、销售部组织架构: 销售经 理 销售主 管 行销主 管 客服主 管 行销 专员 置业顾 问 案场秘 书 客服内 勤 按揭 专员 2 、案场秘书工作 职责 : (1 ) 监督案场 考勤、 轮 接安排; (2 ) 负责来访 客户首 问 、登记、 确认及 接 待分配; http://www.360doc.com/content/24/1206/17/83634441_1141320962.shtml
2.企业级营销中心应用架构设计销售管理应用架构营销中心依托大数据和数据分析应用,搭建灵活可扩展的系统架构,在客户分群、客户画像、客户标签库及模型工厂的基础上,建立营销全流程管理,包括营销活动的发起、执行、反馈和评价,助力银行实现以数据驱动的精准营销模式。此外,还可提供丰富的场景营销解决方案,协助银行打造金融生态圈,应用架构如图05-25所示。 https://blog.csdn.net/xuliangjun/article/details/141180326
3.营销中心架构图流程图模板营销中心服务模块 券礼包 限时折扣 权益中心 红包雨 价格中心 用户画像 任务达标引擎 新人专区 商品中心 沉睡唤醒 用户中心 会员有礼 社区团购 生日有礼 库存中心 拼团活动 标签中心 优惠券码 定向发券 会员中心 代金券 满赠 收藏 立即使用 营销中心架构图 收藏 立即使用 医药行业-库存管理模块E-R图 大鱼https://www.processon.com/view/66eecddd5dc2165fda5197ff
4.营销中心组织架构图四)中国市场销售部内部架构与基本流程 1、 一、 中国市场销售部组织架构图二、中国市场部营销中心组织架构营销中心组织架构图 五)中国市场部业务工作开展流程一、业务发货过程及注意事项 1、 1、定单的规范填写(见附件1:三条线的订单样本) 订单(习惯称为“要货计划”)上客户的公章要清晰(由于是传真件),客户https://doc.mbalib.com/view/9968bc33c03f5f82e2f141f02f61fde2.html
5.营销管理中心组织架构营销管理部所属架构营销管理中心组织架构 营销管理部所属架构 销售团队怎么管理?这个问题真的很大,不同的销售团队管理方式也不相同。 但我们还是可以总结出一些常用的方法论: 不同销售结构的团队怎么管理 不同发展阶段的销售团队如何管理 团队管理的核心在于管人 内容略多,已经整理装订成册,心急的小伙伴可以直接领取这本《销售管理成长https://blog.51cto.com/u_12190/7816854
6.呼叫中心架构(互联网营销新形势)1、呼叫中心的架构主要包括以下几种:呼叫团队、呼叫中心(crm)、语音导航(ivr)、cti)、acd(监视/事后处理)、工单(oa)等。 这些技术的应用也很广泛,例如:智能质检、智能话务员、智能报告、智能质量检验、智能工作流(scrm)等。 2、呼叫中心的功能非常强大,但同时也存在着各种缺点:1、呼叫中心的核心部分没有独立升级https://blog.sobot.com/article/4917/view.html
7.营销中心简介营销中心是山西太钢不锈钢股份有限公司面向国内外客户承担钢材产品销售的主要业务部门,致力于为用户提供更全、更好、更快的解决方案,在长期合作中实现共赢。 中心本部下设营销管理部、销售运营部、党群综合室及纪检监察室。 营销管理部负责营销策划、合同管理、价格制定、产销平衡、风险防控、售后服务、产品出库管理、品http://tgbx.tisco.com.cn/zuzhijiagou
8.客服中心组织架构及人员编制方案一、组织架构 客服中心拟设置总经理1名,副总经理1名,设置:运营部、品质部、支撑部、营销部和综合部。客服中心总经理由电子银行部分管副总经理兼任,客服中心副总经理享受总行部门中经理助理级别,运营部、品质部、支撑部、营销部和综合部经理及主管分别享受总行部门经理、副经理级别。 https://www.wenshubang.com/fangan/4391922.html
9.营销中心策划专员的岗位职责(精选11篇)16.策划部直接对营销副总负责。 二、团队组建与人员架构 1.岗位构成 1.1.策划经理 职责描述: 1) 依据公司规范化管理要求,建立健全策划中心管理规章制度及业务流程文件,经审批后严格执行; 2) 配合公司相关部门完成项目的可行性分析及项目定位,为项目的开发提供参考性意见; https://www.yjbys.com/hr/gangwei/1763717.html
10.营销管理架构(精选6篇)篇2:营销管理架构 物业管理服务,要求有一个高效率及科学的组织架构,使人力、物力、财力得到合理的配置,以求达到降低管理成本,提供优质服务的目的。 本“物业管理中心”按“直线制”设定管理架构。中心设综合管理部、物业管理部、安全管理部、工程管理部、财务管理部五个部门。其优点是集指挥和职能于一身,命令统一,https://www.360wenmi.com/f/fileoifvr34h.html
11.招商银行95555呼叫中心项目华为于1999年协助招商银行建立了电话呼叫中心,经过十年的发展,已经由单纯的咨询服务发展成为集咨询、交易、营销、理财一体化的综合性远程银行中心。招行95555呼叫中心目前有福田、蛇口、成都三个场地,共计2500多个座席,服务全行6000多万的零售银行客户以及批发银行客户。https://www.51callcenter.com/newsinfo/144/3547055
12.元和营销3分销商促进会+农民促进会+示范田观摩会的三会一体的营销推进办法,深化市场运营。 4一地一商一品的市场运营网络设置架构,严格保护区域商务利益。 ‘ --- 元和绿宝—营销中心架构组成 --- 2012年初,公司以客户、市场为中心布局了营销系统架构,将营销系统划分http://www.yhlb.cn/about/?27.html
13.中国移动公布“一先两优”表彰名单澎湃号·政务澎湃新闻22. 敖强 辽宁公司锦州分公司工程建设中心主任助理 23. 王少鹏 辽宁公司辽阳分公司智慧家庭发展中心家客营销策划(业务职员) 24. 王琦 辽宁公司信息技术中心架构设计室主任 25. 杨海亮 辽宁公司网络管理中心核心网科室交换网运行维护 26. 朱爽(女) 吉林公司长春分公司网络优化管理 https://www.thepaper.cn/newsDetail_forward_8068906
14.荐销售管理工作总结1、 营销组织架构简单 (1) 营销总部职能处于缺陷状态:规范化的营销管理流程并没有建立起来,诸如策略规划、战术制订、计划管理、信息管理、物流管理、区域管理、广告管理等许多职能都欠缺或者是没有明确的责权划分。 (2) 区域分支机构处于虚拟状态:该企业名义上都设立由各区域的销售主管,但销售主管平常多数时间都呆在https://www.oh100.com/a/202305/6779769.html
15.智能客服中心系统架构(智能客服中心系统架构)本篇文章给大家谈谈智能客服中心系统架构,以及智能客服中心系统架构对应的知识点,希望对各位有所帮助,不要忘了收藏本站喔。 今天给各位分享智能客服中心系统架构的知识,其中也会对智能客服中心系统架构进行解释,如果能碰巧解决你现在面临的问题,别忘了关注本站,现在开始吧! https://www.huoban.com/news/post/112898.html
16.奖励方案汇总9篇1、月度考核流程:月度结束后,次月10日前电子商务部根据自我数据进行汇总,交财务部核算并按考核办法计算考评,15日前交电子商务部经理及营销中心总监确认,如有异议,可向营销中心总监提交相关证据,交财务部重新核算修正后于次月工资中兑现发放。 2、年度考核流程:20xx年4月30日前,财务部依据考核办法核算出各岗位应得提https://www.unjs.com/fanwenku/309047.html
17.一得之见企业架构下的共享能力中心建设为深入推进数字化转型,提升“以客户为中心”的用户服务体验,结合整体数字化转型战略目标与路径,借鉴互联网金融与金融科技的最佳实践,建设复用能力强、面向未来创新需求、敏捷、共享、开放、高效的企业级业务中台,可达到“纯渠道、厚中台、稳后台”的整体架构模式,实现业务敏捷创新和高效运营,满足全行的战略。 https://www.sunline.cn/show-1121.html