·用户多步转化过程中的路径序列依赖更长。
·在多步转化的长序列依赖中,正反馈(正样本)是逐步稀疏的,类别不平衡越来越严重。
在我们的信用卡业务中,我们通常希望用户能完成最后两个转化阶段(即曝光->核卡、曝光->激活),这才被认为是有效转化。因此,用前边任务的丰富的正样本信息来缓解后续任务的类别不平衡问题是很有必要的。在这个方向上,多任务学习是一个提高端到端获客转化率的典型解决方案。
二、背景介绍
在我们的信用卡业务中,
·申请(application):进入申请表格页后用户可以填写申请表格,并且点击申请按钮来申请一张信用卡。
·核卡(approval):也称授信,意味着用户信用良好,通过申请并被授予了一定的信用卡额度。在我们的系统中,这在多数情况下也是一个系统实时判断的过程。
以上的转化步骤有序列依赖,这意味着只有前一个步骤发生了,后一个步骤才可能发生。基于这个约束,用户只可能有5个不同的转化阶段如下图所示。
图15个不同的转化阶段
在工业界和学术界,多任务学习是一个提高端到端获客转化率的典型解决方案。近年来,在多任务学习中建模任务间关系的研究取得了很大的进展。我们将这些主要研究分为两大类:
1.控制多任务模型底部的专家模块如何在任务间参数共享[1,2,3],顶部的多塔模块分别处理每个任务,正如图3(a)所示,我们称这一类为专家底(Expert-Bottom)模式。然而,专家底模式只能在任务间传递浅层表示,但在靠近输出层的网络中往往包含更丰富、更有用的表示[4,5],这已被证明能带来更多的增益[6]。另外,由于专家底模式不是专门为具有序列依赖的任务设计的,因此这些具有专家底模式的模型不能显式地对序列依赖进行建模。
2.在不同任务的输出层中迁移概率[7,8,9,10],如图3(b)所示,我们称之为概率迁移(Probability-Transfer)模式。概率迁移模式只能通过标量乘积传递简单的概率信息,而忽略了向量空间中更丰富、更有用的表示,导致了信息的损失。如果其中任何一个概率没有被准确预测,多个任务将会受到影响。
三、系统概览
另外,美团联名信用卡是与不同的银行合作发行的,不同的银行处于不同的业务发展阶段,因此对核卡和激活有不同的要求。信用卡业务刚刚起步的银行往往希望发行更多的信用卡以迅速占领市场,而发展成熟的银行则希望提高激活率以实现快速盈利。因此,我们的系统中有一个选择器,可以为不同的银行输出不同的转化目标,多任务框架可以很好地处理不同的业务需求。
此外,由于美团不同的业务都需要流量来为各自业务获客,而且不同用户对不同业务的兴趣也不同,所以不能简单地将流量划分给不同的业务。我们需要一个多业务排序机制来分配流量从而最大化整体的利益。
四、模型介绍
图3:(a)专家底模式(b)概率迁移模式(c)AITM框架。
上图(c)中展示了我们提出的AITM框架。该框架利用AIT模块来建模用户多步转化过程中的序列依赖。这个模型图显示了两个相邻的任务:t-1和t。
首先,输入特征经过任务共享的Embedding分别输出到多个Tower网络中。通过共享Embedding模块,一方面可以用前边任务的丰富的正样本信息来学习Embedding表示,从而缓解后续任务的类别不平衡问题,另一方面可以减少模型参数。Tower网络可以根据自己需要定制,这里我们只使用了简单的MLP。然后,AIT模块利用当前任务Tower输出的向量以及前一个任务传来的信息来学习任务间如何融合信息。AIT模块如下定义:
这里其实利用了特殊设计的注意力机制来自动为迁移信息和原始信息来分配权重。而迁移的信息是通过函数来学习的,这里可以是一个简单的全连接层,用来学习两个相邻的任务间应该迁移什么信息。而该函数的输入是前一个任务的AIT模块的输出。
具体地,AIT模块中的注意力机制如下设计:
其中,是自动学习的迁移信息的权重。,,利用前馈神经网络将输入投影到新的向量空间。
最后,我们通过在损失函数中施加校准器来约束概率的输出尽量满足序列依赖。损失函数是交叉熵+校准器约束,其中定义了校准器约束强度:
具体地,交叉熵定义如下:
校准器约束定义如下:
如果大于,校准器将输出一个正的惩罚项,否则输出0。
五、实验分析
在本节中,我们将在工业和公开现实数据集上进行实验,对比各种基线模型来评估我们提出的AITM框架。接下来,首先会介绍使用的数据集,然后是离线和在线实验结果,最后是进一步的实验分析(包括消融实验、超参数实验和CaseStudy)。
5.1数据集
表1:数据集统计信息。其中,“%Positive”代表采样后训练集中每个任务的正样本占比
5.2离线、在线实验
表2:工业和公开数据集上的AUC均值标准差表现。
Gain表示与LightGBM模型相比的AUC提升,下划线代表最好的基线模型。“*”表示与最好的基线模型相比,AITM在配对样本t检验上p-value<0.05。“**”表示与最好的基线模型相比,AITM在配对样本t检验上p-value<0.01
表3:在线A/B实验
我们进行了离线和在线实验。随着业务发展,我们先后部署了LightGBM、MLP和AITM3个模型到线上。离线和在线实验都证明了AITM的显著表现。
5.3消融实验
我们设计了AIT模块来建模用户多步转化过程中的序列依赖,为了证明AIT模块的有效性,我们对AIT模块进行了消融研究。我们先分别随机取了500个激活正、负样本,然后对它们的激活任务预测分进行排序。越TOP的预测分,表明模型预测这些用户越容易激活联名卡。然后我们利用t-SNE在激活任务上画出了原始信息,迁移+原始信息,以及AIT模块学习到的信息的二维图。
从下图中,我们可以看到当用户激活比较容易预测时(即激活分TOP0%-TOP50%),三个模块都能够较好地区分正负样本。但是,当用户激活比较难预测时(即激活分TOP50%-TOP100%),原始信息、迁移+原始信息+都不能很好地区分正负样本,而AIT模块在TOP50%-TOP100%预测分上显著优于其他两个部分,说明了AIT模块的有效性。
图4:AIT中不同模块的t-SNE可视化
5.4超参数实验
另外,为了研究AITM框架的稳定性以及对超参数的依赖,我们进行了超参数研究。我们通过对Embedding向量维度、校准器强度、正样本比例、任务数量取不同的值进行多次实验,有以下发现:
·前两个超参数实验表明,AITM模块在Embedding向量维度、校准器强度这些超参数下都表现比较稳定。
·第三个超参数实验表明合适的下采样比例是缓解类别不平衡的一个重要举措。
·最后一个图显示了更多的任务可以带来更多有用的信息,从而进一步提升端到端转化率。
图5:不同超参数设置下的平均AUC表现,阴影代表多次实验的标准差5.5CaseStudy
最后,为了理解AIT模块在不同的阶段迁移了什么信息以及多少信息,我们进行了casestudy。下图中Wu是迁移信息的权重。我们先随机采样4万个测试样本,然后将它们按照相邻两个任务的label分成3组:00/10/11(分别对应图中红色、蓝色、绿色的线),并且在每个组中根据logloss对TOP500个样本进行排序,越TOP的样本表示预测越准。
·首先,看红色的线,由于存在序列依赖,当前一个任务label是0时,后一个任务label也只能是0。所以我们看到前一个任务迁移了很强的信息给后一个任务(权重几乎为1)。
·然后,看蓝色和绿色的线,当前一个任务label是1时,后一个任务label是不确定的。随着logloss的增加,迁移信息的权重会逐渐增大,这表明后一个任务的预测结果可能会被前一个任务所误导。
·另外,看绿色的线,当后一个任务label是1时,前一个任务迁移了很少的信息(权重很小),这表明后一个任务主要根据自己任务本身来识别正样本。
·从以上的结果中,我们可以看到AIT模块能学习到两个相邻的任务间应该迁移多少信息。
图6:不同转化阶段的迁移信息平均权重,阴影代表标准差
六、总结
作者简介
奚冬博、陈振、燕鹏、陈彧:
美团金融智能应用团队
张颖而:
美团实习生、浙江大学本科生
朱勇椿:
中科院计算所直博生
庄福振:
北京航空航天大学人工智能研究院研究员
参考文献
[1]JiaqiMa,ZheZhao,XinyangYi,JilinChen,LichanHong,andEdHChi.2018.Modelingtaskrelationshipsinmulti-tasklearningwithmulti-gatemixture-of-experts.InKDD.1930–1939.
[2]ZhenQin,YichengCheng,ZheZhao,ZheChen,DonaldMetzler,andJingzhengQin.2020.MultitaskMixtureofSequentialExpertsforUserActivityStreams.InKDD.3083–3091.
[3]HongyanTang,JunningLiu,MingZhao,andXudongGong.2020.ProgressiveLayeredExtraction(PLE):ANovelMulti-TaskLearning(MTL)ModelforPersonalizedRecommendations.InRecSys.269–278.
[4]YixuanLi,JasonYosinski,JeffClune,HodLipson,andJohnEHopcroft.2016.ConvergentLearning:DodifferentneuralnetworkslearnthesamerepresentationsInICLR.
[5]MatthewDZeilerandRobFergus.2014.Visualizingandunderstandingconvolutionalnetworks.InECCV.818–833.
[6]EricTzeng,JudyHoffman,NingZhang,KateSaenko,andTrevorDarrell.2014.Deepdomainconfusion:Maximizingfordomaininvariance.arXivpreprintarXiv:1412.3474(2014).
[7]ChenGao,XiangnanHe,DahuaGan,XiangningChen,FuliFeng,YongLi,Tat-SengChua,andDepengJin.2019.Neuralmulti-taskrecommendationfrommulti-behaviordata.InICDE.1554–1557.
[8]ChenGao,XiangnanHe,DanhuaGan,XiangningChen,FuliFeng,YongLi,Tat-SengChua,LinaYao,YangSong,andDepengJin.2019.LearningtoRecommendwithMultipleCascadingBehaviors.TKDE(2019).
[9]XiaoMa,LiqinZhao,GuanHuang,ZhiWang,ZelinHu,XiaoqiangZhu,andKunGai.2018.Entirespacemulti-taskmodel:Aneffectiveapproachforestimatingpost-clickconversionrate.InSIGIR.1137–1140.
[10]HongWen,JingZhang,YuanWang,FuyuLv,WentianBao,QuanLin,andKepingYang.2020.EntireSpaceMulti-TaskModelingviaPost-ClickBehaviorDecompositionforConversionRatePrediction.InSIGIR.2377–2386.
IllustrationbyDmitryNikulnikovfromOuch!
-TheEnd-
“AI技术流”原创投稿计划
投稿内容
//前沿资讯解说/心得经历讲述//
投稿须知
我们会选择部分在深度技术解析及科研心得方向,
投稿方式
发送邮件到
chenhongyuan@thejiangmen.com
扫码观看!
本周上新!
关于我“门”
将门是一家以专注于发掘、加速及投资技术驱动型创业公司的新型创投机构,旗下涵盖将门创新服务、将门技术社群以及将门创投基金。
将门成立于2015年底,创始团队由微软创投在中国的创始团队原班人马构建而成,曾为微软优选和深度孵化了126家创新的技术型创业公司。
如果您是技术领域的初创企业,不仅想获得投资,还希望获得一系列持续性、有价值的投后服务,欢迎发送或者推荐项目给我“门”: