- 介绍下item2vec模型
- embedding冷启动怎么做
- w2v的原理了解嘛,详细讲
- w2v的原理,用的什么方法,skip-gram怎么做
- Deepwork的思想
- Node2vec随机游走策略
- word2vec的loss怎么设计的
- word2vec的工具
- 用户embedding了解嘛
- word2vec对顺序敏感的原因,窗口大小选用多少
- DeepWalk相比序列embedding优缺点,对那一部分item影响最大
- w2v用的哪一个,是google13年的那篇嘛
- 多任务学习模型的发展历史详细介绍
- 为什么要用多任务学习
- 介绍MMOE、PLE、ESMM,PLE相对MMOE的改进
- ESSM算法原理和解决的两个问题
- ESMM中如何解决CVR样本过于稀疏的问题,实际上解决了吗
- ESMM训练是否使用全量样本
- 介绍PLE模型
- PLE里面loss如何平衡
- PLE模型中,是否有尝试对不同的gate用不同的特征,是否有尝试不同业务用不同的特征组合
- gradnorm介绍
- 介绍关于多任务权重设置的相关模型或者策略
- 如何平衡不同任务的loss
- 如果一个特征对任务a是正相关,对任务b是负相关,如何处理这个特征
- CTR和CVR任务放在ESMM(都是曝光空间)里和放在PLE(CTR点击空间,CVR曝光空间)里哪种效果好
- GNN在推荐系统中有哪些用法
- GCN、GraphSAGE、GAT的区别与联系
- node2vec对比deepwalk的改进
- GraphSAGE对比GCN的优势
- transductive与inductive的区别
- 训练图模型的loss有哪些
- graph embedding的作用
- GCN图卷积
- 怎么减少感受野
- 讲一下GCN,为什么用拉普拉斯矩阵,优缺点
- GCN图谱了解嘛
- 同质图?异质图?
- 边类型不一样是异质图么
- 什么是local structure 和global structure