推荐系统百问百答
NLP面试无往不利 面试交流群(注:人满可添加小编微信:yzyykm666 加群!)
一、推荐系统导论篇
- 1.1 什么是推荐系统?
- 1.2 推荐系统的作用是什么?
- 1.3 推荐系统的意义是什么?
- 1.4 推荐系统要解决哪些问题?
- 1.5 常用的推荐系统逻辑框架是怎样的?
- 1.6 常用的推荐系统技术架构是怎样的?
- 1.7 推荐系统算法工程师日常解决哪些问题?
- 1.8 推荐系统算法工程师处理的数据部分有哪些,最终得到什么数据?
- 1.9 推荐系统算法工程师处理的模型部分有哪些,最终得到什么数据?
- 1.10 模型训练的方式有哪些?
- 1.11 推荐系统的流程是什么?
- 1.12 推荐系统的流程是什么?
- 1.13 推荐系统与搜索、广告的异同是什么?
- 1.14 推荐系统的整体架构是什么?
二、推荐系统机器学习篇
2.1 【关于协同过滤篇】你不知道的那些事
- 一、基础篇
- 1.1 什么是协同过滤?
- 1.2 协同过滤的推荐流程是怎样的?
- 二、基于用户的协同过滤(User-CF-Based)篇
- 2.1 什么是基于用户的协同过滤(User-CF-Based)?
- 2.2 基于用户的协同过滤(User-CF-Based)的思想是什么?
- 2.3 基于用户的协同过滤(User-CF-Based)的特点是什么?
- 三、基于物品的协同过滤(Item-CF-Based)篇
- 3.1 什么是基于物品的协同过滤(Item-CF-Based)?
- 3.2 基于物品的协同过滤(Item-CF-Based)的思想是什么?
- 3.3 基于物品的协同过滤(Item-CF-Based)的特点是什么?
- 3.4 基于物品的协同过滤(Item-CF-Based)的具体步骤是什么?
- 四、User-CF-Based与Item-CF-Based对比篇
- 4.1 User-CF-Based与Item-CF-Based的应用场景有什么区别?
- 4.2 User-CF-Based与Item-CF-Based存在的问题有什么区别?
- 五、User-CF-Based与Item-CF-Based问题篇
2.2【关于矩阵分解篇】你不知道的那些事
- 一、动机篇
- 1.1 为什么需要矩阵分解?
- 二、隐语义模型介绍篇
- 2.1 什么是隐语义模型?
- 2.2 隐语义模型存在什么问题?
- 三、矩阵分解介绍篇
- 3.1 如何获取用户矩阵Q和音乐矩阵P?
- 3.2 矩阵分解的思路是什么?
- 3.3 矩阵分解的原理是什么?
- 3.4 如何利用矩阵分解计算用户u对物品v的评分?
- 四、矩阵分解优缺点篇
- 4.1 矩阵分解存在什么问题?
2.3 【关于逻辑回归篇】你不知道的那些事
- 一、动机篇
- 1.1 为什么需要逻辑回归?
- 二、逻辑回归介绍篇
- 2.1 逻辑回归如何解决上述问题?
- 2.2 什么是逻辑回归?
- 三、逻辑回归推导篇
- 3.1 逻辑回归如何推导?
- 3.2 逻辑回归如何求解优化?
- 四、逻辑回归推荐流程篇
- 4.1 逻辑回归的推荐流程是什么?
- 五、逻辑回归优缺点篇
- 5.1 逻辑回归有哪些优点?
- 5.2 逻辑回归有哪些缺点?
2.4 FM算法篇
- 一、为什么要使用FM?
- 二、FM的思路是什么?
- 三、FM的优点是什么?
- 四、FM的缺点是什么?
- 五、POLY2与FM的比较?
2.5 FFM算法篇
- 一、为什么要使用FFM?
- 二、FFM的思路是什么?
- 三、FM与FFM的比较?
2.6 GBDT+LR篇
- 一、动机篇
- 1.1 为什么需要GBDT+LR?
- 二、GBDT介绍篇
- 2.1 GBDT的基础结构是什么样的?
- 2.2 GBDT的学习方式?
- 2.3 GBDT的思路?
- 2.4 GBDT的特点是怎么样?
- 2.5 GBDT所用分类器是什么?
- 2.6 GBDT解决二分类和回归问题的方式?
- 2.7 GBDT损失函数是什么?
- 2.8 构建分类GBDT的步骤是什么?
- 2.9 GBDT的优缺点?
- 三、GBDT+LR模型介绍篇
- 3.1 GBDT+LR模型的思路是什么样?
- 3.2 GBDT+LR模型的步骤是什么样?
- 3.3 GBDT+LR模型的关键点是什么样?
- 3.4 GBDT+LR模型的本质是什么样?
- 四、GBDT+LR优缺点篇
- 4.1 GBDT+LR的优点是什么?
- 4.2 GBDT+LR的缺点是什么?
- 五、问题讨论
- 5.1 为什么要使用集成的决策树模型,而不是单棵的决策树模型?
- 5.2 为什么建树采用GBDT而非RF?
- 5.3 逻辑回归是一个线性分类器,也就是说会忽略掉特征与特征之间的关联信息,那么是否可以采用构建新的交叉特征这一特征组合方式从而提高模型的效果?
- 5.4 GBDT很有可能构造出的新训练数据是高维的稀疏矩阵,而逻辑回归使用高维稀疏矩阵进行训练,会直接导致计算量过大,特征权值更新缓慢的问题?
- 5.5 因为采用FM对本来已经是高维稀疏矩阵做完特征交叉后,新的特征维度会更加多,并且由于元素非0即1,新的特征数据可能也会更加稀疏,那么怎么办?
- 5.6 为什么要将GBDT与LR融合?
三、推荐系统深度学习篇
3.1 AutoRec篇
- 什么是自编码器?
- AutoRec的思路是什么?
- AutoRec的基本原理是什么?
- AutoRec模型的结构是什么样的?
- AutoRec模型的特点?
- AutoRec模型存在的问题?
3.2 NeuralCF模型篇
- 为什么需要NeuralCF模型?
- NeuralCF模型的普通结构?
- NeuralCF模型的混合结构?
- NeuralCF模型的主要思想?
- NeuralCF模型的优势和局限性?
3.3 Deep Crossing模型篇
- 为什么需要Deep Crossing?
- Deep Crossing模型使用的特征是什么?
- Deep Crossing模型的结构?
3.4 Wide&Deep模型篇
- 模型的记忆能力与泛化能力
- Wide&Deep模型的结构?
- Wide&Deep模型的技巧?
- Wide&Deep模型的优点是什么?
- Wide&Deep模型的影响力?
- Wide&Deep模型的进化——Deep&Cross模型?
3.5 FM与深度学习模型的结合篇
- 为什么需要DeepFM?
- DeepFM的结构介绍一下?
- DeepFM的思路?
- DeepFM与Deep&Cross模型的异同点?
四、推荐系统落地篇
五、多角度审视推荐系统篇
六、推荐系统评估方法篇
七、推荐系统工程落地篇