LeetCode Hot100-Day 2
LeetCode Hot100-Day 2Created by: Yuanpeng QUCreated time: 2025年8月15日 14:37 2. 两数相加[mid]给定两个链表l1,l2,表示逆向储存的数字,比如1→2→3表示321,求两个链表表示的数字相加的和的链表,两个链表的长度可以不一样,每个节点的值不超过10。 实际上逆向储存的意思就是刚好按照个十百千这个顺序来的。 1234567891011121314151617181920212223242526272829303132333435# Definition for singly-linked list.# class ListNode(object):# def __init__(self, val=0, next=None):# self.val = val# self.next = nextclass Solution(object): def addTwoNumbers(self, l1, l2): """ ...
LeetCode Hot100-Day 1
LeetCode Hot100-Day 1Created by: Yuanpeng QUCreated time: 2025年8月14日 11:27 15. 三数之和[mid]给一个数组nums,求 满足nums[i]+nums[j]+nums[k]==0的所有[nums[i],nums[j],nums[k]]组合,顺序没有要求,但是不能有重复的组合出现 12345678910111213141516171819202122232425262728293031323334353637class Solution(object): def threeSum(self, nums): """ :type nums: List[int] :rtype: List[List[int]] """ nums.sort() n = len(nums) # left, right = 1, n-1...
LeetCode Hot100-Day 0
LeetCode Hot100-Day 0Created by: Yuanpeng QUCreated time: 2025年8月13日 21:29 HOT100 抱佛脚计划 日期 主题焦点 核心模式 目标Hot 100题号 每日定性目标 Day 1 数组与指针基础 双指针, 滑动窗口 1, 11, 15, 26, 283, 75, 42, 3, 76, 239, 438, 560 掌握线性扫描、原地修改以及寻找配对/区间的核心技巧。 Day 2 链表操作 快慢指针, 链表原地反转 2, 19, 21, 23, 141, 142, 160, 206, 24, 25, 92 精通链表的节点操作、环检测和反转。K路合并(23)作为堆的预热。 Day 3 树与图遍历基础 树的BFS, 树的DFS 102, 103, 199, 104, 94, 144, 145, 101, 100, 226, 114, 543, 200 固化树的递归与迭代遍历范式,解决对称性、深度、路径等基础问题。 Day 4 递归、回溯与搜索 子集/回溯,...
机器学习小记
机器学习小记Created by: Yuanpeng QUCreated time: 2025年8月13日 10:43 第一部分:神经网络的核心组件 (Core Components of Neural Networks)1.1 激活函数:从经典到现代激活函数是神经网络的灵魂,它负责向网络中引入非线性,使得网络有能力学习和拟合现实世界中复杂的非线性关系。如果没有激活函数,多层神经网络本质上等同于一个单层的线性模型。 1.1.1 Sigmoid & Tanh:经典饱和函数的特性与局限性 1. Sigmoid 函数 公式: $$ f(x) = \frac{1}{1+e^{-x}} $$ 核心特性: 将任意实数输入压缩到 (0, 1) 区间内。 这个特性使其输出可以被直观地解释为概率,因此在逻辑回归以及各类分类模型的输出层中,当需要预测一个概率时,Sigmoid 仍然是标准选择。特别是在CTR/CVR预估中,它的地位不可动摇。 主要局限性 (面试重点): 梯度消失 (Vanishing Gradient): 这是 Sigmoid...
深度学习小记
深度学习小记Created by: Yuanpeng QUCreated time: 2025年8月12日 17:41 I. 神经网络的核心组件与训练技巧1. 归一化层:BN 与 LN 的原理、区别与应用场景 核心目的:解决“内部协变量偏移 (Internal Covariate Shift)”问题。即在训练中,由于前层网络参数不断变化,导致后层网络接收到的数据分布一直在变,拖慢收敛速度。归一化层通过将每层网络的输入强制拉回到一个稳定的分布(如均值为0,方差为1),从而加速训练。 Batch Normalization (BN) 原理:“纵向”或“按特征”归一化。它在一个批次(mini-batch)内,对每一个特征维度计算均值和方差,并进行归一化。 关键机制:引入了两个可学习的参数 γ (缩放) 和 β (平移),让网络可以自主决定是否以及在多大程度上恢复原始的分布,以保证模型的表达能力。 训练 vs 推理:训练时使用当前批次的统计量,同时用滑动平均记录全局统计量;推理时则使用保存下来的全局统计量,以保证输出的确定性。 应用场景:在卷积神经网络 (CNN)...
搜广推笔记 指标
搜广推[指标]Created by: Yuanpeng QUCreated time: 2025年8月11日 16:14 一、...
搜广推笔记 多目标排序
搜广推[多目标排序]Created by: Yuanpeng QUCreated time: 2025年8月10日 21:12 第一部分:多目标学习的核心挑战与基础1. 动机:为何需要多目标学习?现代工业级推荐系统(如电商、短视频)的目标是综合性的,不能只关注单一指标 。例如,一个短视频推荐系统不仅要优化点击率,可能还要同时提升用户的点赞、关注、转发、评论率以及观看时长 。 如果为每个任务单独建模和优化,或者用一个简单的模型直接预测所有任务,就会遇到**“跷跷板效应” (Seesaw Phenomenon)** 。 定义:指的是当模型在优化一个目标时,会导致另一个或多个其他目标的性能下降的现象 。 举例: 任务跷跷板 (Task Seesaw):一个模型如果过度优化点击率(CTR),可能会倾向于推荐标题党或封面吸引人的内容,但这部分内容的用户实际满意度(如观看时长、点赞率)可能很低,从而损害了长期用户体验 。 领域跷跷板 (Domain...
搜广推笔记 排序
搜广推[排序]Created by: Yuanpeng QUCreated time: 2025年8月9日 14:29 推荐系统排序模型知识体系总结(大纲)第一章:排序模型的基础 (Foundations of Ranking Models)在深入探讨各种复杂精妙的模型之前,我们必须先理解所有排序模型所立足的共同基础。这个基础包含两个层面:一是我们如何从业务逻辑上将“排序”这个抽象任务,转化为一个可以用数学模型解决的问题;二是在这个问题的解决方案中,那个最简单、最核心的基石模型——逻辑回归(LR)——是如何工作的。 1.1...
搜广推笔记 召回
搜广推[召回]Created by: Yuanpeng QUCreated time: 2025年8月5日 22:51 一、 推荐系统总体架构 (Overall Recommendation System Architecture)1. 级联漏斗范式 (Cascading Funnel Paradigm) 现代大规模推荐系统的核心架构,普遍遵循一种级联漏斗范式 (Cascading Funnel Paradigm)。这个范式的诞生,是为了解决一个根本性的矛盾:一方面,我们的候选物品库是海量的(百万、千万甚至上亿级别);另一方面,用户的屏幕空间是有限的,且要求响应速度极快(毫秒级)。 因此,我们不可能对所有物品都用最复杂的模型进行最精确的计算。漏斗范式通过设置多个层层递进的过滤环节,实现了从海量到少量,从粗糙到精准的逐级筛选,在计算效率和推荐效果之间取得了极致的平衡。 这个漏斗通常包含以下四个核心层级: 1. 召回层 (Recall...
我最喜欢的十部电影推荐
作为一个影迷,我经常被电影中的故事、情感和摄影打动。以下是我最喜欢的十部电影,它们或震撼心灵,或温柔治愈,值得每一个人静下心来欣赏。 🎬 Top 10 私藏电影清单 《肖申克的救赎》(The Shawshank Redemption) “希望是件好东西,也许是最好的,好东西是不会消亡的。” 《阿甘正传》(Forrest Gump) 人生就像一盒巧克力,你永远不知道你会得到什么。 《星际穿越》(Interstellar) 爱是一种我们还无法理解的力量。 《美丽人生》(La vita è bella) 即使在最黑暗的时刻,也要为孩子营造光明。 《千与千寻》 每次重温宫崎骏,都像重拾童年梦境。 《忠犬八公的故事》 忠诚和爱不需要语言。 《盗梦空间》(Inception) 一部让人深思的烧脑神作。 《海上钢琴师》(The Legend of 1900) 在海上,他弹奏出了整个世界。 《放牛班的春天》 音乐是最温柔的救赎。 《无间道》 一念天堂,一念地狱,港片巅峰。 🍿...



