分类目录归档:MachineLearning

时序差分算法 TD

前置知识:强化学习入门蒙特卡洛法马尔可夫决策过程 MDP

时序差分算法

时序差分(temporal difference,TD)

  • 一种用来估计一个策略的价值函数的方法,结合了蒙特卡洛和动态规划算法的思想
  • 时序差分 vs 蒙特卡洛:都可以从样本数据中学习,不需要事先知道环境;但蒙特卡洛法需要完成整个序列后才能计算得到回报 $G_{t}$,而时序差分法只需要当前步结束即可进行计算
  • 时序差分 vs 动态规划:都可以根据贝尔曼方程来更新当前状态的价值估计

回顾 MDP 中状态价值函数的贝尔曼方程: $$ v_{

Read more

马尔可夫决策过程 MDP

前置知识:马尔可夫模型强化学习入门

MDP 的定义

马尔可夫奖励过程(Markov reward process,MRP)

  • 在马尔可夫过程的基础上加入奖励 $R$ 和奖励衰减因子 $\gamma$
  • 马尔可夫奖励过程中时刻 $t$ 的回报 $G_{t}$ 是未来奖励的衰减折现

$$ G_{t}=R_{t}+\gamma R_{t+1}+\gamma^2 R_{t+2}+\dots+\gamma^n R_{t+n} $$

  • 马尔可夫奖励过程中的状态价值函数 $v(s)=E[G_{t}|S_{t}=s]$

Read more

强化学习入门

强化学习的定义

强化学习(reinforcement learning,RL)

  • RL 是 Agent 通过动作与环境交互,从而实现特定目标最优化的一种计算方法
  • Agent 在环境状态为 $S_{t}$ 的情况下产生一个动作决策 $A_{t}$,并将 $A_{t}$ 作用到环境中
  • 然后环境发生相应的改变,并将相应的奖励反馈 $R$ 和下一轮状态 $S_{t+1}$ 传回机器
  • 以上交互是迭代进行的,目标是最大化在多轮交互过程中获得的累积奖励的期望

强化学习的三个基本要素:

  1. 状态 $S$,Agent 需要能感知当前环境的状态;比如 AlphaGo 需要了

Read more

因果推断

因果推断基础

辛普森悖论 提醒我们在分析数据时要仔细考虑分组和混杂因素的影响,而因果推断的作用就是使用适当的方法识别和控制这些因素,从而可以更好地解释数据中的关系,并做出可靠的结论。

相关性与因果性:

  • 相关性描述了事物之间存在的关联,因果性则代表了事物之间的内在联系
  • 不同于相关性,因果性一般是单向的,即 A 是 B 的因,B 就不应该是 A 的因
  • 传统模型一般学习的只是相关性,这也是导致模型泛化能力不足的重要原因

因果关系的三个阶段(由易到难):

  1. 关联性 Assoc

Read more

共形预测 Conformal Prediction

共形预测(conformal prediction,CP)是一种置信度预测器

  • 给定置信度水平,共形预测能为预测器模型生成具有统计有效性的预测区间
  • 共形预测可以逐类分析,独立保证每个类的错误率,适用于数据偏斜的情况
  • 广泛应用于假设检验,能为机器学习系统的预测提供有保证的不确定性量化
  • 共形预测易于理解和应用,通用性强,适用于不同领域不同类型的预测模型
  • 共形预测的算法相对新颖,相关的开源实现较少,更多的研究停留在学术界

由于翻译用词缺少官方定义,共形预测也称共形推理或保形预测

算法原理

共形预测的一般过程:

  1. 根据输入 $x

Read more

特征工程_图

前置知识:图论基础

代码实践:图特征工程_Python实现

节点中心性度量

度中心性 (Degrree Centrality):

  • 用节点的度来描述节点的重要性,即邻接节点数越多的节点越重要
  • 在不同网络间比较时,需要除以网络总节点数进行标准化

特征向量中心性 ( Eigenvector Centrality): $$ c_v=\frac{1}{\lambda}\sum_{u\in N(v)}c_u $$

  • 节点的重要性取决于邻接节点的重要性之和
  • 其本质对应一个图邻接矩阵的特征向量求解问题

介数中心性

Read more

特征选择

1 常见特征选择方法

特征评价指标:信息准则类指标

常用特征选择方法:

  • 基于正则惩罚的特征选择(比如Lasso 回归
  • 删除方差特别低的特征(sklearn.feature_selection.VarianceThreshold
  • 删除高相关性的特征(比如计算皮尔逊相关系数矩阵)
  • 单变量特征选择(互信息、方差分析、卡方检验)
  • 基于评价方法的贪婪特征选择(前向/后向搜索)
  • 基于特征重要性的选择(集成树模型、SHAP分析)

2 Relief 特征选择法

Relief(relative features)是一种处理二分类问题的常用特征选

Read more

调参与训练

1 传统机器学习

1.1 XGBoost

最常用的10个超参数(原生API,兼容Scikit-learn的API,常见取值范围):

  • num_boost_round:训练期间所需要的基学习器数量,默认100;在应对较大数据集时,一般控制在5000~10000左右(影响训练时间的重要因素);一个常用技巧是先设定一个较高的数值,然后结合early-stopping来获得一个较优的模

Read more

模型评价

1 分类模型评价

Read more

数据偏斜

1 数据偏斜概述

又称为数据不平衡(imbalanced)问题,指分类任务中不同类别之间的样本数差异过大的情况。数据偏斜常见于医疗诊断、文本分类、金融欺诈、异常检测等领域,一般认为样本比例大于4:1时,便存在样本不平衡的问题,一些极端的场景下,会存在1000:1的样本比例,甚至一个类型只有一个样本的情况

数据偏斜问题的影响:干扰建模过程,错

Read more