U2I 调研
所以主要是要学的一个更好的分布,分布更加均匀,更加散。同时在长尾的例子上希望能学的更好 [1]
Study Notes
所以主要是要学的一个更好的分布,分布更加均匀,更加散。同时在长尾的例子上希望能学的更好 [1]
参考书⬆[1]
R. S. Sutton and A. G. Barto, Reinforcement learning: an introduction, Second edition. in Adaptive computation and machine learning series. Cambridge, Massachusetts: The MIT Press, 2018. ↩
标准脸图片
Style/artratex.sty:316
:注释掉了Thesis.tex:48-52
:增加了Algoritme的包及其设置Pair is used to combine together two values that may be different in type.
推荐系统.陈开江. ↩
Question List[1](其实吧,我怀疑就是抄的c++ primer里面的,c++primer介绍的确实详细。)
分类误差率:
\[\begin{equation} e_{m}=\sum_{i=1}^{N} P\left(G_{m}\left(x_{i}\right) \neq y_{i}\right)=\sum_{i=1}^{N} w_{m i} I\left(G_{m}\left(x_{i}\right) \neq y_{i}\right) \end{equation}\]统计学习方法(第二版) ↩
文本集合的概率模型,文本-话题,话题-单词矩阵的多项式概率参数由狄利克雷分布生成,但是仅生成一次,并不是没生成一个单词就生成一个分布,所以可以计算。和逻辑回归的参数可以假设符合正态分布类似,同时该假设与l2正则等价。参数符合预设的分布能降低过拟合概率。
统计学习方法(第二版) ↩
LFM MF SVD SVD++ FM difference
EVD: 特征值分解, $A=Q\Sigma Q^{-1}$, 在线性子空间,各个分量的大小。[1]
SVD:适用于非方阵 [1]
FunkSVD: 分解为两个矩阵,且只关心非空元素,同时有l2正则。[4]
\[\begin{equation} \min _{q^{*}, p^{*}} \sum_{(u, i) \in \mathcal{K}}\left(r_{u i}-q_{i}^{T} p_{u}\right)^{2} \end{equation}\]PMF:概率形式的FunkSVD, 参数符合正态分布。[4]
一般说的线性回归通常用的l2 loss。
参考:foundations of machine learning , appendix B
By keeping $y$ of points at the margin line being $ \pm 1$,let
How to solve $ Ax=b $? ( \(A\in \mathbb{R}^{m*n}, x \in \mathbb{R}^{n*1}, b \in \mathbb{R}^{m*1}\))
import numpy as np
from:统计学习方法 第二版,
from:Deep Learning- lan,
图片格式: 