StatQuest机器学习-飞
发布时间: 2023-07-06

视频B站视频
笔记:公众号:生信小知识+生信菜鸟团
学习思路:机器学习——小洁飞外TCGA笔记——生信技能树线上视频

一、基础简介

概念:机器学习主要思想

一般来讲, 机器学习就是进行预测和分类。原始数据称为训练集(training data),测试集来评估机器学习方法。

偏差-方差权衡:

我们记得绿色曲线在拟合训练集的时候非常好,但是当我们做机器学习时,我们更感兴趣的是绿色曲线能利用新的数据做出多好的预测。换句话说, 虽然绿色曲线比黑色曲线更拟合训练集,然而黑线在用测试集进行预测速度方面做得更好。所以我们会选择黑线!!


二、Cross validation

参考StatQuest学习笔记22——交叉验证
例子:

根据胸痛、血液循环、体重预测心脏疾病;当我们遇到一个新的病人时,检测这些指标(左侧)来预测是否得了心脏病(右侧),如下:


此时,我们就面临一个问题,使用哪种方法来预测这个新病人是否得有心脏病?

可用的机器学习方法:

Logistic回归、k近邻算法、支持向量机(SVM)等但是那种方法适合我们呢? 交叉验证可以帮助我们比较不同的机器学习方法。

对于这个新病人数据,我们需要做2件事情,如下所示:

第一,估计机器学习方法的参数。例如对于逻辑回归来说,我们需要使用一些数据(已有病人)来估计这个曲线的形状。用机器学习的术语来说,用于估计参数的过程叫做“训练算法”(training the algorithm)。第二件事情就是,我们要评估一下所选的这个方法工作起来到底行不行。也就是说,我们需要评估一下,找出的这条曲线能否对新的数据进行很好地归类。用机器学习的术语来讲,评估一个方法的好坏叫做“检验算法”(testing the algorithm)。Cross validation思想

最不好的方法是把全部数据拿去构建模型,因为就没有数据用于评估当前算法的优劣。如果此时是使用全部数据再去评估当前算法的优劣也不是太好,因为无法知道当前模型对未知数据的预测能力如何。比较好的好的方法是将数据均分为多份,一部分用于训练,一部分用于测试。比如将数据分为4等份,其中三份用于建模,一份用于测试。


但是,我们是怎么知道把数据分为前75%和后25%是一种最好的方法呢;相比较再去寻找方法去判断最佳的数据拆分方案,不如(苏轼的诗有哪些?苏轼被我们熟知的诗有《题西林壁》、《饮湖上初晴后雨二首·其二》、《水调歌头》、《念奴娇·赤壁怀古》和《题领巾绝句》等等。)直接将所有的拆分方案都计算一遍,然后再汇总结果。如下图所示,相应的测试结果见图中标识,最终合并结果可以知道有16个测试结果分类正确,8个测试结果分类错误。


最终,每一部分数据都用于了检验,然后我们就可以比较不同的算法检验的结果,如下所示:
结果表明在本次数据中,使用支持向量机(SVM)的方法是最好的。 上述过程中,使用的交叉验证方法由于将数据分成了4份,因此又叫做4折交叉验证。这种方法属于一种叫做S折交叉验证(S-Folder Cross Validation)的方法,S是分成的数据份数。还有一些极端情况,比如只留一个样本作为测试,剩余的所有样本作为训练数据,这种方法叫做留一交叉验证(Leave-one-out Cross Validation),这种情况一般是在数据量很少的时候采用,如50个以下。 三、混淆矩阵(Confusion Matrix)

例子:

我们有一些临床测量, 比如胸痛, 血液循环情况, 动脉阻塞以及体重,我们想用机器学习的方法来预测是否有人会发展出心脏病:


为此, 我们可以使用 Logistic 回归或 k-近邻或随机森等,这将是使用交叉验证的绝佳机会
。然后我们用训练集来训练所有我们感兴趣的方法,得到拟合后的结果后然后基于测试集来测试每个方法。

现在我们需要总结每种方法在测试集上的表现 (预测准确与否),一种方法是为每个方法创建一个混淆矩阵。


步骤:

1.数据:数据分为训练集+测试数,用训练集来训练我们感兴趣的方法,基于测试集来测试每个方法;

2.混淆矩阵:总结每种方法在测试机上的表现


Logistic回顾分析和决策树差不多时;需要用其他指标来衡量:如:


让我们来看一个更复杂的矩阵,这是一组新的数据,现在的问题是, 基于人们对下列电影的看法:


如《侏罗纪公园 3》,《奔跑·脱单》, 《走出寒冷》,《Out Kold》,《天降神兵》,我们能用机器学习的方法来预测他们最喜欢的电影吗?

如果可供选择的最喜欢的电影只有3个:《矮人怪2》, 《东京残酷警察》, 《酷得像冰》,那么混淆矩阵将有三行三列:


四、敏感度和特异性

概念:敏感度和特异性


根据你的数据模型达到的目的:通过敏感度和特异性选择不同机器学习方法。五、偏差和方差(Bias and Variance)

概念:方差与偏差

偏差度量了学习算法的期望预测与真实结果的偏离程度,即刻画了学习算法本身的拟合能力;方差度量了同样大小的数据集的变动(即样本数相同的不同数据集)所导致的学习性能的变化,即刻画了数据扰动所造成的影响。两者往往此消彼长。 六+七、ROC 和 AUCROC and AUC分类器原理

概念:








ROC在R中实现:
#first thing:load pROC,it will draw ROC graphs for us.#install.packages("pROC")library(pROC)# a Random Forest is a way to claasifyy samples #and we can change the threshold that we use to make those decisionslibrary(randomForest)set.seed(420)num.samples = 100weight=sort(rnorm(n=num.samples,mean = 172,sd=29)) #rnorm generate 100random values#classifyobese <- ifelse(test = (runif(n=num.samples)<(rank(weight)/100)),                        yes=1,no=0)obeseplot(x=weight,y=obese)#glm to fit a logistic regression curveglm.fit=glm(obese~weight,family = binomial)lines(weight,glm.fit$$fitted.values)#ROC par(pty="s")#"s"ROC图修改为square#roc(obese,glm.fit$$fitted.values,plot = TRUE,legacy.axes=TRUE)#plot = TRUE做出ROC图#legacy.axes=TRUE 横坐标:1-Specificityroc(obese,glm.fit$$fitted.values,plot = TRUE,legacy.axes=TRUE,percent=TRUE,    #修改坐标轴名称    xlab="False Positive Percentage",ylab="True Positive Percentage",    col="#377eb8",lwd=4,print.auc=TRUE,print.auc.x=45,partial.auc=c(100,90),    auc.polygon=TRUE,auc.polygon.col="#377eb822")roc.info=roc(obese,glm.fit$$fitted.values,plot = TRUE,legacy.axes=TRUE)#plot = TRUE做出ROC图#Partial AUC:when you want to focus on part of the ROC curve that only allows for a small number of False Positiveroc.df=data.frame(  tpp=roc.info$$sensitivities*100,  fpp=(1- roc.info$$specificities)*100,  thresholds=roc.info$$thresholds)#悬着范围roc.df[roc.df$$tpp>60 & roc.df$$tpp<80,]##比较两个:rf.model=randomForest(factor(obese)~weight)roc(obese,glm.fit$$fitted.values,plot = TRUE,legacy.axes=TRUE,percent=TRUE,    #修改坐标轴名称    xlab="False Positive Percentage",ylab="True Positive

微信