视频B站视频
笔记:公众号:生信小知识+生信菜鸟团
学习思路:机器学习——小洁飞外TCGA笔记——生信技能树线上视频
概念:机器学习主要思想
一般来讲, 机器学习就是进行预测和分类。原始数据称为训练集(training data),测试集来评估机器学习方法。
偏差-方差权衡:我们记得绿色曲线在拟合训练集的时候非常好,但是当我们做机器学习时,我们更感兴趣的是绿色曲线能利用新的数据做出多好的预测。换句话说, 虽然绿色曲线比黑色曲线更拟合训练集,然而黑线在用测试集进行预测速度方面做得更好。所以我们会选择黑线!!
参考StatQuest学习笔记22——交叉验证
例子:
根据胸痛、血液循环、体重预测心脏疾病;当我们遇到一个新的病人时,检测这些指标(左侧)来预测是否得了心脏病(右侧),如下:
可用的机器学习方法:
Logistic回归、k近邻算法、支持向量机(SVM)等但是那种方法适合我们呢? 交叉验证可以帮助我们比较不同的机器学习方法。对于这个新病人数据,我们需要做2件事情,如下所示:
第一,估计机器学习方法的参数。例如对于逻辑回归来说,我们需要使用一些数据(已有病人)来估计这个曲线的形状。用机器学习的术语来说,用于估计参数的过程叫做“训练算法”(training the algorithm)。第二件事情就是,我们要评估一下所选的这个方法工作起来到底行不行。也就是说,我们需要评估一下,找出的这条曲线能否对新的数据进行很好地归类。用机器学习的术语来讲,评估一个方法的好坏叫做“检验算法”(testing the algorithm)。Cross validation思想最不好的方法是把全部数据拿去构建模型,因为就没有数据用于评估当前算法的优劣。如果此时是使用全部数据再去评估当前算法的优劣也不是太好,因为无法知道当前模型对未知数据的预测能力如何。比较好的好的方法是将数据均分为多份,一部分用于训练,一部分用于测试。比如将数据分为4等份,其中三份用于建模,一份用于测试。
但是,我们是怎么知道把数据分为前75%和后25%是一种最好的方法呢;相比较再去寻找方法去判断最佳的数据拆分方案,不如(苏轼的诗有哪些?苏轼被我们熟知的诗有《题西林壁》、《饮湖上初晴后雨二首·其二》、《水调歌头》、《念奴娇·赤壁怀古》和《题领巾绝句》等等。)直接将所有的拆分方案都计算一遍,然后再汇总结果。如下图所示,相应的测试结果见图中标识,最终合并结果可以知道有16个测试结果分类正确,8个测试结果分类错误。
例子:
我们有一些临床测量, 比如胸痛, 血液循环情况, 动脉阻塞以及体重,我们想用机器学习的方法来预测是否有人会发展出心脏病:
现在我们需要总结每种方法在测试集上的表现 (预测准确与否),一种方法是为每个方法创建一个混淆矩阵。
步骤:
1.数据:数据分为训练集+测试数,用训练集来训练我们感兴趣的方法,基于测试集来测试每个方法;2.混淆矩阵:总结每种方法在测试机上的表现
Logistic回顾分析和决策树差不多时;需要用其他指标来衡量:如:
让我们来看一个更复杂的矩阵,这是一组新的数据,现在的问题是, 基于人们对下列电影的看法:
如果可供选择的最喜欢的电影只有3个:《矮人怪2》, 《东京残酷警察》, 《酷得像冰》,那么混淆矩阵将有三行三列:
概念:敏感度和特异性
概念:方差与偏差
偏差度量了学习算法的期望预测与真实结果的偏离程度,即刻画了学习算法本身的拟合能力;方差度量了同样大小的数据集的变动(即样本数相同的不同数据集)所导致的学习性能的变化,即刻画了数据扰动所造成的影响。两者往往此消彼长。 六+七、ROC 和 AUCROC and AUC分类器原理概念:
#first thing:load pROC,it will draw ROC graphs for us.#install.packages("pROC")library(pROC)# a Random Forest is a way to claasifyy samples #and we can change the threshold that we use to make those decisionslibrary(randomForest)set.seed(420)num.samples = 100weight=sort(rnorm(n=num.samples,mean = 172,sd=29)) #rnorm generate 100random values#classifyobese <- ifelse(test = (runif(n=num.samples)<(rank(weight)/100)), yes=1,no=0)obeseplot(x=weight,y=obese)#glm to fit a logistic regression curveglm.fit=glm(obese~weight,family = binomial)lines(weight,glm.fit$$fitted.values)#ROC par(pty="s")#"s"ROC图修改为square#roc(obese,glm.fit$$fitted.values,plot = TRUE,legacy.axes=TRUE)#plot = TRUE做出ROC图#legacy.axes=TRUE 横坐标:1-Specificityroc(obese,glm.fit$$fitted.values,plot = TRUE,legacy.axes=TRUE,percent=TRUE, #修改坐标轴名称 xlab="False Positive Percentage",ylab="True Positive Percentage", col="#377eb8",lwd=4,print.auc=TRUE,print.auc.x=45,partial.auc=c(100,90), auc.polygon=TRUE,auc.polygon.col="#377eb822")roc.info=roc(obese,glm.fit$$fitted.values,plot = TRUE,legacy.axes=TRUE)#plot = TRUE做出ROC图#Partial AUC:when you want to focus on part of the ROC curve that only allows for a small number of False Positiveroc.df=data.frame( tpp=roc.info$$sensitivities*100, fpp=(1- roc.info$$specificities)*100, thresholds=roc.info$$thresholds)#悬着范围roc.df[roc.df$$tpp>60 & roc.df$$tpp<80,]##比较两个:rf.model=randomForest(factor(obese)~weight)roc(obese,glm.fit$$fitted.values,plot = TRUE,legacy.axes=TRUE,percent=TRUE, #修改坐标轴名称 xlab="False Positive Percentage",ylab="True Positive