Python k-近邻算法的优缺点

发布时间:2022-04-29 09:38:55 人气:21 作者:多测师

  优点

  Python k-近邻算法简单,易于理解,易于实现,无需参数估计,无需训练,即可以用来做分类也可以用来做回归

  和朴素贝叶斯算法比,对数据没有假设,准确度高,对异常值不敏感(个别噪音数据对结果的影响不是很大)

  适合对稀有事件进行分类,也可以用于非线性分类

  适合于多分类问题(multi-modal,对象具有多个类别标签),KNN要比SVM表现好

  训练时间复杂度比支持向量机之类的算法低,仅为O(n)

Python k-近邻算法的优缺点

  由于KNN方法主要靠周围有限的邻近的样本,而不是靠判别类域的方法来确定所属类别的,因此对于类域的交叉或重叠较多的待分样本集来说,KNN方法较其他方法更为适合

  该算法比较适用于样本容量比较大的类域的自动分类,而那些样本容量较小的类域采用这种算法比较容易误分

  缺点

  对测试样本分类时的计算量大,内存开销大,因为对每个待分类的文本都要计算它到全体已知样本的距离,才能求得它的K个最近邻点,目前常用的解决方法是对已知的样本点进行剪辑,事先要去除对分类作用不大的样本

  可解析性差,无法告诉你哪个变量更重要,无法给出决策树那样的规则

  k值的选择:最大的缺点是当样本不平衡时,如一个类的样本容量很大,而其他样本容量很小时候,有可能导致当输入一个新样本时,该样本的K个邻居中大容量类的样本占多数。该算法只计算“最近的”邻居样本,某一类的样本数量很大的时候,那么或者这类样本并不接近目标样本,或者这类样本很靠近目标样本。无论如何,数量并不影响运行结果,可以采用权值的方法(和该样本距离小的邻居权重大)来改进

  KNN是一种消极学习方法,懒惰算法,导致预测时速度比起逻辑回归之类的算法慢

  相对于决策树模型,KNN模型可解释性不强

  KD树,球树之类的模型建立需要大量的内存

  以上内容为大家介绍了Python k-近邻算法的优缺点,希望对大家有所帮助,如果想要了解更多Python相关知识,请关注多测师。https://www.e70w.com/xwzx/


返回列表
在线客服
联系方式

热线电话

17727591462

上班时间

周一到周五

二维码
线