ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

第三章 K近邻法(k-nearest neighbor)

2019-05-25 17:42:19  阅读:337  来源: 互联网

标签:nearest kd 近邻 tree train neighbor mer np data


书中存在的一些疑问

  • kd树的实现过程中,为何选择的切分坐标轴要不断变换?公式如:x(l)=j(modk)+1。有什么好处呢?优点在哪?还有的实现是通过选取方差最大的维度作为划分坐标轴,有何区别?
    • 第一种方法网上也没具体的解释,我不是很清楚其原因(可能要去论文上找原因)。
    • 不过第二种方法的话,方差越大,说明这个维度数据的相似性就越差,就越容易通过选取中点的方式将数据集分开,kd树的效率就越高,试想如果你挑了一个维度其中数据全为一样,那么kd树的建立过程就无法将使用挑选中位数的方法来达到,而且后面的kd树的搜索效率就和线性的没什么大的区别。
  • kd树实现加速查找的最近邻方法是:某个维度的中位数作为切分点,父节点与子节点的关系为其为其下面所有节点的在某个维度的中位数。

代码实现过程中的一些难点

  • kd树的实现也就是二叉树的实现过程。
  • kd树的搜索过程。二叉树的搜索还不是很清楚(枯辽)

具体代码实现:

import matplotlib.pyplot as plt
import numpy as np


def ls(p):
    # 返回左子节点
    return p << 1


def rs(p):
    # 返回右子节点
    return p << 1 | 1


def build_kd_tree(data_x, tree, p, dim):
    """
    建立二叉树的过程
    :param data: 建立二叉树所需要的数据
    :param tree: 存二叉树的数组
    :param p: 所在的节点
    :param dim: 现在所在的维度
    :return: None
    """
    # 根据dim对数据进行排序并取其中位数
    # data[data[:,i].argsort()],根据第i维对数据进行排序
    if len(data_x) == 1:
        tree[p] = data_x
        return
    if len(data_x) == 0:
        return
    length = len(data_x[0]) - 1
    data_x = data_x[data_x[:, dim].argsort()]
    mid = len(data_x) >> 1
    tree[p] = data_x[mid]
    build_kd_tree(data_x[:mid, :], tree, ls(p), ((dim + 1) % length))
    build_kd_tree(data_x[mid + 1:, :], tree, rs(p), ((dim + 1) % length))
    return


def find_leaf_node(data, tree):
    # 从根节点出发,循环向下访问kd树,返回其叶子节点
    p, dim, length = 1, 0, len(tree[1]) - 1
    if tree[p, dim].sum() <= 0.0:
        return 1
    while True:
        if data[dim] > tree[p, dim]:
            if tree[rs(p), dim].sum() <= 0.0:
                return p
            p = rs(p)
        else:
            if tree[ls(p), dim].sum() <= 0.0:
                return p
            p = ls(p)
        dim = (dim + 1) % length
    return 1


def distance(a, b, p=1):
    # 我只对数据进行p方运算,不进行开方运算
    sum = 0
    if p == 1:
        c = a - b
    else:
        c = a - b
        c=c.__pow__(p)
    c=c.__abs__()
    sum=c.sum()
    return sum

def find_label(data,tree,nowp,mer):
    if tree[nowp].sum()<=0.0:
        return
    len_of_mer=len(mer)
    len_of_data=len(data)
    mer=mer[mer[:,0].argsort()]
    dis=distance(data,tree[nowp,:-1])
    if dis<=mer[0,0]:
        for i in range(1,len_of_mer-2):
            mer[i]=mer[i+1]
        mer[0]=[dis,tree[nowp,-1]]
        find_label(data,tree,ls(nowp),mer)
        find_label(data,tree,rs(nowp),mer)
    for i in range(1,len_of_mer):
        if dis>mer[len_of_mer-i,0]:
            if i!=1:
                mer[len_of_mer-1]=[dis,tree[nowp,-1]]
            find_label(data, tree, nowp >> 1, mer)
            return





def k_NN(data, tree, p, k):
    label = np.zeros((len(data), 1))
    for i in range(len(data)):
        # 先找到其对应的叶子节点
        #直接默认p=1吧,p对这个影响不是很大吧,主要是k的影响
        pointer = find_leaf_node(data[i], tree)
        mer=np.zeros((k,2))
        for j in range(k):
            mer[j,0]=9999999
        find_label(data[i],tree,pointer,mer)
        # d=np.argmax(np.bincount(int(mer[:,1])))
        # label[i]=d
    return  label


if __name__ == '__main__':
    # train_x, train_y = np.load("data//train_x.npy"), np.load("data//train_y.npy")
    # test_x, test_y = np.load("data//test_x.npy"), np.load("data//test_y.npy")

    # kd树的建立过程,即为二叉树的建立过程,只需要将二叉树对位置的划分变成对某个维度的排序再取其中位数位置的作为划分中点即可
    # 下面为验证数据集,可以看到完美符合
    train_x = np.array(((2, 3), (5, 4), (9, 6), (4, 7), (8, 1), (7, 2)))
    train_y = np.array((4, 2, 3, 5, 6, 1))
    # 为了防止操作过于繁琐,将标签直接加到数据的最后一列
    test_x=np.array(((1,2),(3,4)))
    data = np.insert(train_x, len(train_x[0]), train_y, axis=1)
    tree = np.zeros(((len(train_x) << 2) + 10, len(data[0])))
    build_kd_tree(data, tree, 1, 0)
    p, k = 1, 4
    test_label = k_NN(test_x, tree, p, k)
    print(test_label)

 

标签:nearest,kd,近邻,tree,train,neighbor,mer,np,data
来源: https://www.cnblogs.com/fghfghfgh666/p/10918773.html

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有