无监督学习
- 一、 无监督学习(unsupervised learning)
- 二、 K均值聚类(K-means 聚类)
- 三、 主成分分析(Principle Component Analysis, PCA)
- 四、 特征人脸方法(Eigenface)
一、 无监督学习(unsupervised learning)
无监督学习用于处理未被分类标记的样本集。
当缺乏足够的先验知识,因此难以人工标注类别;或是进行人工类别标注的成本太高时,可使用无监督学习。
1. 典型例子:聚类(Clustering)
所有数据只有特征向量没有标签,但是可以发现这些数据呈现出聚群的结构,本质是一个相似的类型的会聚集在一起。这样可以把这些没有标签的数据分成一个一个组合类。
聚类算法最主要的是划分方法和层次方法。
划分聚类算法通过优化评价函数把数据集分割为K个部分,它需要K作为输人参数。典型的分割聚类算法有K-means算法, K-medoids算法、CLARANS算法。
层次聚类由不同层次的分割聚类组成,层次之间的分割具有嵌套的关系。它不需要输入参数,这是它优于分割聚类算法的一个明显的优点,其缺点是终止条件必须具体指定。典型的分层聚类算法有BIRCH算法、DBSCAN算法和CURE算法等。
2.无监督学习的重要因素
数据特征
- 图像中颜色、纹理或形状等特征
- 听觉信息中旋律和音高等特征
- 文本中单词出现频率等特征
相似度函数
- 定义一个相似度计算函数,基于所提取的特征来计算数据之间的相似性
在无监督学习中,数据特征和相似度函数都很重要。
二、 K均值聚类(K-means 聚类)
K均值聚类算法接受一个未标记的数据集,然后将数据聚类成不同的组。
聚类算法会做两件事:簇分配和移动聚类中心
对于数据集中的每一个数据,按照距离K个中心点的距离,将其与距离最近的中心点关联起来,与同一个中心点关联的所有点聚成一类。
计算每一个组的平均值,将该组所关联的中心点移动到平均值的位置。
- 输入:n个m维数据(x1,x2,……xn),
标签:机器,特征,笔记,学习,算法,人脸,聚类,质心,数据 来源: https://blog.csdn.net/cheerful090/article/details/113823089
本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享; 2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关; 3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关; 4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除; 5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。