无监督的分类
A. envi中监督分类和非监督分类有什么区别各是怎么定义的
监督分类是需要学习训练的分类方法,如最大似然分类,人工神经网络分类,即是需要事先为每类地物在遥感图像上采集样本数据,之后通过学习训练过程才来分类;非监督分类不需要人工采集地物样本点数据,多是通过聚类的方法来自动分类,主要有isodata,k均值等.总体来说,监督分类的效果要优于非监督分类.
B. 非监督分类的定义
非监督分类是指人们事先对分类过程不施加任何的先验知识,而仅凭数据(遥感影像地物的光谱特征的分布规律),即自然聚类的特性,进行“盲目”的分类;其分类的结果只是对不同类别达到了区分,但并不能确定类别的属性,亦即:非监督分类只能把样本区分为若干类别,而不能给出样本的描述;其类别的属性是通过分类结束后目视判读或实地调查确定的。非监督分类也称聚类分析。一般的聚类算法是先选择若干个模式点作为聚类的中心。每一中心代表一个类别,按照某种相似性度量方法(如最小距离方法)将各模式归于各聚类中心所代表的类别,形成初始分类。然后由聚类准则判断初始分类是否合理,如果不合理就修改分类,如此反复迭代运算,直到合理为止。与监督法的先学习后分类不同,非监督法是边学习边分类,通过学习找到相同的类别,然后将该类与其它类区分开,但是非监督法与监督法都是以图像的灰度为基础。通过统计计算一些特征参数,如均值,协方差等进行分类的。所以也有一些共性。
C. 非监督分类的分类方法
(一)波普图来形识别分类自
(二)聚类分析 动态聚类。聚类的方法主要有基于最邻近规则的试探法、K-means均值算法、迭代自组织的数据分析法(ISODATA)等。 模糊聚类法。模糊分类根据是否需要先验知识也可以分为监督分类和非监督分类.。 系统聚类。这种方法是将影像中每个像元各自看作一类,计算各类间均值的相关系数矩阵,从中选择最相关的两类进行合并形成新类,并重新计算各新类间的相关系数矩阵,再将最相关的两类合并,这样继续下去,按照逐步结合的方法进行类与类之间的合并,直到各个新类间的相关系数小于某个给定的阈值为止。 分裂法。又称等混合距离分类法,它与系统聚类的方法相反,在开始时将所有像元看成一类,求出各变量的均值和均方差,按照一定公式计算分裂后两类的中心,再算出各像元到这两类中心的聚类,将像元归并到距离最近的那一类去,形成两个新类. 然后再对各个新类进行分类,只要有一个波段的均方差大于规定的阈值,新类就要分裂。
D. 监督分类 非监督分类 区别
监督分类是需要学习训练的分类方法,如最大似然分类,人工神经网络分类,即是需要回事先为每类地物在遥感图答像上采集样本数据,之后通过学习训练过程才来分类;非监督分类不需要人工采集地物样本点数据,多是通过聚类的方法来自动分类,主要有isodata,k均值等.总体来说,监督分类的效果要优于非监督分类.
E. 什么是监督分类和非监督分类
监督分类 (supervised classification)又称训练场地法,是以建立统计识别函数为理论基础,依内据典型样本训练容方法进行分类的技术。即根据已知训练区提供的样本,通过选择特征参数,求出特征参数作为决策规则,建立判别函数以对各待分类影像进行的图像分类,是模式识别的一种方法。要求训练区域具有典型性和代表性。判别准则若满足分类精度要求,则此准则成立;反之,需重新建立分类的决策规则,直至满足分类精度要求为止。常用算法有:判别分析、最大似然分析、特征分析、序贯分析和图形识别等。
非监督分类是以不同影像地物在特征空间中类别特征的差别为依据的一种无先验(已知)类别标准的图像分类,是以集群为理论基础,通过计算机对图像进行集聚统计分析的方法。根据待分类样本特征参数的统计特征,建立决策规则来进行分类。而不需事先知道类别特征。把各样本的空间分布按其相似性分割或合并成一群集,每一群集代表的地物类别,需经实地调查或与已知类型的地物加以比较才能确定。是模式识别的一种方法。一般算法有:回归分析、趋势分析、等混合距离法、集群分析、主成分分析和图形识别等。
F. 如何编写一个基于无监督的卷积神经网络实现图像的分类(python)
字段
字段是被视为类的一部分的对象的实例,通常用于保存类数据。例如,日历类可能具有一个包含当前日期的字段。
可以选择将字段声明为 static。这使得调用方在任何时候都能使用字段,即使类没有任何实例。
可以将字段声明为 readonly。只读字段只能在初始化期间或在构造函数中赋值。
static readonly 字段非常类似于常数,只不过 C# 编译器不能在编译时访问静态只读字段的值,而只能在运行时访问。
属性
属性是类中可以像类中的字段一样访问的方法。属性可以为类字段提供保护,以避免字段在对象不知道的情况下被更改。
属性使类能够以一种公开的方法获取和设置值,同时隐藏实现或验证代码。
get 属性访问器用于返回属性值,而 set 访问器用于分配新值。这些访问器可以有不同的访问级别。
value 关键字用于定义由 set 索引器分配的值。
不实现 set 方法的属性是只读的。
对于不需要任何自定义访问器代码的简单属性,可考虑选择使用自动实现的属性。看个示例:public class userInfo
{
//字段
private string name; //其它类不能访问
public int age; //其它类可访问,但既可赋值,也可取值。
//属性
public string Name //其它类可访问,但只能赋值,不能取值。
{
//注释了get就只能给Name赋值,而不能取值。反之依然
//get{return name;}
set
{
//TODO:可以调用方法等其它操作。 这里就是一个方法,方法名为set,参数为value;
name=value;
}
}
} .方法
方法定义类可以执行的操作。方法可以接受提供输入数据的参数,并且可以通过参数返回输出数据。方法还可以不使用参数而直接返回值。事件
事件向其他对象提供有关发生的事情(如单击按钮或成功完成某个方法)的通知。事件是使用委托定义和触发的。
G. 什么是监督分类和非监督分类
监督分类又称训练场地法、训练分类法,是以建立统计识别函数为理论基础、依据典型样本训练方法进行分类的技术,即根据已知训练区提供的样本,通过选择特征参数,求出特征参数作为决策规则,建立判别函数以对各待分类影像进行的图像分类。
非监督分类是以不同影像地物在特征空间中类别特征的差别为依据的一种无先验类别标准的图像分类,是以集群为理论基础,通过计算机对图像进行集聚统计分析的方法。根据待分类样本特征参数的统计特征,建立决策规则来进行分类。
(7)无监督的分类扩展阅读
监督分类的主要优点如下:
(1)可根据应用目的和区域,充分利用先验知识,有选择地决定分类类别,避免出现不必要的类别;
(2)可控制训练样本的选择;
(3)可通过反复检验训练样本,来提高分类精度,避免分类严重错误;
(4)避免了非监督分类中对光谱集群组的重新归类。
缺点如下:
(1)其分类系统的确定、训练样本的选择,均人为主观因素较强,分析者定义的类别有可能并不是图像中存在的自然类别,导致各类别间可能出现重叠;分析者所选择的训练样本也可能并不代表图像中的真实情形;
(2)由于图像中同一类别的光谱差异,造成训练样本没有很好的代表性;
(3)训练样本的选取和评估需花费较多的人力、时间;
(4)只能识别训练样本中所定义的类别,若某类别由于训练者不知道或者其数量太少未被定义,则监督分类不能识别。
H. 监督分类和非监督分类的研究现状
非监督分类是指人们事先对分类过程不施加任何的先验知识,而仅凭数据(遥感影像版地物的光谱特征权的分布规律),即自然聚类的特性,进行“盲目”的分类;其分类的结果只是对不同类别达到了区分,但并不能确定类别的属性,亦即:非监督分类只能把样本区分为若干类别,而不能给出样本的描述;其类别的属性是通过分类结束后目视判读或实地调查确定的。非监督分类也称聚类分析。一般的聚类算法是先选择若干个模式点作为聚类的中心。每一中心代表一个类别,按照某种相似性度量方法(如最小距离方法)将各模式归于各聚类中心所代表的类别,形成初始分类。然后由聚类准则判断初始分类是否合理,如果不合理就修改分类,如此反复迭代运算,直到合理为止。与监督法的先学习后分类不同,非监督法是边学习边分类,通过学习找到相同的类别,然后将该类与其它类区分开,但是非监督法与监督法都是以图像的灰度为基础。通过统计计算一些特征参数,如均值,协方差等进行分类的。所以也有一些共性。
I. 非监督分类
非监督分类是指人们事先对分类过程不施加任何的先验知识,而仅凭数据遥感影像地物的光谱特征的分布规律,依据图像数据本身的结构 ( 统计特征) 和自然点群分布,按照待分样本在多维波谱空间中亮度值向量的相似程度,由计算机程序自动总结出分类参数,即自然聚类的特性进行 “盲目”的分类。其分类的结果只是对不同类别达到了区分,但并不能确定类别的属性。其类别的属性是通过分类结束后目视判读或实地调查确定的。非监督分类也称聚类 ( 集群) 分析,使用的方法有图形识别、系统聚类、分裂法和动态聚类等。
其中,比较实用的是动态聚类。它是首先根据经验和分类数,选定若干个均值向量,作为 “种子”,建立一批初始中心,进行初步概略的分类,然后根据规定的参数 ( 阈值)检验分类结果,逐步修改调整分类中心,再重新分类,并根据各类离散性统计量 ( 如均方差等) 和不同类别之间可分离性统计量 ( 如类间标准化距离等) ,进行类的合并或分裂; 此后再修改中心,直至分类结果合理为止。动态聚类中,聚类中心和分类数可以按客观的波谱特征自动调整,分类效果一般比较好,但分类结果的确切含义 ( 类别的属性)需另作分析,从实况调查或已有的地面资料中去确定它们的地物类型。以下以 ISODATA法和 K - Means 法为例,给出其处理过程。
1. ISODATA 方法
ISODATA 也称迭代自组织数据分析算法,实质是在分类过程中不断对分类参数 ( 如各类别的均值、标准差、类间距离等) 进行调整和确定,通过类分裂、类合并、类删除等方法最终构建所需的判别函数。ISODATA 法的实现主要包括以下步骤 ( 图 4-23) :
( 1) 确定最初类别数和类别中心。最初类别数和类别中心的确定具有较大的随意性,因无先验知识,只能在以后逐步调整。一般可依据原始数据的统计分布特征进行确定。
( 2) 计算每一个像元矢量与各类别中心的距离,将像元矢量归属于距离最小的类别。
( 3) 计算新的类别均值向量。
( 4) 判断新的类别中心是否变化。
( 5) 当新的类别中心发生变化时,以新均值代替旧中心,回到步骤 ( 2) 继续迭代循环; 当新的类别中心不再变化时则停止迭代,输出分类结果。
2. K - Means 方法
K - Means 方法的基本思想是通过迭代移动各基准类别 ( 初始类别) 的中心直至取得最好的聚类结果,分类时新的类别中心的确定是根据该类别内所有像元到类别中心的距离平方和之和最小这一原则。这一原则与 ISODATA 方法并无本质区别。
非监督分类由于事先不需训练样本,故处理速度较快,较客观,并能为监督分类的训练样区选择提供参照,一般在有目的的监督分类之前进行。
J. 什么是无监督学习
首先看什么是学习(learning)?一个成语就可概括:举一反三。此处以高考为例,高考的题目在上考场前我们未必做过,但在高中三年我们做过很多很多题目,懂解题方法,因此考场上面对陌生问题也可以算出答案。机器学习的思路也类似:我们能不能利用一些训练数据(已经做过的题),使机器能够利用它们(解题方法)分析未知数据(高考的题目)?
最简单也最普遍的一类机器学习算法就是分类(classification)。对于分类,输入的训练数据有特征(feature),有标签(label)。所谓的学习,其本质就是找到特征和标签间的关系(mapping)。这样当有特征而无标签的未知数据输入时,我们就可以通过已有的关系得到未知数据标签。
在上述的分类过程中,如果所有训练数据都有标签,则为有监督学习(supervised learning)。如果数据没有标签,显然就是无监督学习(unsupervised learning)了,也即聚类(clustering)。