遥感人请:为什么全色波段会使遥感影像表现为黑白影像? 很不理解,求详解。。谢谢 全色遥感影像和多波段遥感影像的具体概念?

全色遥感影像和多波段遥感影像的具体概念?~

可以看出第一个回答者答非所问。肯定不是学遥感的。

虽然我也不是专业学遥感出身,不过现在从事遥感的工作,希望可以帮你一点:
全色波段,一般指使用0.5微米到0.75微米左右的单波段,即从绿色往后的可见光波段。全色遥感影象也就是对地物辐射中全色波段的影象摄取,因为是单波段,在图上显示是灰度图片。全色遥感影象一般空间分辨率高,但无法显示地物色彩。

多波段,又叫多光谱,是指对地物辐射中多个单波段的摄取。得到的影象数据中会有多个波段的光谱信息。对各个不同的波段分别赋予RGB颜色将得到彩色影象。例如,将R,G,B分别赋予R,G,B三个波段的光谱信息,合成将得到模拟真彩色图象。多波段遥感影象可以得到地物的色彩信息,但是空间分辨率较低。

实际操作中,我们经常将这两种影象融合处理,得到既有全色影象的高分辨率,又有多波段影象的彩色信息的影象。

通过资料的搜集和学习,一个非遥感专业的小白看能否给你解释清楚。首先你要了解光谱分辨率和空间分辨率两个专业术语(ps 自行百度)。主要原因解释如下:
一是光谱分辨率和空间分辨率彼此制约,全色影像的光谱分辨率低,所以空间分辨率高。多光谱影像波段目前主要分为四个:红(630-690nm)、绿(520-590nm)、蓝(450-520nm)、近红外(770-890nm)。而全色影像波段单指波段范围在500-750nm之间,即绿色以后的可见光。不难发现,四个多光谱波段范围均比全色光谱波段范围窄,因此,多光谱影像的光谱分辨率一定会比全色光谱的光谱分辨率高(光谱分辨率和波长相关,波长范围越小,光谱分辨率越高 ps就像刻度尺的精度一样),进而其空间分辨率低。
二为对于多光谱影像来说,光束经过分光 ,带给传感器的能量减少了,所以空间分辨率低。传感器是需要获得一定光能才能响应的,对于多光谱影像来说,传感器接收到光信号前会有一个分光的过程,将入射的白光分解成所需的RGB光谱段和近红外光束,然后传感器(一般是一组传感器)才分别接受这些光束,而对于全色影像来说,传感器摄取的是单波段,所以不存在分光过程。光的入射能量是一定的,分光后能量降低了,所以对应的分辨率也降低了
PS:一份影像中,全色影像保留着空间分辨率,多光谱影像保留光谱信息,各司其职,后期的遥感处理将两者融合在一起,便得到了一份既有高空间分辨率又保留着光谱分辨率的影像!因此遥感影像进行后期处理是很有必要!

spot上搭载的有两种:多光谱和全色的,多光谱分辨率20m,全色分辨率10m。

因为全色波段是单波段的影像,我们平时的彩色图像是几个波段合成的,将多个波段分别赋予RGB,合成为假彩色,一般拿到的最初数据是各个波段的,这时他们都是黑白的。

 

 



全色波段,一般指使用0.5微米到0.75微米左右的单波段,即从绿色往后的可见光波段。全色遥感影象也就是对地物辐射中全色波段的影象摄取,因为是单波段,在图上显示是灰度图片。全色遥感影象一般空间分辨率高,但无法显示地物色彩。

遥感影像中的全色波段会表现为黑白影像,主要是因为全色波段是单波段的影像,没有经过可见光的分色处理,直接将相机传感器上采集的可见光信息转化成数字信号进行存储和传输。因此,最终得到的影像就是灰度图片,即俗称的“黑白图像”。相比之下,平时所看到的彩色图像是多个波段合成的,将多个波段分别赋予RGB,合成为假彩色。因此,全色波段下的遥感影像表现为黑白影像。

为传递更多信息,若有事情请联系
数码大全网