什么是遥感技术?
定义:遥感是指在远距离收集关于物体的信息而不触及物体本身的过程。对于大多数人来说,最常见的遥感方法是用相机拍摄的物体的摄影图像。后来遥感已经演变成不仅仅是用眼睛看着物体。它现在包括使用仪器,测量人眼无法看到或感觉到的物体的属性。
历史:在1858年,法国摄影师Gaspaed Felix Tournachon率先从拴系的气球拍摄航空照片。几年后的1861年,航空照片成为内战期间军事情报的工具。航空照片也是从安装在风筝(1858)和载体鸽(1903)的摄像机上拍摄的。1909年,威尔伯•赖特(Wilbur Wright)从他飞过的第一架飞机,在飞行中拍摄第一张照片。1913年在国际摄影测量学会会议上,Tardivo上尉在一份文件中介绍了在创建地图过程中使用的第一张航空照片。
军事航空照片在第一次世界大战中被大规模使用。军方训练了数百人处理和解读空中侦察照片。法国航空部门在1918年的穆斯 - 阿贡进攻期间四天内处理了56,000张照片(Colwell,1997年)。第一次世界大战和二十世纪三十年代以后,商业航空调查公司雇用了许多前军事人员来处理航空照片,以制作地形图,森林管理图和土地图。
第二次世界大战在1942年为美军发明了的彩色红外线胶片,这些图像用于侦测被伪装的敌方力量和设备。在这次世界大战中,盟军的情报收集是通过航拍直接获得的。
美国军方和其他政府机构,如国家航空航天局(NASA)在冷战时期继续发展遥感的应用。20世纪60年代,也通过遥感从太空上看到了地球扩张和发展。第一颗军用太空照片侦察卫星科罗纳于1960年发射。科罗纳拍摄了苏联及其盟国的摄影影片。然后将暴露的胶片转移到太空中的无人驾驶的回收车辆中。之后,回收车辆通过携带该胶片的降落伞离轨并返回地球,然后在实验室中进行处理和分析。被称为电视红外观测卫星(TIROS)的第一系列天气卫星于1960年发射。NASA 继续从外太空通过阿波罗和双子座航天器收集地球观测调查图像。
他们通过从高空U-2和低空RF101飞机拍摄的航空照片,发现古巴的导弹装置。
这些图像在1962年的古巴导弹危机期间被电视播放给世界。1964年,美国空军开始飞行SR-71黑鸟侦察机。SR-71的飞行速度超过马赫数3或2000英里每小时,高度大于85,000英尺。美国大量的气象和地球观测卫星在七十年代开始启用。包括诸如Skylab空间站的载人航天器从外层空间收集地球的图像也是在20世纪七十年代启用。1972年,第一颗卫星Landsat-1刚原始的解析度只有80米,是发射进入非军事地球资源观察空间的第一颗卫星。Landsat拥有能够拍摄多光谱数字图像的传感器。
Landsat包含能够拍摄多光谱数字图像的传感器
美国军方的摄像卫星一直非常隐秘,并不公开给大众使用。从1976年开始,美军开始部署更复杂的高分辨率卫星,能够将数字图像中继到地球。1976年至1988年期间发射了8颗钥匙孔11颗卫星。1992年至1996年期间,发射了三颗改进的Keyhole-11B卫星。他们能够产生近十厘米(4英寸)的估计分辨率的图像(Vick等,1997)。
非军事卫星图像已被用于监测环境的恶化和污染。这些图像也可用于评估洪水和自然灾害的损害,有助于预测天气,定位矿物和石油储备,定位鱼类种群,监测海洋潮流,协助土地利用的绘图和规划,制作地质图和监测农、林业资源。
基本属性和概念:
电磁频谱:包括植物和土壤在内的所有物体都会以电磁辐射的形式发射(并)或反射能量。电磁辐射传播通过类似于下图所示的空间传播。波的三个重要组成部分即:频率、振幅和波长。频率是在给定时间段内通过点的循环波峰数,每秒一个循环即为一赫兹。振幅是每个波峰的高度,用以衡量能量的级别。波长是指从上一个波峰到下一个波峰之间的距离。
我们最熟悉、最常见的电磁辐射源是太阳。太阳照射覆盖了整个电磁频谱的能量,如下图所示。远程传感器类似于人眼,它们对反射光的图像和图案敏感。人眼和远程传感器之间的主要区别在于它们各自对于敏感的电磁频谱的频率范围。
电磁光谱范围从称为伽马射线的不到10兆亿分之一的非常短的波长到数百米长波长的无线电波变化。电磁频谱可以被分割成称为波段的波长范围的离散段,有时也被称为信道。
太阳经常向被阳光照射的物体提供能量,太阳的辐射能量撞击地面上的一个物体,然后一些不分散或不被吸收的能量被反射回到远程传感器。另一部分被地球表面上的物体吸收,然后作为热能排放回大气。
可见区域
电磁光谱的可见光部分的范围为0.4微米(“μm”)(较短波长,较高频率)至0.7μm(较长波长,较低频率)。这是人眼敏感的光的频率范围。每个物体反射,吸收和传播电磁光谱的可见部分中的电磁能量以及其他不可见部分。我将完全通过物体的电磁能量称为透射率。我们的眼睛接收到从物体反射回来的可见光。
从物体反射回来的三种颜色红光、蓝光、绿光是主要的三种基色。基色是不能通过其它颜色混合出来的。当基色从物体上反射回来混合在一起形成了中间色。洋红色是反射的红色和蓝色的组合,青色是反射的蓝色和绿色的组合,以及反射的红色和绿色的组成了黄色。
彩色胶片通过使用过滤掉各种颜色的染料层产生颜色。吸收基色的三种颜色,称为减色基色,是品红色,青色和黄色。洋红色吸收绿色,并反射红色和蓝色,青色吸收红色,反射蓝色和绿色,黄色吸收蓝色,并反射红色和绿色。所有颜色的吸收会产生黑色,如果没有颜色被吸收,则胶片会产生白色。
红外区域
不可见的红外光谱区域位于可见光和电磁光谱的微波部分之间。红外区域覆盖从0.7μm到14μm的波长范围。这种宽范围的红外波长进一步细分为两个较小的红外区域,在两个区域,它们表现出非常不同的特征。最接近可见光的红外区域包含两个标记为近红外线和短波红外线的较小波段,波长范围分别为0.7μm至1.1μm,1.1μm至3.0μm。这些红外区域表现出许多与可见光相同的光学特性。太阳是物体上反射红外辐射的主要来源。用于在可见光谱中捕获图像的相机可以通过使用特殊的红外胶片捕获近红外区域的图像。
具有3.0μm至14.0μm范围的较长波长的另一个红外区域分别由两个较小的带标记为中波红外和长波红外,其波长分别为3.0μm至5.0μm和5.0μm至14.0μm。物体产生和发射热红外辐射,因此这些物体可以在夜间被检测到,因为它们不依赖于来自太阳的反射红外辐射。远程传感器通过该波段来测量物体的温度。
植物与电磁辐射的相互作用
叶结构
叶片的结构如下图所示。角质层是覆盖叶子表面的表皮细胞的薄蜡层。微小的细胞表皮细胞被称为气孔。气孔被细胞包围保护起来,以控制气孔打开或关闭。保卫细胞调节叶片的水分蒸发,并控制叶片和大气之间的气体交换。
叶的内层由叶肉组织的两个区域组成。这是大多数光合作用发生的地方。栅栏叶肉位于上表皮下方。这些细胞是细长的,排列成行并含有大部分叶的叶绿体。大多数植物的叶绿体含有颜料和两种不同的叶绿素。叶绿素a最丰富,呈蓝绿色。叶绿素b呈黄绿色,吸收光,然后转移到叶绿素a。叶绿体内的颜料分子也吸收光能并将能量转移到叶绿素上。海绵叶肉是由松散排列和不规则形状的细胞组成的叶下部内部。这些细胞含有叶绿体并被空气空间包围。
光谱响应
叶绿素主要吸收紫色光,分解出来主要是蓝色和红色波长。绿光不容易被吸收并被反射,从而赋予叶子绿色的外观。叶肉的内部细胞壁结构引起近红外辐射的高反射率。叶绿素对近红外辐射是透明的。被称为红色边缘的反射能量刚好超过可见光的红色区域进入近红外区域的急剧增加。下图显示了位于0.7μm波长附近的这种尖锐的反射增加。红色边缘的位置在叶子的整个生命周期中不是静止的。当叶片成熟时,叶绿素将在可见红色区域吸收略长的波长。这种变化将下图所示的红色边缘向右移动,称为红移(Campbell,1996)。
环境压力因素如干旱,疾病,杂草胁迫,昆虫损伤等对植物造成胁迫或伤害。这种胁迫会引起植物的生理变化。受胁迫植物的光谱反射率在同一生长阶段将与正常植物不同。生理变化的一个例子是由于褪绿引起的植物叶子颜色的变化。褪绿的黄色是由叶绿素的破坏引起的。反射的绿色会减少,反射的红色会增加。遥感设备观测到的不同光谱响应与植物实际情况的相关性对于准确地解释和鉴定作物损伤和胁迫至关重要。
传感器类型
大多数远程传感器被用来测量和记录来自物体的反射辐射的幅度和频率。然后对来自测量对象的记录的频谱数据进行比较,再与已知对象的频谱位置进行匹配,从而实现对地面上的物体进行识别和分类。飞机和卫星的遥感使用成像传感器,用以测量被监视物体的反射能量,这些成像传感器分为主动传感器和无源传感器两大类。被动传感器只监测自然的太阳光反射光或物体的电磁能,无源传感器是当前主流的传感器。主动图像传感器提供自己的光或电磁能量,它们被传输到物体上,然后再反射回传感器,最常见的主动传感器就是雷达。天空中的云层通常会阻挡被动传感器从地面接收反射能量,但雷达系统可以穿透云层。
早期的遥感历史记录由照相机拍摄的出来的胶片摄影图像组成。由相机接收的反射光通过与胶片上的化学乳剂反应来曝光胶片以产生模拟图像。所产生的图像是固定的,除非被转换为电子数字格式,否则不会受到过多的操纵(即现在的PS)。数字图像就不一样了,它优于模拟胶片图像,因为计算机可以在计算机屏幕上存储,处理,增强,分析和渲染图像。
数据字图像是把图像压缩成数字进行表达的图像,图像由数字组成,它可以表示图像中的图像属性,例如亮度,颜色或辐射能量频率波长,以及图像中的每个点或图像元素的位置。我们把计算机屏幕上能表达的最小尺寸的图片元素称为像素。数字图像由下图所示的行和列排列的像素组成。
解析度(分辩率)
远程传感器测量物体的差异和变化,有四个主要分辨率,影响远程传感器的准确性和实用性。
空间分辨率描述了传感器识别图像上图案的最小尺寸细节的能力。它表示可以从图像中分辨出图案或者物体之间的距离,它的单位通常是米。
光谱分辨率是传感器响应特定频率范围的灵敏度。覆盖的频率范围通常不仅包括可见光,还包括不可见光和电磁辐射。传感器能够检测和测量的离散频率范围称为频带(波段)。地面上的特征如水和植被可以通过反射的不同波长进行识别。所使用的传感器必须能够检测这些波长,以便看到这些以及其他特征。
辐射分辨率通常称为对比度。它描述了传感器测量物体的信号强度或亮度的能力。传感器对于与其周围环境相比较亮度越敏感,可以检测和识别的物体越小。
时间分辨率是在相同位置拍摄相同对象的图像之间经过的时间。传感器能够更高频次地返回到确切的具体位置,时间分辨率越大。随着时间的推移,几个观察结果揭示了观察对象的变化和变化。对于卫星系统,时间分辨率被描述为重访周期,它指的是卫星在后续轨道上返回相同区域所花费的时间。
图像处理
一旦获得了原始的遥感数字数据,则将其处理成可用的信息。模拟胶片在暗室中化学处理,而数字图像则是通过计算机处理完成。处理的数字数据涉及更改数据以纠正某些类型的失真。每当数据纠正了某一种情况的失真,则可能导致其它方面的产生失真。对遥感数据的变化涉及两个主要操作:预处理和后处理。
预处理:
遥感图像的预处理步骤通常在后处理增强以及从图像提取和分析信息之前执行。通常,数据提供者将在将数据交付给客户或用户之前对图像数据进行预处理。图像数据的预处理通常包括辐射校正和几何校正。
辐射校正是指对原始图像数据进行由于传感器校准或传感器故障问题而导致失真的地面物体的亮度值进行校正。图像的失真是由于不断变化的大气层引起的反射电磁光能散射引起的。这是传感器校准误差的一个来源。
几何校正是指对校正图像数据中的图像元素的位置坐标与地面上的实际位置坐标之间的不准确度。几何校正包括了几种类型:系统,精度和地形校正。
系统校正使用诸如由全球定位系统提供的像素元件的地理参考点,其校正精度通常取决于全球定位系统给出的位置精度。
飞机平台系统不稳定性如下图所示:
预处理校正可消除运动失真,如下图所示:
精度校正采用地面控制点的方式,具有精确的预定经度和纬度地理位置的地面控制点通常用于测量图像元素的位置误差。可以通过几种数学模型来估算地面控制点与每个像素的实际位置的距离。
地形校正类似于精度校正,除了经度和纬度之外,还引入第三维高度参考地面控制点以校正地形引起的失真。这个过程也被称为正校正或矫正。例如,下图中高层建筑似乎偏离中心点,而相机镜头正下方的建筑物,只有屋顶才是可见的。
后处理:
数字图像后处理程序包括图像增强,图像分类和变化检测,这些计算机化的处理方法有利于提高图像场景质量,并有助于数据解释。
图像增强技术包括对比度拉伸,空间滤波和比值。
对比度拉伸改变分配给图像中每个像素的数字编号的分布和范围。它通常是为了强调图像中人眼难以单独完成观察的细节。
空间滤波涉及使用称为滤波器的算法来强调或者使用图像上的某个特定的数字范围来强调亮度。高通滤波用于改善图像边缘细节,低通滤波用于平滑图像并降低图像噪声。
比值是通过计算一个波段的数字数值除以另一个波段的数字数值获得(最常见的如我们的NDVI),可以重新调整比值范围以突出显示某些图像特征。
图像分类将像素分成类或目录。图像分类过程可以分成监督类和非监督类。
非监督图像分类是基于计算机的系统,它把来自若干光谱带的像素数字数值的像素分配给可统计可分离的集。
所得到的结果图案集可以分配不同的颜色或符号进行查看以产生新的图案集地图。但所得到的地图可能不一定对应于用户感兴趣的地面特征。
监督分类是一个更全面的程序,它使用经验丰富的人物图像分析人员识别和将像素分组给用户感兴趣的类和目录。分析人员在称为培训地点的图像上挑选了几个同质像素图案样本,分析人员通过实际访问地面位置和进行现场观察(地面实况)或使用过去的经验和技能来识别这些场所,然后使用统计处理技术将训练场外的剩余像素与培训场地相匹配。
变化检测是将在不同日期拍摄的相同位置上的两个图像彼此进行比较以测量物理形状,位置或光谱性质的任何变化的过程。然后产生仅显示第一和第二图像之间的变化的第三图像。变更检测适用于计算机自动化分析,像素数字数值在每个频带内被逐个像素比较。结合人力分析师的经验和知识来解释图像变化,计算机分析是最有用的。
成本效益分析
精准耕作
遥感只是被称为精密农业的更大型综合技术的一个组成部分,精准农业仍然是一种非常有限的经济成功的新兴技术。在农业综合利用和遥感应用广泛应用之前,精准农业将首先要成为经济管理体系。新农业技术的早期采用者,将在精准农业获得最多的切实利益(Cochrane,1979)。
收益
精准农业净利润的增长来自收益增长,如相同的投入有更多的产出或者是能减少投入以保证有同样较好的产出。
Lowenberg-DeBoar和Swinton(1997)查阅了17篇发表的精准农业经济研究,以试图回答精准农业是否比全田农业更有利可图的问题。他们发现,其中五项研究表明精准农业是不具盈利能力,有六项研究表明是有利可图,还有六项研究报告表明其盈利能力是混合或不确定的。在这些研究中存在几个问题。由于各种不同的假设和成本核算方法,这些研究并不十分具有可比性。其中十二项研究使用实际作物产量,而其余五项研究则使用模拟产量。考虑真实成本,假设氮反应和高产品价值是Lowenberg-DeBoar在收益研究组中引用的三个重要因素。
在真实成本下,省略了收集和分析土壤样品,地图制作和输入应用成本等成本。如果氮不是限制因素,假定作物产量将按假设的氮反应达到目标产量。四个收益性研究并没有产生任何数据来证明这一假设。
六项收益性研究中其中两项,高产品价值是一个因素。所有没有结果和没有收益的研究都是低价值的粮食作物。
这些研究都没有尝试或考虑到精确放置和减少使用农药的环境成本和收益。
有人认为增加技术会自动增加污染。然而污染不是技术和投入的高水平的结果,而是这些效率低下的结果。这些投入产生了在生产过程中产生的副产物和废料(Khanna等,1996)。
农药对环境的污染还没有直接由农民承担。农村和城市的所有纳税人仍然在消除公共用水中农药化学品造成的成本流失。
风险和不确定性
Lowenberg-DeBoar和Aghib(1997)确定,使用网格或土壤类型管理的磷(“P”)和钾(“K”)的精确应用与整个农地管理相比并没有显着增加净利润。数据来自位于印第安纳州东北部,俄亥俄西北部和南密歇根州的六个农场。平均每英亩净回报为146.93美元,整体管理费用为136.99美元,网格土壤抽样管理为136.99美元,土地类型管理区域为1477.80美元。
该研究还发现,虽然P和K的精确应用并没有显着增加净利润,但通过减少每种作物管理的净利润变动,确实降低了利润效益差的风险。
三种管理类型的每英亩净利润的变化是显着的。例如:
全农地管理的利润差距为276.93美元,从最低限度为35.15美元到最高为312.08美元。
网格化管理的利润差距为209.80美元,从最低限额为65.14美元,最高为274.94美元。
利用土地类型管理的利润差距为180.48美元,从最低限额为57.23美元上涨至最高237.71美元。
使用土壤类型管理的精准农业在全田或格栅类型管理方面只显示出非常轻微的利润增长。这项研究表明,农民使用精准农业的最大收益将是降低利润的风险,以保证其收益的平均和稳定性。
遥感经济学
遥感不会是精准农业收益性的常用技术。如果农民不会为其作物种植业务增加价值,农民就不愿意支付遥感影像。遥感可以是精确耕作的一个非常昂贵的组成部分。遥感图像的成本很少,除非它成为精确农业决策支持系统的一部分。以下是来自专门从事农业图像和决策系统的数据提供者的遥感影像成本的一些例子。
卫星图像成本
许多卫星公司通常不会直接向零售客户传送遥感影像。图像通过授权零售商销售,这些零售商将拍摄卫星图像并执行后处理步骤,使分类图像对客户更有用。例如,加拿大的Prairie Geomatics公司将创建印度IRS-1D,法国SPOT或美国Landsat卫星照片的NDVI植被图,每英亩约47澳分。
空中图像成本
商业航空图像的成本往往比卫星图像更高。分辨率为2米的多光谱分类图像可从内布拉斯加州的一家公司DTN获得,每英亩约75澳分。DTN宣传从图像采集到客户交付只需48小时的周期。
农民们正在寻找廉价的方法来利用飞机平台,如下图所示的动力降落伞来获取航空图像。
以下两个图片则是从可用的红色和近红外波段的手持式相机拍摄的动力降落伞。
结论
遥感具有悠久的历史,是军事应用的有用工具。冷战的结束使得国防承包商寻求和促进民用遥感技术。农业被视为遥感数据提供者的另一个市场。
遥感传感器收集从植物和土壤表面反射的能量的数据。遥感技术中使用的物理学非常复杂。农场经营者将依靠专业工程师和精密农业顾问,将原始图像数据处理为可用信息,从而进行管理决策。有丰富的遥感技术可用于测量植物和土壤的变化。此外,缺乏关于植物状况变化原因的信息,管理解决方案需要管理变化以改善作物生产。缺乏解决这些变化的问题所需的知识,限制了精准农业管理决策支持系统的发展。遥感只是称为精密农业的新兴技术的一个组成部分。精准农业还没有发展成为农业的实用和高收益的管理手段。
手机扫一扫
分享这则新闻