第二节 基本的信号结构及准确率
一、基本的信号结构
一般民用GPS使用的是GPS系统的L1载波,频率为1575.42 MHz。在这个载波频率上面以调相方式加载了两种不同的伪随机噪声码:C/A码和P码。C/A码是用于民用的测距码,码长为1023个码元,即1023次从数字零到数字1的跳动,这1023个码元每秒重复1000次,即1.023MHz, 或每一百万分之一秒跳动一次。P码是军用码,码长非常长,码速为10.23MHz,即每千万分之一秒跳动一次。
由于GPS接收机通过对比码元的跳动来计算从卫星到接收机的时间,然后再转换成距离,显而易见,P码的时间精度高了10倍,距离精度也就高了10倍:现代信号处理技术计算码元跳动的时间精度是码宽的百分之一,一百万分之一秒折合出来的距离是300米,它的百分之一就是3米。而P码的精度是这个数值的十分之一,即0.3米。换句话说,在计算某个卫星距离接收机的实际距离的时候,C/A码的理论精度是3米。
接收机“知道”了自己与卫星的距离,并不能计算出自己的位置,因为它不知道卫星在发射电波时的位置,因此在卫星载波上面,还加载了一个50Hz的导航电文,这个导航电文包括了:卫星的轨道参数、时钟参数、轨道修正参数、大气对GPS信号折射的修正值等等。GPS接收机就是通过这些参数计算出某一时刻某颗卫星在空间中的位置,然后再确定自己与卫星的距离,然后再计算自己的实际位置。导航电文总长1500比特,在50Hz发送的情况下,每一个循环周期是30秒。
可能大家觉得这个比较枯燥,可这正是隐藏在各个GPS技术参数后面的无数个“为什么”之一。大家比较一下GARMIN和MAGELLAN的各个型号GPS接收机的技术参数,就会发现:所有型号的的GPS接收机的冷启动时间(即GPS对卫星及自己所在地一无所知)都是45秒左右,不是厂商懒不想改进GPS性能,而是已经快到技术极限啦:45秒里面的30秒是用来接收导航电文的,剩下15秒钟是计算接收机位置的。
如果你看到某款GPS接收机标称冷启动时间是30秒,赶紧走开不要再看第二眼:厂家连这个数据都敢拿出来骗你,他们的接收机的定位数据你还敢用吗?当然GPS系统是不断在改进的,也许将来的导航电文用一秒钟就发过来了,不过现在的数据还是需要30秒才能发过来。
其实每个GPS的技术参数都是有学问的,不过限于本文篇幅及技术复杂性,不能一一介绍。最根本的原因是我现学现卖,还没有钻研到那么深呢。呵呵。不过我不是专业搞这个的,只是在使用GPS的时候爱问个为什么,然后去查资料找答案,请大家不要用刁钻古怪的问题难为我,我还想省出时间去爬山以及自制地图呢,嘻嘻。
还有一个问题是关于GPS接收机算方向和速度的:大家都知道一般GPS接收机每秒钟计算一次位置,把前一秒钟的位置和这一秒钟的位置比较,接收机就可以算出自己的前进方向和速度,对吧?
错!实际上GPS接收机在计算前进速度的时候,用的是多普勒效应:在扣除卫星相对于接收机移动的多普勒效应以后,多出来的部分就是接收机移动的部分了,把这部分进行计算,就可以算出接收机的前进速度了。这种计算方法要比直接计算每秒钟的前进速度准,准确程度是每小时0.5公里,想想一般人散步的速度还有每小时三公里以上,不由得不佩服那些研究这个的科学家。不信你自己可以作个试验:在走路或开车的时候走一些迷惑GPS的蛇行路线或8字形路线,看看GPS的速度显示是否连续并准确,一般这种情况下GPS的方向显示会略有延迟,因为它每一秒钟才算一次,而且方向的计算是要和前几秒钟的方向进行加权平均。
二、准确率
刚才咱们讲的是在“完美”的世界里面的GPS原理,现在到了现实中这个“不完美”的世界,问题就来了,有很多种因素会影响到GPS的准确率:
以下是一个GPS误差引入简表:
n 卫星时钟误差:0-1.5米
n 卫星轨道误差:1-5米
n 电离层引入的误差:0-30米
n 大气层引入的误差:0-30米
n 接收机本身的噪音:0-10米
n 多路反射:0-1米
总定位误差:大约28米
大家先别急着砸自己的GPS接收机,等我把话说完:这些误差这是告诉你一个最好和最坏情况下的误差范围,在现实世界中,最好的情况不会同时发生,最坏的情况也不会同时发生,而且科学家一直在致力于消除这些误差,所以你用的GPS还没有这么坏,呵呵。
大家可以看出,主要GPS定位误差来自于电离层和大气层,是因为电离层中的气体分子和大气层中的水蒸汽分子会折射GPS的微波信号,使其在从卫星到接收机的路线中会稍微弯曲一下,导致接收机把弯曲的路径来当作直线路径,从而引入误差。这种现象在微波信号斜斜地穿越电离层和大气层时更明显,因为微波信号在其中穿越的时间和距离更长。
不过在卫星的导航电文中,已经包含了大气层的修正参数,能够消除50%到70%的误差。
共4页: 上一页 [1] [2] 3 [4] 下一页
|