gps

PPP – Prosto, Precyzyjnie, Przystępnie?

Pomiar w centymetrowej dokładności za pomocą odbiornika satelitarnego? Dzięki RTK to od lat codzienność choćby dla geodetów. Ale technologia ta ma kilka zasadniczych wad, przez które wielu użytkowników z coraz większą nadzieją patrzy na inny trzyliterowy skrót – PPP.

Dokładność amatorskiego odbiornika satelitarnego wynosi nie więcej niż kilka metrów i dużo lepsza nie będzie – takie są bezwzględne prawa fizyki. Żeby wyznaczyć nasze współrzędne, instrument musi wyliczyć odległości do satelitów GPS (lub GLONASS, Galileo czy BeiDou). Ograniczeniem w rozwoju sprzętu amatorskiego jest to, że odległości te są wyznaczane na podstawie odczytu wiadomości nawigacyjnych nadawanych przez owe satelity.

By uzyskać wyższą dokładność, trzeba mocniej „wgryźć” się w sygnał satelitarny – nie w kolejne wiadomości, ale w fale sygnału radiowego (które mają długość około 20 cm) lub nawet w części tych fal. Brzmi bardzo prosto, więc gdzie jest haczyk? Ano, w obliczeniu nieoznaczoności, czyli liczby fal znajdujących się pomiędzy odbiornikiem a satelitą. Okazuje się bowiem, że ich wyznaczenie w przypadku satelitów orbitujących z ogromną prędkością ponad 20 tys. km nad Ziemią jest bardzo trudne.

W przypadku wspomnianej na wstępie technologii RTK (Real Time Kinematic) obliczanie owej nieoznaczoności jest wspomagane poprzez poprawki, które generuje i rozsyła do użytkowników tzw. stacja bazowa lub referencyjna, czyli specjalny odbiornik znajdujący się w miejscu o bardzo dokładnie określonych współrzędnych. Korzystając z tych korekt i z sygnałów z minimum 5 satelitów nawigacyjnych (Tak! Pięciu, a nie jak w amatorskich instrumentach czterech), odbiornik RTK powinien zacząć pomiar w centymetrowej dokładności już po kilku-kilkunastu sekundach od włączenia. Brzmi chyba zbyt prosto, by było prawdziwe? Owszem, o czym można się przekonać chociażby z lektury geodezyjnych forów dyskusyjnych, gdzie narzekań na RTK nie brakuje.

Nie zawsze RTK

1. Nie zawsze w zasięgu – Korekty RTK dostarczane są do odbiornika najczęściej przez sieć komórkową. O ile w mieście nie ma z nią problemu, to – jak zapewne przekonał się już każdy z nas – brak zasięgu na odludziu nie jest niczym niezwykłym. A nawet jak sygnał jest, to szybkość transmisji danych może pozostawiać wiele do życzenia.

2. Nie zawsze w pobliżu – Korekty RTK zapewniają centymetrową dokładność pomiaru, ale tylko w promieniu kilkudziesięciu kilometrów od stacji referencyjnej. Teoretycznie to nie kłopot, bo w Polsce działa już kilkaset takich stacji rozmieszczonych we wszystkich regionach kraju. W praktyce pojawia się jednak kilka problemów. Po pierwsze, stacje te należą do różnych sieci, a poszczególne sieci nie zawsze obejmują cały kraj. Z kolei korzystanie z kilku sieci to dodatkowe wydatki. Po drugie, nawet jak mamy stację w pobliżu, to może ona ulec awarii. Rzut oka na stronę ASG-EUPOS (największej krajowej sieci) pokazuje, że wcale nie zdarza się to rzadko. Geodeta może więc wówczas tylko siąść i płakać lub wystawić własną stację referencyjną. Po trzecie, dostęp do poprawek robi się kłopotliwy, gdy chcemy mierzyć w różnych krajach, w tym w regionach odludnych czy na morzu, gdzie stacji referencyjnych nie ma i nie będzie.

3. Nie zawsze w cenie – Koszt budowy wspomnianego ASG-EUPOS wyniósł 28 mln zł, do tego trzeba doliczyć kolejne miliony wydane na utrzymanie i modernizację systemu. Dobrze pokazuje to, że pokrycie większego obszaru korektami RTK jest po prostu kosztowe, a koszt ten oczywiście na końcu ponosi użytkownik. To jedna z głównych przyczyn, dla których technologia ta jest wykorzystywana głównie przez profesjonalistów.

Czemu PPP?

Wszystkich tych wad pozbawiona jest metoda PPP (Precise Point Positioning) czasu rzeczywistego:

1. Zawsze w pobliżu – Clue technologii PPP polega na tym, że korekty nie dotyczą tu – jak w przypadku RTK – lokalnych obserwacji obowiązujących wyłącznie w promieniu kilkudziesięciu kilometrów, ale błędów orbit poszczególnych satelitów nawigacyjnych oraz ich zegarów. Są to więc dane, które mogą być wykorzystane przez odbiornik znajdujący się w dowolnym zakątku świata, nawet na środku oceanu. Informacje o precyzyjnych orbitach i działaniu satelitarnych zegarów atomowych generowane są przez znacznie rzadszą niż w przypadku RTK sieć stacji referencyjnych (mówiąc precyzyjniej: w przypadku PPP są to stacje śledzące, bo ich głównym zadaniem jest śledzenie orbit satelitów). Mimo to i tak jest to system o dużej redundancji, bo każdego satelitę obserwuje w danej chwili kilka stacji. Krótko mówiąc, nawet jeśli któraś z nich ulegnie awarii, nie wpłynie to na dostępność usługi czy dokładność wyznaczania pozycji.

↓ Schemat działania technologii PPP czasu rzeczywistego: obserwacje satelitów GNSS ze stacji naziemnych wysyłane są przez centrum obliczeniowe do satelitów geostacjonarnych, skąd trafiają do użytkowników końcowych. Mogą też do nich trafić przez sieć komórkową (źródło: NovAtel)

2. (prawie) Zawsze w zasięgu – Fakt, że w przypadku technologii PPP nadawana jest jedna uniwersalna korekta, sprawia, iż można ją dostarczać do odbiorników za pomocą satelitów geostacjonarnych. Jeśli operator wynajmie ich kilka, może łatwo objąć zasięgiem cały świat. W takim przypadku nie ma więc mowy o tym, że stracimy zasięg na odludziu. Oczywiście i ta metoda komunikacji ma swoje wady. Przede wszystkim tę, że w lesie, górach czy wśród gęstej zabudowy satelity geostacjonarne mogą stać się niewidoczne dla odbiornika, a wówczas nici z dokładnego pomiaru. Warto jednak podkreślić, że satelity geostacjonarne są z reguły wysoko na niebie, a poza tym niektórzy dostawcy korekt PPP inwestują w dodatkowe aparaty, by każdy użytkownik miał w swoim zasięgu przynajmniej dwa źródła korekt. Co więcej, część usługodawców zapewnia alternatywny dostęp do danych również przez sieć komórkową.

3. (chyba) Zawsze w cenie – Pokrywająca całą Polskę sieć ASG-EUPOS ma ponad 100 stacji referencyjnych. To mniej więcej tyle samo co RTX – sieć Trimble’a obejmującą zasięgiem cały świat! Krótko mówiąc: koszt budowy systemu dostarczania korekt PPP w przeliczeniu na powierzchnię jest znacznie niższy niż w przypadku RTK. Czy przekłada się to na niższą cenę usług? Niestety, trudno powiedzieć, bo dostawcy korekt PPP generalnie nie ujawniają publicznie swoich cenników. Wyjątkiem jest Trimble, którego najdokładniejsza usługa RTX (CenterPoint) kosztuje 2 tys. euro. Dla porównania za ASG-EUPOS zapłacimy 1500 zł, oferta tej amerykańskiej firmy może więc wydawać się bardzo droga. Pamiętajmy jednak, że RTX jest usługą globalną, a abonament za ASG-EUPOS w porównaniu do zagranicznych odpowiedników jest bardzo tani. Żeby nie być gołosłownym: roczny dostęp do niemieckiej usługi RTK wynosi właśnie 2 tys. euro.

Dodajmy, że dostęp do korekt PPP bywa oferowany na ograniczonych warunkach za darmo. Na przykład użytkownicy niektórych odbiorników Trimble’a mogą korzystać bezpłatnie z RTX, gdy urwie im się połączenie z korektami RTK. Z kolei właściciele niektórych odbiorników NavCom mają dostęp do korekt StarFire za darmo.

Tak czy inaczej – zbudowanie własnej sieci PPP jest w zasięgu finansowym nie tylko dużych korporacji. Oznacza to, że powstawanie nowych tego typu usług jest tylko kwestią czasu, a to z kolei musi przełożyć się na obniżki cen. Plotki chodzą, że za około rok start własnej usługi PPP ma nawet ogłosić pewna chińska firma.

↓ Zasięg korekt usług TerraStar

↓ Zasięg korekt usług Trimble RTX przez sygnał satelitarny. W przypadku korzystania z korekt przez internet, są one dostępne wszędzie tam, gdzie jest sieć.

↓ Zasięg korekt OmniStar oraz rozmieszczenie stacji śledzących

Nie dla niecierpliwych

Żeby ten artykuł nie zabrzmiał jak pean na cześć PPP, nadmieńmy, że technologia ta ma jedną zasadniczą wadę, której na imię konwergencja. Nie wchodząc zbytnio w szczegóły: po włączeniu odbiornika i nawiązaniu połączenia z usługą, musi nastąpić inicjalizacja dokładnego pomiaru, która trwa nawet kilkadziesiąt minut! Dlaczego tak długo? Ponieważ korekty PPP – jak już wspomnieliśmy – zawierają tylko informacje o orbitach satelitów i zegarach, a nie posiadają takich ważnych danych, jak choćby opóźnienie jonosferyczne, które jest istotną składową błędu pomiaru satelitarnego. Odbiornik musi więc wyliczyć te wartości sam, co jest niestety czasochłonne. W szczególną cierpliwość musimy się uzbroić, gdy mamy do czynienia z niekorzystną geometrią satelitów lub z tzw. efektem wielodrożności (występującym np. w miastach). Wówczas konwergencja może zająć nawet kilka godzin! Dla wielu użytkowników dyskwalifikuje to PPP jako sensowną technologię pomiaru.

Na szczęście naukowcy od lat głowią się, jak rozwiązać problem długiej konwergencji… i mają na tym polu całkiem niezłe osiągnięcia. Na przykład w usłudze StarFire inicjalizację skrócono do 5 min w przypadku, gdy stoimy w miejscu o znanych współrzędnych. Z kolei wiosną tego roku Trimble ogłosił wprowadzenie usługi CenterPoint RTX, w przypadku której konwergencja jest krótsza niż 5 minut, choć tylko w wybranych regionach świata (w tym w południowo-zachodniej Polsce). Dla pozostałych terenów jest to zaś kwadrans. To wciąż znacznie dłużej niż kilkanaście sekund w przypadku RTK, ale w wielu zastosowaniach będzie to już akceptowalne. Dodajmy, że Trimble rozwinął również technologię znacznie przyspieszającą reinicjalizację pomiaru w przypadku utraty łączności z korektami PPP. Przechodząc przez np. wysoką zabudowę nie musimy więc ponownie czekać kwadransa, by powrócić do pracy.

System Usługa Deklarowana dokładność Wspierane konstelacje Właściciel
OmniStar XP 15 cm GPS Trimble
G2 <10 cm GPS, GLONASS
RTX ViewPoint <1 m GPS, GLONASS, BeiDou Trimble
RangePoint <50 cm GPS, GLONASS, BeiDou
FieldPoint <20 cm GPS, GLONASS, BeiDou
CenterPoint <4 cm GPS, GLONASS, BeiDou
Atlas H100 1 m GPS, GLONASS, BeiDou Hemisphere
H30 30 cm GPS, GLONASS, BeiDou
H10 8 cm GPS, GLONASS, BeiDou
StarFire SF2 5 cm GPS, GLONASS John Deere
C-Nav C1 5 cm GPS Oceaneering International
Veripos C2 5 cm GPS, GLONASS Hexagon
Apex 10-20 cm GPS
Apex2 5 cm GPS, GLONASS
Ultra 15 cm GPS
Ultra2 8 cm GPS, GLONASS
TerraStar TerraStar D 10 cm GPS, GLONASS Hexagon
TerraStar C 2-3 cm GPS, GLONASS

Dostępne sieci PPP czasu rzeczywistego [źródło: GSA]

Wydany w tym roku „Raport użytkownika technologii GNSS” głosi, że w najbliższych latach czas konwergencji będzie ulegał dalszemu skróceniu. Ma to być zasługa rosnącej możliwości obliczeniowej odbiorników oraz wykorzystaniu dodatkowych systemów nawigacyjnych i ich nowych częstotliwości.

Przełomem ma być oddanie do użytku usługi komercyjnej systemu Galileo, której pełna operacyjność będzie ogłoszona w 2020 roku. W tym przypadku korekty PPP będą nadawane przez wszystkie satelity tego systemu i mają zapewnić dokładność pozycjonowania porównywalną z technologią RTK. Niestety, na razie nie jest znany cennik tej usługi.

Komu? Komu?

Jeśli chcemy zacząć korzystać z technologii PPP, musimy mieć kompatybilny sprzęt. Korekty nadawane są bowiem na częstotliwości innej niż standardowe sygnały nawigacyjne. Na szczęście obecnie zdecydowana większość dostawców profesjonalnych i półprofesjonalnych odbiorników satelitarnych oferuje sprzęt przystosowany tego typu korekt, który cenowo nie odstaje od instrumentów korzystających wyłącznie z RTK. Co ciekawe, zaprezentowane pod koniec tego roku przez Trimble’a rozwiązanie Catalyst sprawia, że z PPP mogą korzystać nawet właściciele smartfonów. Jedyne, czego potrzebują, to dokupić specjalną, niewielką antenę oraz wybrać odpowiedni abonament.

Jak to jest możliwie? Wszystko przez to, że Catalyst jest tzw. odbiornikiem software’owym. Przy korzystaniu z takiego produktu do zaawansowanego przetwarzania sygnałów satelitarnych nie potrzebujemy specjalnego czipu, wystarczy odpowiednie oprogramowanie. Konkurencja z pewnością nie śpi i wkrótce zaoferuje podobne rozwiązania.

↓ By korzystać z PPP w smartfonie przez rozwiązanie Catalyst, wystarczy podłączyć urządzenie do specjalnej, niewielkiej anteny (fot. materiały prasowe Trimble)

Biorąc pod uwagę wady i zalety technologii PPP, dla kogo nadaje się ona najlepiej? Lektura stron poszczególnych usługodawców wskazuje, że ważną grupą klientów jest żegluga, hydrografia, a także biznesy typu off-shore, czyli np. operatorzy platform wiertniczych bądź morskich farm wiatrowych. Te zastosowania nie dziwią, bo przecież trudno na morzu założyć stację referencyjną, a z drugiej strony przy na ogół wysokiej wartości inżynierskich projektów prowadzonych „na falach”, wysoka precyzja pomiaru ma duże znaczenie.

Usługi PPP oferowane są również farmerom, którzy wykorzystują je w coraz popularniejszym rolnictwie precyzyjnym, a więc do skuteczniejszego nawożenia czy innych zabiegów na polu. Co ciekawe, jednym z właścicieli takiego serwisu jest firma John Deere – bodaj największy na świecie producent sprzętu rolniczego. Z jego oferty zapewne najchętniej korzystają właściciele rozległych upraw zlokalizowanych z dala od miast, gdzie w okolicy nie ma żadnych stacji referencyjnych.

↓ Z usługi StarFire firmy Jonh Deere korzystają głównie rolnicy

Korekty PPP są wykorzystywane również w mobilnych systemach kartowania czy skanowania. Świetnie się do tego nadają, bo takie pojazdy – co oczywiste – często zmieniają lokalizację, a nawet jeżdżą po różnych krajach. Korzystanie z jednej usługi PPP zamiast korekt RTK od kilku dostawców jest więc rozsądnym finansowo rozwiązaniem. Dodajmy, że dystrybutorzy tych korekt polecają je również dla geodezji, górnictwa, GIS-u, lotnictwa, a nawet badań sejsmicznych.

Różnorodne spektrum zastosowań nie zmienia faktu, że na razie technologia PPP jest znacznie mniej popularna niż RTK. Czy to się zmieni? Bardzo możliwe. Sukces zależy jednak do dwóch czynników. Po pierwsze, od znacznego skrócenia czasu konwergencji. W czasach, gdy wszyscy chcą mieć wszystko „na już”, nawet 5 minut oczekiwania na rozpoczęcie pomiarów to zdecydowanie za dużo. Jak już jednak pisaliśmy, rozwój systemów nawigacji (w szczególności wprowadzanie trzeciej częstotliwości cywilnej) oraz usprawnianie hardware’u niemal na pewno poprawi atrakcyjność usług PPP. Po drugie, muszą spaść ceny tych korekt, tak aby były one atrakcyjną alternatywą dla RTK. Jeśli plotki o chińskim serwisie PPP okażą się prawdziwe, niezłą przecenę mamy jak w banku. Podsumowując: o PPP będziemy słyszeć coraz częściej!

Uciekające współrzędne

„Przez ruchy tektoniczne trzeba będzie przesunąć Australię na mapach o blisko 2 metry” – głoszą ostatnio sensacyjne nagłówki portali na całym świecie. Ile w tym prawdy i czy podobny zabieg czeka Polskę?

Zacznijmy od małego przypomnienia lekcji geografii. Skorupa ziemska składa się z płyt tektonicznych (7 głównych i kilku pomniejszych), które poruszają się w różnych kierunkach w bardzo powolnym tempie. Rozwój technik pomiarowych pozwolił dokładnie określić kierunek i tempo ruchu poszczególnych płyt.

 Płyty tektoniczne i kierunek ich ruchu (fot. Wikipedia)

uciekajace_1

 Islandia, „most między kontynentami”, tu ponoć biegnie granica między płytami amerykańską i euroazjatycką

uciekajace_1a

Nietrudno sobie wyobrazić, że zjawisko to ma oczywisty wpływ na mapy, a konkretnie na współrzędne geograficzne prezentowanych na nich obiektów. Mówiąc w dużym uproszczeniu, gdy kontynenty się poruszają, siatka południków i równoleżników pozostaje bez zmian. Tak więc im więcej czasu minie od wyznaczenia współrzędnych, tym mniej mają one wspólnego z rzeczywistością. Tak też jest w przypadku rozdmuchanej przez media sprawy Australii, która porusza się 7,5 cm rocznie w kierunku północnym. Mówiąc inaczej, szerokość geograficzna wszystkich obiektów w tym kraju systematycznie maleje.

Po co w ogóle nam długość i szerokość?

Niejeden z czytelników pewnie sobie teraz myśli, że przecież skoro kontynenty dryfują od miliardów lat, to problem uciekających współrzędnych powinien być przynajmniej tak stary jak kartografia. Po co więc robić tyle medialnego szumu w „sprawie australijskiej”? Okazuje się, że kwestia ta dokucza nam relatywnie od niedawna, a wszystko przez wzrost popularności współrzędnych geograficznych w naszym codziennym życiu.

Ale przecież współrzędne geograficzne są wyznaczane i nanoszone na mapy od wieków – powie ktoś. Faktycznie, weźmy choćby średniowieczne mapy bazujące na „Geografii” Ptolemeusza. Tyle tylko, że są to mapy w małej skali, gdzie różnice rzędu centymetrów lub metrów nie mają żadnego znaczenia.

W XVIII wieku, najpierw we Francji, zaczęła dynamicznie rozwijać się kartografia topograficzna, gdzie pojedyncze metry zaczęły już mieć znaczenie. Jednak nawet wtedy dryft kontynentalny nie był specjalnym problemem. Wszystko przez to, że mapy topograficzne nie bazowały na współrzędnych geograficznych, ale sporządzane były w lokalnych układach współrzędnych. W ich przypadku – mówiąc obrazowo – siatka współrzędnych kartograficznych związana jest z lokalną płytą tektoniczną, a konkretnie z punktami osnowy. Dlaczego stosowano lokalne układy współrzędnych? W dużym skrócie: tak po prostu zdecydowanie łatwiej sporządzać i użytkować mapy.

 Przez wieki prezentowane na mapie współrzędne kartograficzne wyznaczane były w nawiązaniu do naziemnych punktów osnowy, np. takiej wieży triangulacyjnej. Jednak w przypadku GPS pozycja wyznaczana jest względem satelitów mknących w kosmosie z prędkością 14 tys. km/h (fot. Wikipedia/Pieter Kuiper)

uciekajace_3

Wszystko odmienił amerykański system nawigacji satelitarnej GPS. Litera „G” w tym skrócie pochodzi od „global”, z założenia system miał bowiem działać na całym świecie, musiał się więc opierać nie na lokalnym układzie współrzędnych, który siłą rzeczy musi preferować jakiś region kosztem innego, ale na układzie globalnym (konkretnie na WGS84). Tak więc z każdym rokiem układy współrzędnych związane z konkretną płytą rozjeżdżają się z WGS84. Gdy ten sumaryczny błąd zacznie zbliżać się do przeciętnego błędu GPS-a (około 3-5 metrów w dobrych warunkach pomiarowych), trzeba coś z tym fantem zrobić.

Jak to jest więc z tą Australią?

Tak właśnie stało się w przypadku antypodów. Obowiązujący tam układ współrzędnych GDA94 wprowadzono w 1994 roku i wówczas był on zgodny z WGS84. Przy ruchu australijskiej płyty tektonicznej rzędu 7,5 cm na rok po ponad 20 latach rozbieżność między układem lokalnym i globalnym wyniosła blisko 1,6 metra i w tym momencie australijskie władze postanowiły zadziałać, wprowadzając nowy układ GDA2020, który będzie obowiązywać od 1 stycznia 2017 roku.

Co ciekawe, jego parametry dobrano nieco na wyrost, tak aby zrównał się z WGS84 w 2020 roku (wtedy ta rozbieżność sięgnęłaby 1,8 m). Dodajmy, że w 2020 roku Australia wprowadzi drugi układ, który ma funkcjonować równolegle do GDA2020. Nie będzie on jednak związany z australijską płytą tektoniczną, ale określane za jego pomocą współrzędne mają być modyfikowane wraz z ruchami tektonicznymi.

Na usta ciśnie się pytanie, dlaczego zmiana zaszła już teraz? Przecież zwykłe odbiorniki GPS mierzą z dokładnością gorszą niż wspomniane 1,6 metra. Można było poczekać jeszcze kilka lat. To prawda, ale jest kilka „ale”.

Terytorium Australii zostanie wkrótce objęte regionalnymi systemami nawigacji satelitarnej, takimi jak indyjski IRNSS, japoński QZSS czy chiński BeiDou (ten ostatni jest wprawdzie globalny, ale koncentruje się na obszarze Azji Południowo-Wschodniej). W rezultacie Australijczycy będą mieli dostęp do znacznie większej liczby satelitów nawigacyjnych niż choćby Europejczycy, a to przełoży się na wyższą dokładność pomiaru. Dodajmy do tego szybką ewolucję technologii satelitarnych, która sprawia, że i bez dodatkowych sygnałów systematycznie spada błąd wyznaczania pozycji.

Co nas obchodzą antypody?

A jak przypadek australijski ma się do Europy i Polski? W 1990 roku międzynarodowe grono geodetów postanowiło przyjąć do stosowania w Europie ETRS89 (European Terrestrial Reference System 1989) – system odniesienia, w którym współrzędne są związane z płytą euroazjatycką i przez to nie zmieniają się w związku z ruchami tektonicznymi.

Założeniem ETRS89 jest związanie go z międzynarodowym ziemskim systemem odniesienia (ITRS) na 1 stycznia 1989 roku. Krótko mówiąc, od tej daty ETRS89 i ITRS (a więc i WGS84) systematycznie się rozjeżdżają, konkretnie o około 2,5 cm rocznie. Dziś ta rozbieżność wynosi 70 cm. To znacznie mniej niż w Australii, ale chociażby dla osób pracujących na bardziej dokładnych danych może to już rodzić pewne problemy. Widać to chociażby na internetowych forach, gdzie coraz częściej pojawiają się pytania o przejście między tymi systemami.

Na marginesie podkreślmy, że oczywiście ETRS89 stosowany jest również w Polsce. Konkretnie rzecz biorąc, nasze prawo zakłada stosowanie dwóch układów odniesienia – PL-ETRF89 i PL-ETRF2000. Oba są realizacją właśnie systemu ETRS89. Dla ciekawych: różnice między współrzędnymi tych układów są nieznacznie i prezentuje ja mapa poniżej.

 Różnice współrzędnych (φ i λ) na punktach sieci POLREF pomiędzy układami odniesienia PL-ETRF89 i PL-ETRF2000 (źródło: GUGiK)

uciekajace_4a

Wracając do tematu „uciekających współrzędnych”: wprawdzie 70 cm to z punktu widzenia przeciętnego użytkownika GPS niewiele, to jednak prędzej czy później problem zrobi się palący. Co z nim począć? Rozwiązań jest kilka, choć każde ma swoje wady.

Można na razie trzymać się ETRS89, a później co kilka dekad przechodzić na nowe rozwiązania. Rosnąca dokładność odbiorników sprawi jednak, że takie zmiany będziemy musieli wykonywać coraz częściej. Innym wyjściem jest przejście całego świata na WGS84, ale wtedy co jakiś czas trzeba by aktualizować współrzędne wszystkich obiektów na świecie, a to byłoby skomplikowane i mało wygodne. Specjaliści od geodezji proponują także stosowanie dynamicznego układu odniesienia. Każde współrzędne miałyby „stempel czasowy” i w zależności od daty ich wyznaczenia automatycznie dobierany byłby odpowiedni parametr transformacji, tak aby mapa prezentowała aktualne współrzędne.

Część czytelników wie zapewne, że wprawdzie dokładność amatorskich odbiorników satelitarnych wynosi kilka metrów, to znacznie droższy sprzęt geodezyjny może wycisnąć z sygnałów GPS centymetry, a nawet milimetry. Czy jednak ta dokładność uwzględnia ruchy płyt tektonicznych?

Oczywiście! Na przykład państwowy system ASG-EUPOS, który pozwala mierzyć z centymetrową dokładnością w czasie rzeczywistym, nie dostarcza współrzędnych – tak jak GPS – w układzie WGS84, ale w ETRF2000 (jak wspomnieliśmy, to jedna z realizacji ETRS89). Użytkownicy tego rozwiązania nie muszą się więc przejmować skomplikowaną geologią naszej planety.

 Na stronie ASG-EUPOS można śledzić zmiany współrzędnych wszystkich stacji referencyjnych tego systemu w układzie ETRF2000

uciekajace_5

Wstrząsające ruchy

A skoro o geologii mowa, warto nieco skomplikować omawiany tu problem i dodać, że nawet w obrębie jednej płyty tektonicznej mogą występować znaczące ruchy skorupy ziemskiej. Przykładowo, trzęsienie ziemi w Chile z 2010 roku spowodowało przesunięcia dochodzące lokalnie do 3 metrów (tyle w Polsce wynosi maksymalny dopuszczalny błąd wyznaczania współrzędnych punktów granicznych działek na terenach wiejskich). Co ciekawe, wartości te udało się wyliczyć dzięki sieci satelitarnych odbiorników referencyjnych (analogicznej do ASG-EUPOS).

 Opracowana przez Ohio State University mapa przemieszczeń związanych z trzęsieniem ziemi w Chile w 2010 r.

uciekajace_6

Niewiele mniejsze przesunięcia stwierdzono po katastrofalnym trzęsieniu, jakie w 2011 r. nawiedziło Japonię. W jego rezultacie wyspa Honsiu przesunęła się około 2,5 metra! Polska na szczęście leży w mało aktywnym sejsmicznie regionie – u nas przesunięcia współrzędnych mogą mieć tylko bardzo lokalny charakter i być związane np. z osuwiskami czy szkodami górniczymi.

Fikcyjne brytyjskie zero

Czytając o „uciekających współrzędnych”, część czytelników zastanawia się zapewne, a jak to jest z południkiem 0 w Greenwich. Czy jest on na swoim miejscu zarówno w przypadku WGS84, jak i ETRS89? Otóż, już dawno „odleciał” od słynnego londyńskiego obserwatorium, i to na sporą odległość. W układzie WGS84 południk zerowy znajduje się aż 102 metry na wschód od wymalowanej w Greenwich linii. Dla ciekawych: o powodach tej rozbieżności można przeczytać w jednym z numerów „Journal of Geodesy”.

 W Greenwich odbiorniki GPS wcale nie pokazują zera! (fot. Wikipedia/Brian Dell)

uciekajace_7

Bez dwóch zdań poruszony tu pokrótce problem „uciekających współrzędnych” będzie coraz bardziej palący. Z jednej strony rośnie dokładność wyznaczania pozycji przez amatorski sprzęt satelitarny (kto pamięta, jak jeszcze w latach 90. błąd GPS-a wynosił nawet 100 metrów?), a z drugiej strony rośnie liczba zastosowań nawigacji satelitarnej.

Co ważne, w wielu tych nowych aplikacjach od poprawnych wskazań GPS oraz od dokładności map zależy zdrowie lub życie ludzi bądź też ich majątek! Wymieńmy tu choćby coraz modniejszy temat autonomicznych samochodów. Nietrudno się domyślić, co w ich przypadku może oznaczać błąd wyznaczenia pozycji sięgający 1,8 metra!

Jak wyznaczyć pozycję w czterech ścianach, kiedy GPS nie daje rady?

Ach, gdyby tak z GPS-a można było korzystać nie tylko pod gołym niebem! O ile prostsza stałaby się nawigacja czy pomiary! Naukowcy dostrzegają tę potrzebę i od lat główkują nad metodami pozycjonowania wewnątrz budynków. Choć pomysłów mają wiele, to na horyzoncie wciąż nie widać tego jedynego, uniwersalnego rozwiązania. Co mamy na razie do wyboru?

Więcej mocy!

Na wstępie wyjaśnijmy, dlaczego GPS nie radzi sobie w czterech ścianach. Odpowiedź jest prosta – satelity GPS emitują sygnał radiowy z wysokości około 20 tys. km o mocy… nieco ponad 20 W! Czyli tyle co żarówka! To za mało, żeby przeniknąć przez dachy bądź ściany. Może w takim razie rozwiązaniem problemu jest po prostu przybliżenie źródła promieniowania mikrofalowego do użytkownika lub/i podniesienie jego mocy? Co ciekawe, właśnie na tym bazuje większość proponowanych metod wyznaczania pozycji wewnątrz budynku! Nie powinno to jednak dziwić, skoro otacza nas mnóstwo różnego rodzaju sygnałów radiowych, które – przynajmniej teoretycznie – można by wykorzystać do określania naszych współrzędnych.

Jeden z pierwszych tego typu pomysłów jest znacznie starszy niż GPS, sięga II wojny światowej i nazywa się LORAN (LOng Range Aid to Navigation). Początkowo rozwiązanie to służyło przede wszystkim do nawigowania alianckich konwojów przekraczających Atlantyk. Z zalet systemu szybko zaczęło jednak korzystać również lotnictwo, z biegiem czasu także straż przybrzeżna, a w latach 70. rozwiązanie udostępniono nawet cywilom. Nadawane przez sieć specjalnych, wysokich masztów pierwsze sygnały nawigacyjne LORAN pozwalały wyznaczać pozycję z dokładnością raptem kilku mil. Wraz z postępem technologicznym i kolejnymi wersjami systemu (m.in. LORAN-C i eLORAN) błąd spadł do 10 metrów.

Popularyzacja technologii GPS sprawiła jednak, że liczba użytkowników LORAN-a gwałtownie się kurczyła i na nic zdały się zalety tego rozwiązania, takie jak lepsza odporność na zakłócanie czy możliwość wyznaczania pozycji wewnątrz budynków, a nawet pod ziemią. Względy finansowe sprawiły, że Stany Zjednoczone rozpoczęły demontaż infrastruktury LORAN. Co ciekawe, odwrotną decyzją podjęły władze Wielkiej Brytanii i Korei Południowej. Doszły one do wniosku, że w obliczu coraz częstszych incydentów z celowym lub przypadkowym zakłócaniem sygnałów GPS, posiadanie jakiejś rezerwowej infrastruktury nawigacyjnej jest koniecznością.

Czy w takim razie eLORAN ma szansę stać się uniwersalnym rozwiązaniem do wyznaczanie pozycji wewnątrz budynków? Wątpliwe. Po pierwsze, wymagałby wprowadzenia istotnych modyfikacji w smartfonach czy tabletach. Po drugie – i to kluczowy argument – poszczególne kraje musiałyby zainwestować w kosztowną infrastrukturę nadawczą (wspomnijmy tylko, że nadajniki LORAN-C mają wysokość 190-220 metrów i moc od 100 do 4000 kW!). Dla przykładu, samo objęcie kanału La Manche tymi sygnałami (co zapewniono w 2014 roku) wymagało budowy aż 7 stacji.

Maszt systemu LORAN-C położony na niemieckiej wyspie Sylt (fot. Wikipedia/Gerd Fahrenhorst)

1a_loran

 Maszynownia jednej ze stacji nadawczych LORAN-C (fot. Wikipedia)

1b_loran

Komóreczko, powiedz przecie

A może prościej byłoby wykorzystać istniejącą infrastrukturę nadawczą, np. wszędobylskie maszty telefonii komórkowej? Osoby orientujące się w technologiach lokalizacyjnych dobrze wiedzą, że takie rozwiązanie stosowane było już w pierwszych smartfonach, które – w co być może trudno dziś uwierzyć – pozbawione były odbiornika GPS. Zasada działania jest tu prostsza niż w nawigacji satelitarnej – pozycja wyznaczana jest bowiem dzięki pomiarowi mocy sygnałów dochodzących z okolicznych masztów telefonii komórkowej. Co istotne, metoda umożliwia wyznaczanie pozycji zarówno z poziomu telefonu wyposażonego w odpowiednią aplikację (choćby Mapy Google), jak i operatora telefonii (co zresztą jest wykorzystywane choćby przy lokalizowaniu osób dzwoniących na numer alarmowy 112).

A co z dokładnością? Im więcej jest w naszym pobliżu masztów GSM, tym jest wyższa. W sprzyjających warunkach (czyli głównie w miastach) błąd takiego pomiaru może wynieść kilkadziesiąt metrów, ale na terenach o rzadkiej infrastrukturze telekomunikacyjnej rośnie nawet do kilku kilometrów. Takie wyniki eliminują więc tę metodę z wyznaczania pozycji wewnątrz budynków. Dlaczego są tak kiepskie, znacznie gorsze niż choćby w przypadku eLORAN? W dużym skrócie dlatego, że – co zabrzmi banalnie – infrastrukturę telefonii komórkowej projektowano z myślą o rozmowach telefonicznych i wymianie danych, a nie wyznaczaniu pozycji. Z czysto teoretycznego punktu widzenia nie ma jednak przeciwwskazań, by po modyfikacjach technologicznych sieci komórkowe pozwalały wskazywać pozycję z dokładnością porównywalną do GPS-a. Trudno się więc dziwić, że temat ten porusza wyobraźnię naukowców i biznesmenów, którzy co rusz informują o ciekawych koncepcjach nowych technologii lokalizacyjnych bazujących na sygnałach komórkowych.

 Typowy maszt sieci komórkowej (fot. J. Smith/Wikipedia)

2_gms

Jednym z przykładów jest system MBS (Metropolitan Beacon System) firmy NaxtNav. Metoda polega na emitowaniu przez specjalnie przystosowaną sieć LTE sygnałów podobnych do GPS-a, które dla smartfona czy tabletu są po prostu kolejnymi satelitami nawigacyjnymi. Co ciekawe, dokładność takiego rozwiązania jest znacznie lepsza w pionie niż w poziomie, a więc odwrotnie niż w nawigacji satelitarnej (wszystko dlatego, że stacje MBS położone się mniej więcej na tej samej wysokości). W rezultacie system MBS będzie się świetnie nadawał do wyznaczania piętra, na którym znajduje się dany użytkownik. Zasadniczą wadą tego rozwiązania jest jednak konieczność modyfikacji smartfonów czy tabletów, choć firma NextNav deklaruje, że byłyby one nieznaczne. Chwali się ponadto, że w porównaniu z GPS-em system MBS oferuje znacznie szybszą inicjalizację pomiaru (nawet 6 sekund) i wymaga mniejszego poboru energii. Brzmi ciekawe, ale czekamy na pierwsze poważne wdrożenia.

Szukając hot-spota

Zróbmy krótki eksperyment: sprawdź, drogi Czytelniku, ile w tym momencie Twój smartfon, tablet czy komputer widzi sieci wi-fi? O ile mieszkasz wśród gęstej zabudowy, możesz ich mieć od kilku do nawet kilkudziesięciu. Czy da się wykorzystać te sygnały radiowe w wyznaczaniu pozycji? Nie dość, że się da, to od ładnych paru lat jest to powszechnie znana technologia! Jej podstawową zaletą jest to, nie wymaga budowania specjalistycznej infrastruktury – bez problemu wykorzystuje nawet te sieci, do których nie mamy hasła. Ponadto dzięki niewielkiemu zasięgowi poszczególnych sieci wi-fi (do około 150 m) metoda ta siłą rzeczy oferuje niezłą dokładność – od kilkunastu do około 5 metrów. Błąd można jeszcze bardziej zredukować (nawet do 2 metrów), jeśli w danym budynku założymy specjalne sieci, które – podobnie jak satelity GPS – będą nadawały informacje o aktualnym, precyzyjnym czasie.

Zasadniczą wadą WPS (Wi-fi Positioning System) jest konieczność posiadania dostępu do możliwie jak najpełniejszej i jak najbardziej aktualnej bazy danych o sieciach wi-fi na świecie. Do dziś powstało ich 9 – jest więc w czym wybierać, sęk w tym, że nie zapiszemy sobie przecież takiej bazy na smartfonie (największa ma ponad miliard rekordów!). Korzystanie z WPS wymaga więc dostępu do internetu, co dla niektórych użytkowników może być problemem. Poza tym wciąż wiele budynków nie posiada żadnych sieci wi-fi.

 Mapa sieci wi-fi w zasobach otwartego projektu Mozilla Location Service

3_wps

Mimo tych wad to właśnie WPS postrzegany jest jako główny kandydat to tytułu międzynarodowego, uniwersalnego standardu wyznaczania pozycji wewnątrz budynków. Naukowcy już roztaczają wizję ogólnoświatowego systemu IPS (Indoor Positioning System). Kluczem do jego sukcesu miałoby być zaprzęgnięcie wszystkich smartfonów i tabletów do ciągłej aktualizacji jednej, centralnej bazy sieci wi-fi.

W objęciach Sinozębego

Inna popularna kategoria sygnałów radiowych to Bluetooth – standard obsługiwany już chyba przez wszystkie smartfony, tablety czy laptopy. Ale czy można je wykorzystać w nawigacji, skoro są nadawane w dużej mierze przez urządzenia mobilne? Można, o ile ich źródłem są tzw. beacony, czyli niewielkie nadajniki o niskim poborze mocy i o stałej pozycji. Ich użycie pozwala lokalizować użytkownika z dokładnością dochodzącą nawet do jednego metra, choć znów – tak jak w przypadku wi-fi – wynikowy błąd zależy w dużej mierze od gęstości infrastruktury: im więcej beaconów, tym jest mniejszy.

Interesującym przykładem wykorzystania tej metody jest polski projekt Virtualna Warszawa wyróżniony w międzynarodowym konkursie „Mayors Challenge”. Zakłada on rozmieszczenie beaconów Bluetooth we wszystkich urzędach warszawskiego ratusza, a nawet w poszczególnych autobusach czy tramwajach (wyposażonych dodatkowo w GPS) oraz w pobliżu atrakcji turystycznych. Do tego stworzona zostanie specjalna aplikacja mobilna, która będzie w stanie na podstawie sygnałów z tych beaconów wyznaczać pozycję i nawigować użytkownika do odpowiedniego okienka w urzędzie czy właściwego autobusu.

 Beacony Bluetooth wykorzystywane w projekcie Virtualna Warszawa

4

Zaletą rozwiązania jest gotowość do użycia na większości urządzeń mobilnych. Zasadniczą wadą jest natomiast konieczność budowy złożonej infrastruktury beconów (z których każdy wymaga zasilania), która w zasadzie może być użytkowana tylko przez jedną aplikację. Za Virtualną Warszawę trzymamy kciuki, ale podobne rozwiązania raczej nie staną się międzynarodowym standardem.

Sklepowy pomysł

Chyba każdemu choć raz zdarzyła się nieprzyjemna sytuacja, gdy podczas wychodzenia ze sklepu niesłusznie zawyły bramki wykrywające kradzież towaru. Przyczyną tego zamieszania są niepozorne naklejki będące tzw. układami RFID (Radio-frequency identification). Ich działanie polega na przekazywaniu poprzez fale radiowe krótkiej informacji pomiędzy znacznikiem a czytnikiem. W przypadku znanych nam bramek sklepowych mamy do czynienia z tzw. znacznikami pasywnymi, czyli takimi, które nie mają zasilania, a fale radiowe emitują pod wpływem pola magnetycznego. Zasięg ich działania wynosi maksymalnie 1-2 metry. Są również znaczniki aktywne, które posiadają własne źródło zasilania i dzięki temu zasięg ich działania jest większy (nawet do 200 m).

RFID może służyć nie tylko do informowania o potencjalnym złodzieju, ale także przekazywać do czytnika dane o pozycji znacznika. Dokładność takiego systemu pozycjonowania jest w dużej mierze uzależniona od liczby znaczników – w skrajnym przypadku może wynosić nawet kilka centymetrów, wiązałoby się to jednak z koniecznością rozmieszczenia sporej liczby znaczników. Zresztą, nawet jeśli zależałoby nam tylko na metrach, objęcie sporego budynku tą technologią jest nie lada wyzwaniem logistycznym. Z tego względu trudno oczekiwać, by pozycjonowanie RFID stało się powszechne, choć w niektórych przypadkach, choćby przy taśmach produkcyjnych czy w rozległych magazynach, może się świetnie sprawdzać.

 Typowy pasywny znacznik RFID zabezpieczający towar przed kradzieżą (fot. Maschinenjunge/Wikipedia)

5_rfid

Satelitarny wzmacniacz

A może rozwiązaniem problemu nawigacji wewnątrz budynków jest po prostu obniżenie orbity satelitów nawigacyjnych i zwiększenie mocy ich sygnałów nawigacyjnych? Z tego założenia wyszli twórcy zaprezentowanego w tym roku systemu STL (Satellite Time and Location). Rozwiązanie wykorzystuje sieć 66 satelitów telekomunikacyjnych Iridium orbitujących na wysokości blisko 800 km nad Ziemią do retransmisji sygnałów GPS. Mogą one służyć nie tylko jako wsparcie tego amerykańskiego systemu w miejscach o trudnych warunkach pomiarowych, ale również do autonomicznego wyznaczania pozycji. Są jednak trzy „ale”. Po pierwsze, dostęp do STL jest płatny, co przesądza o tym, że nie powtórzy on sukcesu GPS-a. Po drugie, w trybie autonomicznym umożliwia osiągniecie dokładności raptem 50 metrów, i to po 2-minutowej inicjalizacji (po wydłużeniu tego czasu do 10 minut dokładność rośnie do 20 metrów, co jest wciąż sporą wartością). Po trzecie, implementacja STL wymaga ingerencji w hardware odbiornika GPS.

 Konstelacja satelitów Iridium

22807_iridium_satelite_coverage_network_reliablitliy

Na marginesie warto dodać ciekawostkę, że wyznaczanie pozycji za pomocą STL bazuje nie tylko na pomiarze czasu lotu sygnału od satelity do odbiornika, jak to jest w przypadku GPS-a, ale także na pomiarze tzw. efektu Dopplera. Dzięki temu do korzystania z tego rozwiązania nie potrzeba minimum czterech satelitów nawigacyjnych (o co, nawiasem mówiąc, w przypadku konstelacji Iridium jest ciężko).

Idź w stronę światła

Popuśćmy jednak wodze fantazji i nie ograniczajmy się wyłącznie do sygnałów radiowych! Może do wyznaczania pozycji wystarczy światło? Owszem! Udowadnia to technologia VLC (Visible Light Communication). Zasada jej działania jest prosta i niezwykle praktyczna. W pomieszczeniu, które chcemy objąć tym rozwiązaniem, umieszczamy diody LED. Dla naszych oczu są one zwykłym elementem oświetlenia, ale już aparat w smartfonie „dostrzeże”, że światło to jest modulowane, tak by przekazywać informację o naszych współrzędnych. By skorzystać z systemu VLC, wystarczy zainstalować specjalną aplikację w urządzeniu mobilnym. Co ciekawe, system ten szybko zdobywa popularność w centrach handlowych.

Siłą inercji

Opisane wyżej technologie przeznaczone są przede wszystkim do mniej lub bardziej dokładnej nawigacji. Część czytelników z niecierpliwością czeka natomiast na coś o tym, co jest tematem tego blogu, czyli dokładne pomiary. Tu największą popularnością cieszą się inercyjne jednostki pomiarowe IMU – urządzenia składające się z żyroskopów, przyśpieszeniomierzy i czasem również magnetometrów, które odtwarzają prędkość oraz kierunek ruchu użytkownika. IMU stały się popularne przede wszystkim w mobilnych systemach kartowania, ponadto są coraz częściej stosowane w bardziej rozwiniętych systemach nawigacji, które mogą wyznaczać pozycję nawet po utracie widoczności satelitów GPS (np. w tunelach czy na parkingach podziemnych). Dokładność tego typu sprzętu jest bardzo różna – od centymetrów do metrów, obowiązuje tu jednak naczelna zasada: im dłużej nie mamy sygnału GPS, tym błąd pomiaru jest większy.

To kluczowa wada IMU. Inną jest wysoka cena sprzętu idąca nawet w dziesiątki tysięcy dolarów, a także wymiary, znacznie większe niż w przypadku odbiornika GPS. Trzeba jednak przyznać, że postęp technologiczny sprawia, iż urządzenia te błyskawicznie tanieją i maleją. Dowodem jest choćby nowy moduł NEO-M8L szwajcarskiej firmy u-blox przeznaczony dla przemysłu motoryzacyjnego. Jego deklarowana dokładność wynosi 2% dystansu pokonanego bez sygnału GPS, a wymiary to raptem 12,2 x 16,0 x 2,4 mm. Bez wątpienia upowszechnienie się tego tymi sensorów w smartfonach czy tabletach to kwestia kilku najbliższych lat.

 Profesjonalny sensor IMU firmy Applanix. Choć tego typu urządzenia zajmują coraz mniej miejsca, to są wciąż większe od modułów do nawigacji satelitarnej

7_imu

Wystarczy algorytm?

Zupełnie inne podejście do tematu reprezentuje technologia SLAM (Simultaneous Localization and Mapping). Tu do wyznaczania pozycji nie są potrzebne żadne sygnały nawigacyjne, ale pozyskiwane na bieżąco dane przestrzenne przetwarzane przez specjalny algorytm. Krótko mówiąc, urządzenie pozycjonowane jest na podstawie danych gromadzonych w trakcie jego ruchu. Jednym z popularnych wdrożeń technologii SLAM jest skaner laserowy Zeb1, który skanuje, wychylając się na specjalnej sprężynie (stąd pieszczotliwie nazywany jest „kropidłem”). Według zapewnień producenta, najnowsza odsłona tego urządzenia umożliwia pomiar nawet do 43 tys. punktów na sekundę z dokładnością 0,1% pokonanej odległości, i to bez dostępu do sygnałów GPS. Robi wrażenie!

Skaner Zeb1 firmy GeoSLAM do wyznaczania współrzędnych chmury punktów wykorzystuje algorytmy SLAM

8a_slam

Ale konkurencja nie śpi i przygotowuje własne systemy kartowania wnętrz bazujące na SLAM, czego przykładem jest nagrodzony na międzynarodowych targach geodezyjnych Intergeo 2015 zestaw Pegasus:Backpack firmy Leica Geosystems.

 Mobilny system kartowania wnętrz Leica Pegasus:Backpack

8b_leica

Dodajmy, że wiele wskazuje na to, że technologia SLAM dość szybko trafi „pod strzechy”. Wszystko za sprawą innowacyjnego tabletu Tango firmy Google (więcej o nim we wcześniejszym wpisie na blogu). Za pomocą wbudowanego sensora głębi jest on w stanie szybko zbierać gęstą chmurę punktów, która dzięki algorytmom SLAM może posłużyć do nawigowania we wnętrzach budynków oraz ich dość dokładnego pomiaru.

Jak magnes

Jednym z bardziej nietypowych pomysłów na nawigację wewnątrz budynków jest wymyślony przez fińskich naukowców IndoorAtlas. Twierdzą oni, że uniwersalnym sposobem na rozwiązanie tego problemu może być… pole magnetyczne. Duże ilości metali stosowane w budownictwie sprawiają, że naturalne pole magnetyczne Ziemi jest zaburzane. Wystarczy więc zmierzyć lokalny charakter tych zaburzeń i na tej podstawie da się określić pozycję.

Jak to zrobić? Wystarczy użyć elektronicznego kompasu, który jest już standardowym wyposażeniem większości smartfonów. Wcześniej jednak administrator budynku musi skartować lokalne pole magnetyczne, a wyniki pomiarów udostępnić użytkownikom przez specjalną aplikację. Twórcy technologii twierdzą, że oferuje ona dokładność nawet na poziomie 3 metrów. Założenia IndoorAtlas wyglądają więc bardzo obiecująco. Niestety, od momentu zaprezentowania tej technologii w 2012 roku zrobiło się o niej cicho i trudno wskazać jakieś jej poważniejsze wdrożenia.

Czekając na rewolucję

Jak widać z tego pobieżnego przeglądu technologii, choć metod wyznaczania pozycji wewnątrz budynków jest sporo (a nie wyczerpaliśmy jeszcze tematu), trudno powiedzieć, która stanie się tą jedyną, uniwersalną. A może po prostu jesteśmy skazani na łączenie kilku rozwiązań? Jedno jest pewne. Odpowiedź na to pytanie poznamy dość szybko, bo presja na znalezienie odpowiednika GPS-a działającego „w czterech ścianach” jest ogromna.

Wystarczy przytoczyć wyniki badań, które wskazują, że nasz smartfon czy tablet blisko przez 70% czasu jest używany właśnie we wnętrzach budynku. Jeśli uda się opracować skuteczną i dokładną metodę wyznaczania pozycji wewnątrz budynku, otworzy to ogromne możliwości biznesowe – zarówno w branży usług lokalizacyjnych, jak i w geodezji, kartografii, budownictwie czy w innych profesjonalnych zastosowaniach. W najbliższych latach czeka nas więc zalew nowych, mniej lub bardziej rewolucyjnych rozwiązań pomiarowych, co oznacza… mnóstwo ciekawych tematów do opisywania na naszym blogu!

[products]

Przyszłość GNSS: jest pięknie, a będzie jeszcze lepiej

Jeszcze niedawno cywilna nawigacja satelitarna ograniczała się do jednego systemu, jednej częstotliwości i dwóch tuzinów satelitów. Za kilka lat te wartości będą kilkukrotnie wyższa. Wszystko świetnie, tylko co z tego będzie mieć przeciętny zjadacz chleba? Ano, całkiem sporo praktycznych korzyści!

Aby móc wyznaczyć pozycję, potrzeba ich minimum cztery. Sęk w tym, że przy takiej właśnie liczbie inicjalizacja pomiarów (zwana „łapaniem fiksa”) trwa stosunkowo długo – nawet kilka minut. A gdy już mamy to za sobą, to z powodu niekorzystnego układu satelitów dokładność pomiaru spada z kilku do nawet kilkudziesięciu metrów.

Korzystając tylko z jednego globalnego systemu nawigacji satelitarnej (GNSS – Global Navigation Satellite System), takie sytuacje wcale nie należą do rzadkości. Można się o tym przekonać, bawiąc się narzędziem do planowania pomiarów satelitarnych. Przykładowo, w Warszawie przy idealnie odsłoniętym niebie i korzystaniu tylko z jednego systemu nawigacji (tj. GPS) nasz odbiornik „widzi” 11-15 satelitów. Nieźle! Ale w obszarze mocno zabudowanym (załóżmy, że przy horyzoncie zasłoniętym do wysokości 45 stopni) ta liczba spada już do 3-6. Ze złapaniem fiksa może być więc kłopot.

Liczba satelitów nawigacyjnych widocznych przynajmniej 45 stopni powyżej horyzontu w Warszawie. Jak widać, im więcej systemów, tym większa szansa złapania fiksa

warszawa_wykres

Problem rozwiązuje dodanie nowych systemów – rosyjski GLONASS zwiększy tę liczbę do maksymalnie 8, jeśli dorzucić jeszcze europejski Galileo, będzie to już 9, a razem z chińskim BeiDou – do 11. A większość tych systemów jest wciąż rozbudowywanych, więc wartości te wkrótce wzrosną! Zarówno dla amatorów, jak i profesjonalistów oznacza to znacznie szybszego fiksa i wyraźnie dokładniejszy pomiar – szczególnie w mieście, lesie czy w górach.

Jak to jednak w życiu bywa, nie ma róży bez kolców – odbiór większej liczby satelitów oznacza zauważalny wzrost zużycia energii. Z tego powodu w amatorskich urządzeniach dodatkowe systemy włączane są dopiero w trudniejszych warunkach pomiarowych. W bardziej profesjonalnym sprzęcie możemy na ogół ręcznie włączać i wyłączać wybrane systemy.

Tak zmieniała się i będzie się zmieniać liczba satelitów GNSS. Systemy WAAS, EGNOS, GAGAN, MSAS i SDCM to rozwiązania, o których tu nie piszemy. Nie są to bowiem satelity nadające typowe sygnały nawigacyjne, ale poprawki do nich (fot. raport roczny projektu Multi-GNSS)

gnss_wykres

A co nam po dodatkowych częstotliwościach? Te zapewniają przede wszystkim wyższą dokładność pomiaru. Jak to możliwe? Otóż w jonosferze sygnał satelitarny nie biegnie idealnie po linii prostej, a jego prędkość się zmienia. Tak powstaje tzw. opóźnienie jonosferyczne – jedna z bardziej znaczących składowych błędu pomiarów GNSS (od kilku do nawet kilkudziesięciu metrów). A co ma on wspólnego z dodatkowymi sygnałami satelitarnymi? Otóż opóźnienie dla każdej częstotliwości jest inne. Jeśli więc odbiornik śledzi dwie częstotliwości nadawane z tego samego satelity, to można w dużym stopniu wyeliminować błąd związany z tym zjawiskiem. Inna zaleta płynąca z wielu częstotliwości to zwiększa wiarygodność pomiaru, np. w razie celowego lub przypadkowego zakłócania lub awarii jednego z nadajników satelity.

Poza tym nowe sygnały GNSS to nowe możliwości – np. jeszcze lepsza dokładność pomiaru czy zwiększona odporność na zakłócenia. Dedykowane częstotliwości mają lub będą mieć np. piloci, armia, służby ratunkowe i porządkowe lub… ci, co za dostęp do nich zapłacą. Zasadniczą wadą pracy na kilku częstotliwościach jest natomiast kilkukrotnie wyższa cena odbiornika. Patrząc jednak na ewolucję rynku GNSS, nie ma wątpliwości, że będzie ona szybko spadać.

Wszystkie te możliwości brzmią pięknie, szkoda tylko, że trochę musimy jeszcze na nie poczekać. Budowa i modernizacja systemów GNSS idzie bowiem jak krew z nosa.

GPS trwa i trwa maćgps

Tak jak marka Adidas stała się powszechnym określeniem sportowych butów, tak GPS został synonimem nawigacji satelitarnej. Nic dziwnego, wszak to pierwszy i przez długi czas jedyny system GNSS. Wydaje się więc, że jego funkcjonowanie jest czymś oczywistym. Otóż, niekoniecznie! Wprawdzie obecnie administratorzy GPS-a chwalą się rekordowym tempem wystrzeliwania satelitów (w 2014 i 2015 r. wyniesiono ich aż 7), to perspektywy na najbliższą przyszłość rysują się w ciemnych barwach.

Obecnie kończy się wystrzeliwanie aparatów generacji IIF (wyniesiono już 11 z 12). Wyróżnia je m.in. nadawanie już na trzech cywilnych częstotliwościach (oprócz podstawowego kanału L1, również na nowych L2C i L5) oraz na nowym wojskowym kanale M, a także większa odporność emitowanych sygnałów na celowe lub przypadkowe zakłócanie.

W następnej kolejności na orbity miały trafiać satelity trzeciej generacji. Ich najważniejszym wyróżnikiem miało być nadawanie na udoskonalonym podstawowym cywilnym kanale L1 (to ten, który jest śledzony przez nasze smartfony i tablety), który ma zostać przemianowany na L1C. Ta dodatkowa literka to wbrew pozorom zapowiedź sporej zmiany.

Po pierwsze, sygnał ma być bardziej zbliżony do tego nadawanego przez Galileo, co oznacza lepsze i tańsze odbiorniki wielosystemowe. Po drugie, L1C ma mieć większą moc niż L1, co przełoży się na lepsze wyznaczanie pozycji w trudnych warunkach pomiarowych, w tym większą odporność za zakłócanie, i to dla wszystkich użytkowników systemu. Poza tym satelity III generacji miały zapewnić globalną dostępność sygnału L2C (przeznaczonego dla geodezji i GIS-u) oraz L5 (dla służb ratowniczych i lotnictwa).

Miały, ale ich wystrzelenie mocno się opóźnia. Start pierwszego aparatu tego bloku wstępnie planowano na rok 2014, ale wskutek problemów technicznych przesunięto go na rok 2017 (na razie). Oznacza to, że na pełne pokrycie świata sygnałami L2C trzeba poczekać do roku 2018, a w przypadku L5 – do 2021 r.

Aktualna dostępność sygnału GPS L2C, który ma ułatwić wykonywanie dokładnych pomiarów satelitarnych. Dodajmy, że na razie sygnał jest w fazie testów. Ma się to zmienić wkrótce (fot. GPS Directorate)

gps_mapa1

Aktualna dostępność sygnału GPS L5, który ma służyć przede wszystkim służbom ratunkowym. Dodajmy, że na razie sygnał jest w fazie testów. Ma się to zmienić wkrótce (fot. GPS Directorate)

gps_mapa2

Co gorsza, by uruchomić nowe możliwości satelitów III generacji potrzeba zmodernizować segment naziemny do tzw. standardu OCX. Niestety, i to się mocno opóźnia. Możliwe, że rozwiązanie to będzie gotowe dopiero w roku 2023! Zaniepokojony tym poślizgiem amerykański odpowiednik NIK-u alarmuje, że za kilka lat nie da się wykluczyć lokalnych niedostępności takiej liczby satelitów GPS, która jest niezbędna do złapania fiksa. Administrator systemu zarzeka się jednak, że taka sytuacja jest wykluczona.

Polityczny GLONASSglonass

Ewolucja rosyjskiego systemu nawigacji jest ściśle związana z najnowszą historią tego kraju. Pomysł budowy systemu był oczywiście zimnowojenną odpowiedzią na plany uruchomienia GPS. GLONASS udało się jednak uruchomić już po upadku „żelaznej kurtyny”, w 1995 roku. Raptem kilka lat później, wskutek kłopotów gospodarczych związanych m.in. z pierestrojką, starty kolejnych satelitów wstrzymano, a liczebność konstelacji szybko spadła poniżej 24 aparatów, niezbędnych do utrzymania globalnej dostępności sygnałów.

Losy systemu odwróciły się, gdy na Kremlu zasiadł Władimir Putin, dla którego GLONASS stał się oczkiem w głowie. Nie tylko zwiększył on finansowanie systemu, tak że w 2011 roku udało się ponownie ogłosić jego pełną operacyjność, ale także – strasząc cłami zaporowymi – zmusił producentów elektroniki do montowania w swych urządzeniach odbiorników śledzących również GLONASS. To właśnie dzięki temu obsługa tego systemu w smartfonach i tabletach stała się standardem.

Władimir Putin z urządzeniem nawigacyjnym systemu GLONASS – władca Rosji nawet nie ukrywa, że GLONASS to jego oczko w głowie. Gdyby nie jego zaangażowanie, system z pewnością by upadł (fot. Kremlin.ru)

glonass_wp

Teraz – jak wiadomo – w Rosji znów nie dzieje się najlepiej. Dla GLONASS-a problemem okazały się sankcje gospodarcze nałożone na ten kraj, w wyniku których Rosjanie nie mogą sprowadzać niektórych komponentów satelitów nowej generacji K. A blok ten miał wprowadzić w tym systemie sporo zmian. Nowe aparaty mają być lżejsze, być bardziej żywotne, oferować nawet 4-krotnie wyższą dokładność pozycjonowania i nadawać na nowym cywilnym kanale L3. Bodaj najważniejszą nowością jest jednak zmiana technologii wielodostępu z FDMA na CDMA. Mówiąc po ludzku: chodzi tu o zwiększenie kompatybilności GLONASS z systemami GPS i Galileo, co przełoży się na łatwiejszą (a więc i tańszą) produkcję odbiorników wielosystemowych.

Satelity GLONASS poruszają się po trzech płaszczyznach orbitalnych. Wyróżnikiem tej konstelacji jest duży kąt inklinacji orbit, co – mówiąc prościej – oznacza, że satelity GLONASS są lepiej widoczne na wysokich szerokościach geograficznych (fot. Roscosmos)

glonass_konstelacja

Na razie na orbicie znajdują się tylko dwa satelity generacji K1, oferującej tylko wybrane nowości przewidziane w bloku K. Wszystkie „atrakcje” będzie mieć dopiero blok K2 – na pierwsze satelity tego typu musimy jednak poczekać przynajmniej do 2018 roku. Kolejne lata muszą minąć, nim zostanie osiągnięte globalne pokrycie nowymi sygnałami.

Galileo: a to Europa właśniegalileo

Europejski system nawigacji Galileo niczym w zwierciadle pokazuje niedomagania organizacyjne Unii Europejskiej. Nawet jeśli Wspólnota wpadnie na ambitny i przydatny pomysł, to biurokratyczne tryby będą go tak długo mieliły, że niektórzy stracą zapał do jego realizacji. Powiedzmy tylko tyle, że prace nad Galileo ruszyły już na początku XXI wieku, a system wraz z 30 satelitami miał być gotowy koło 2014 roku. Mamy rok 2016, a aparatów jest tylko 12, z czego część niesprawna.

Galileo ma docelowo składać się z 30 satelitów, z czego 6 ma mieć charakter rezerwowych (fot. ESA)

galileo_konstelacja

Tymczasem idea Galileo jest jak najbardziej słuszna. Wyjątkowość systemu polega przede wszystkim na tym, że będzie to pierwsze cywilne rozwiązanie GNSS. Oczywiście z dobrodziejstw GPS czy GLONASS również mogą korzystać cywile, ale są to systemy przede wszystkim wojskowe. Oznacza to, że w razie (odpukać) wojny dostępność takiego systemu mogłaby zostać ograniczona. W przypadku Galileo jest to zaś wykluczone.

Kolejna zaleta Galileo to dodatkowe usługi cywilne. Podobnie jak w innych systemach, mamy oczywiście darmową usługę otwartą. Oprócz niej europejscy decydenci przewidzieli jednak jeszcze dwa serwisy. Tzw. usługa regulowana publicznie (PRS – Public Regulated Service) ma zapewnić odrębny, szyfrowany sygnał uprawnionym służbom, np. policji czy pogotowiu. Ma go wyróżniać przede wszystkim zwiększone bezpieczeństwo, czyli lepsza odporność na zagłuszanie i tzw. spoofing (podszywanie się pod system). Drugim nowym serwisem będzie płatna usługa komercyjna (CS – Commercial Service). Dzięki zastosowaniu dodatkowych dwóch kanałów rozwiązanie ma zagwarantować wyższą wiarygodność oraz dokładność wyznaczania pozycji. Choć na razie administratorzy Galileo jak ognia unikają podawania konkretnych liczb, wiadomo że dokładność tej usługi ma być liczona bardziej w centymetrach niż w metrach.

Kiedy się doczekamy tych dobrodziejstw? Decydenci w Brukseli mówią, że już w tym roku, gdy zostanie ogłoszona częściowa operacyjność systemu (potrzeba do tego 16 sprawnych satelitów). Pełna operacyjność (wymagająca 30 satelitów) ma zostać osiągnięta w 2020 roku. Czy te plany są realne? Z jednej strony pozytywnie nastraja fakt, że najtrudniejsze etapy budowy system ma już za sobą. Teoretycznie wystarczy bowiem wystrzeliwać satelity wykonane wg jednego projektu, których poprawność działania została już dowiedziona. A starty jeszcze w tym roku mają mocno przyspieszyć. Zamiast mieszczących dwa satelity rosyjskich Sojuzów UE chce zacząć wykorzystywać znacznie większe rakiety Ariane, zdolne wynieść za jednym zamachem aż 4 aparaty. Ale z drugiej strony, jeśli chodzi o systemy GNSS, to licho przecież nie śpi. Przekonaliśmy się o tym choćby latem 2014 roku, gdy wskutek usterki w Sojuzie dwa aparaty trafiły na orbitę eliptyczną zamiast kołowej. Do dziś nie wiadomo, czy maszyny będą mogły zostać włączone do konstelacji Galileo.

Efekt złego wystrzelenia dwóch satelitów Galileo w sierpniu 2014 r. Zamiast na orbicie kołowej (kolor zielony) aparaty trafiły na eliptyczną (czerwony) (fot. ESA)

galileo_orbita

BeiDou: tisze jediesz, dalsze budieszbeidou

Choć porzekadło jest rosyjskie, nieźle pasuje do chińskiego systemu nawigacji. Ten wydaje się bowiem powstawać bez większych problemów. Użyliśmy słów „wydaje się”, bo trudno powiedzieć, ile w tym szczęścia, a ile oszczędnego dawkowania informacji (np. Chińczycy informują o startach satelitów dopiero po fakcie). Faktem jest jednak, że system powstaje dość sprawnie. Co ciekawe, jego budowa zaczęła się w… Europie! Początkowo Chińczycy mieli uczestniczyć w projekcie Galileo, ale zniecierpliwieni europejską machiną biurokratyczną postanowili zbudować własny system, który najpierw ochrzcili jako Compass, a później przemianowali na BeiDou (co oznacza Wielki Wóz).

Chiński system nawigacji wyróżnia to, że jego satelity znajdują się na aż trzech różnych typach orbit – średniej (podobnie jak w systemach GPS, GLONASS i Galileo), geosynchronicznej oraz geostacjonarnej (fot. CSNO)

beidou_orbity

Pierwszym sporym sukcesem projektu było ogłoszenie na początku 2013 roku jego operacyjności w regionie Azji i Pacyfiku. Za kolejny można uznać udostępnienie w 2014 r. drugiego cywilnego sygnału satelitarnego (oznaczonego jako B2I). Podkreślmy, że to pierwszy system GNSS, który to osiągnął! Trzecim ważnym momentem jest wystrzelenie w 2015 r. pierwszego (z 17) satelity BeiDou III generacji. Aparaty wyróżnia przede wszystkim większa kompatybilność nadawanych sygnałów z systemami GPS i Galileo.

Aktualny zasięg systemu BeiDou (fot. Wikipedia)

beidou_mapa

Oficjalna data uruchomienia pełnej operacyjności BeiDou na całym świecie to rok 2020, ale eksperci zauważają, że budowa systemu mocno wyprzedza dotychczasowe plany. Nie wykluczone więc, że korki od szampana będzie można otwierać już w 2017 roku!

Orientalne ciekawostki

Warto wspomnieć jeszcze o dwóch inicjatywach, które choć nie będą dostępne dla użytkowników w Polsce, to są po prostu ciekawe. Pierwsza z nich to IRNSS (Indian Regional Navigation Satellite System) – indyjski system, który ma mieć wyłącznie zasięg lokalny. Będzie się składać tylko z 7 satelitów, ale ich orbity dobrano tak, by taka liczba wystarczała do samodzielnego wyznaczania pozycji w Indiach i krajach sąsiednich. Dokładność pozycjonowania z wykorzystaniem IRNSS ma wynosić 10-20 metrów, czyli ponad 2 razy gorzej od konkurencji. System ma być gotowy jeszcze w tym roku.

Inną koncepcję przyjęli Japończycy, budując QZSS (Quasi-Zenith Satellite System). Ten system w pierwszej fazie będzie składać się z 4 satelitów, które (inaczej niż IRNSS) nie mają tworzyć rozwiązania samodzielnego, ale wspierające GPS. Orbity aparatów dobrano tak, aby na obszarze Japonii przynajmniej jeden satelita zawsze znajdował się w okolicach zenitu, co – jak wiadomo – najlepiej sprzyja pomiarom satelitarnym. Oprócz tego QZSS zaoferuje poprawki, które zwiększają dokładność pomiaru. W zależności od usługi – od poziomu submetrowego do nawet centymetrowego. Aktualnie system składa się z jednego satelity, do 2018 ma być ich 4, a w następnej dekadzie – nawet 7.

Nietypowa orbita japońskiego systemu QZSS sprawia, że aparaty w Japonii widoczne są w okolicach zenitu (fot. CAO)

qzss

Warto zwrócić uwagę, że jeśli ziszczą się plany systemów IRNSS, QZSS oraz BeiDou, Azja będzie obszarem o największej gęstości nawigacyjnych sygnałów satelitarnych. W zasięgu jednego odbiornika może być ich nawet ponad 35! Wprawdzie w Europie możemy liczyć tylko na około 20, ale to przecież i tak aż 5 razy więcej niż obowiązkowa czwórka!

Tak w 2020 roku będzie wyglądała dostępność satelitów GNSS, i to 30 stopni ponad horyzontem. Jak widać, najwięcej, bo blisko 35, będzie dostępnych w Azji Południowo-Wschodniej (fot. raport roczny projektu Multi-GNSS)

gnss_mapa

Opłaty za ASG-EUPOS – wyjaśniamy krok po kroku

Już w 2008 roku, gdy uruchamiano państwową Aktywną Sieć Geodezyjną, urzędnicy nie pozostawiali wątpliwości – prędzej czy później korzystanie z niej będzie płatne. To „prędzej czy później” trwało aż 6 lat, do 12 lipca br. W tym czasie tysiące użytkowników ASG-EUPOS przyzwyczaiło się do darmowych poprawek.

Na jakiej podstawie wprowadzono więc opłaty za ASG-EUPOS? Pretekstem do tej kontrowersyjnej zmiany jest nowelizacja Prawa geodezyjnego i kartograficznego, którą wymusił zeszłoroczny wyrok Trybunału Konstytucyjnego. Ustawa weszła w życie 12 lipca br. Szczegóły odpłatności za ASG-EUPOS, w tym ceny, znajdziemy w załączniku do tego aktu, o czym bardziej szczegółowo za chwilę.

Ale najpierw przypomnijmy, jakie serwisy oferuje ASG-EUPOS

Zdecydowanie najpopularniejszą usługą jest NAWGEO. Korzystanie z niej wymaga dwuczęstotliwościowych odbiorników i zapewnia dokładność pomiaru w okolicach 3 cm w poziomie i 5 cm w pionie. Korekty mogą wyliczane na podstawie jednej stacji referencyjnej – wówczas mówimy o technologii RTK. Gdy bazują na obserwacjach z kilku stacji, mamy rozwiązanie RTN. Jak zapewne podpowiada już sama intuicja, RTN powinno być lepsze od RTK, szczególnie przy pomiarach w większej odległości od stacji referencyjnej. W praktyce różnie z tym jednak bywa, ale to już temat na inny artykuł.

Poprawki z ASG-EUPOS wykorzystywane w pomiarach geodezyjnych ruchomym odbiornikiem RTK

Osoby wymagające wyższej dokładności (rzędu pojedynczych centymetrów lub nawet milimetrów) korzystają z POZGEO, usługi przeznaczonej do pomiarów statycznych. Wygenerowany przez odbiornik plik z obserwacjami satelitów wysyłany jest do ASG-EUPOS i automatycznie przetwarzany, po czym użytkownik otrzymuje raport z gotowymi współrzędnymi pomierzonych punktów.

Dla bardziej zaawansowanych przygotowano usługę POZGEO D. W tym przypadku to użytkownik, a nie ASG-EUPOS, przelicza wyniki swoich pomiarów. System dostarcza tylko surowe dane obserwacyjne ze stacji referencyjnych. Na marginesie dodajmy, że mogą to być dane albo dla fizycznie istniejących stacji, albo tzw. stacji wirtualnych (VRS), wirtualnie wygenerowanych w pobliżu miejsca naszego pomiaru.

Pewną odmianą tej usługi był serwis POZGEO DF. Wyróżniała go możliwość pobrania danych obserwacyjnych bezpośrednio z serwera FTP. Co istotne, wraz z wprowadzeniem opłat za ASG-EUPOS usługa ta zostaje wyłączona. To jedyna istotna techniczna zmiana w funkcjonowaniu systemu od 12 lipca.

Zestaw do pomiarów satelitarnych w trybie statycznym

Dla wymagających niższych dokładności, na przykład na potrzeby GIS-u, przygotowano usługi NAWGIS i KODGIS działające w technologii DGPS. Do korzystania z nich wymagany jest jedynie odbiornik jednoczęstotliwościowy. Pierwsza usługa oferuje dokładność pomiaru na poziomie około 3 m. W przypadku KODGIS, dzięki dwustronnej komunikacji odbiornika z ASG-EUPOS, dokładność wzrasta natomiast nawet do 25 cm.

Typowy odbiornik satelitarny przeznaczony do pomiarów GIS

Dokładność kosztuje

Najwięcej, bo 1,5 tys. zł rocznie, zapłacimy za poprawki RTN. Abonamenty na krótsze okresy będą nominalnie tańsze, ale relatywnie droższe. I tak, półroczny kosztuje 810 zł (co daje 1620 zł/rok), miesięczny 180 zł (2160 zł/rok), a tygodniowy 54 zł (2800 zł/rok).

W ramach pojedynczego abonamentu możemy korzystać z poprawek w całym kraju niezależnie od tego, czy będą one wyliczone tylko dla systemu GPS czy także GLONASS (przypomnijmy że dwusystemowe poprawki dostępne są na razie w tzw. podsieciach: mazowieckiej, śląsko-małopolskiej oraz od niedawna także pomorskiej). Pojedynczy abonament nie ogranicza nas również w kwestii formatów korekt.

Podkreślmy, że choć RTN jest najdroższą opcją, wcale nie oznacza to, że po jej wykupieniu mamy zapewniony dostęp do tańszych poprawek RTK czy DGPS. To o tyle ważne, że rozwiązania RTK są wprawdzie nieco mniej dokładne, ale za to na ogół okazują się mniej podatne na usterki techniczne ASG-EUPOS. W praktyce wielu użytkowników usługi NAWGEO najczęściej korzystało z korekt RTN, a w przypadku problemów z dostępem do nich przełączało się na RTK. Teraz za taki komfort niestety trzeba dodatkowo płacić. Ile?

700 zł za rok lub 378 zł za pół roku (w przeliczeniu na rok daje to 756 zł), 84 zł za miesiąc (1008 zł/rok) i 25,20 zł za tydzień (1310,40 zł/rok). W tej cenie mamy dostęp do poprawek obliczanych na jednej ze stacji referencyjnych ASG-EUPOS.

Nie oznacza to jednak, że przy kupowaniu abonamentu musimy z góry wskazać, z jakiej stacji będziemy korzystać przez najbliższy rok. W ramach pojedynczej opłaty w jednym dniu możemy na przykład pracować na korektach ze stacji w Krakowie, a następnego dnia – ze stacji gdańskiej. Wszystko to bez konieczności załatwiania dodatkowych formalności. Na cenę nie ma wpływu także to, czy stacja obsługuje jedynie system GPS czy także GLONASS.

Najmniej zapłacimy za usługi GIS-owe. Roczny dostęp do korekt DGPS kosztuje 300 zł lub 162 zł za pół roku (w przeliczeniu na rok 324 zł), 36 zł za miesiąc (432 zł/rok) i 10,80 zł za tydzień (561,60 zł/rok). W ramach jednego abonamentu można korzystać zarówno z usługi NAWGIS, jak i dokładniejszej KODGIS.

W przypadku RTN, RTK oraz DGPS pojedynczy abonament nie jest przypisany do konkretnego odbiornika. Oznacza to, że jeżeli dana firma czy instytucja ma – załóżmy – 3 odbiorniki, to w ramach jednej opłaty może korzystać z ASG-EUPOS na wszystkich swoich instrumentach, ale – uwaga – nigdy jednocześnie!

W przypadku POZGEO opłata będzie zależna od liczby punktów, dla których ASG-EUPOS wykona obliczenia. I tak, jeśli wyślemy do systemu obserwacje tylko dla jednego punktu, to zapłacimy 5 zł. Ale na im więcej punktów będzie opiewało nasze zamówienie, tym niższa będzie cena jednostkowa. Powyżej 10 pkt zapłacimy 3,50 zł/pkt, a powyżej 100 – już tylko 1,50 zł/pkt. Tak więc np. przy 50 punktach kupionych „hurtem” oszczędzamy 60 zł, przy 100 pkt – 135 zł, 200 pkt – 485 zł, itd.

W POZGEO D mamy do wyboru dwie formy płatności. W pierwszym przypadku ostateczna kwota zależna będzie od liczby stacji referencyjnych (dotyczy to również stacji wirtualnych, czyli VRS), dla których pobieramy obserwacje, oraz długości tychże obserwacji. Tu znów, podobnie jak w POZGEO, obowiązuje zasada, że w „hurcie” jest taniej (patrz tabela).

Druga opcja to abonament. Za rok dostępu do danych odnoszących się do fizycznych stacji referencyjnych zapłacimy 1000 zł, a w przypadku wirtualnych stacji referencyjnych – 1200 zł. W obu przypadkach nie można jednak przekroczyć limitu 3 tys. godzin obserwacji. Podobnie jak w przypadku korekt RTK, RTN oraz DGPS można również wykupić abonament półroczny, miesięczny lub tygodniowy, choć oczywiście im dłuższy, tym każdy dzień pomiaru jest tańszy.

Cennik dostępu do serwisów ASG-EUPOS

Krok po kroku do korekt

Błyskawiczna popularyzacja handlu w internecie przyzwyczaiła nas do tego, że od wejścia na stronę sklepu do sfinalizowania zamówienia mijają góra dwie minuty. Niestety, w przypadku ASG-EUPOS musimy odłożyć na bok przyzwyczajenia i przynajmniej z kilkudniowym wyprzedzeniem planować, jakie usługi systemu będą nam potrzebne. W największym skrócie obowiązuje zasada: najpierw login, formularz zamówienia i opłata, a później dane.

Tak więc pierwszym krokiem jest założenie konta, co należy uczynić na stronie systemu. Co ważne, czeka nas to nawet wtedy, jeśli już to zrobiliśmy za czasów bezpłatności ASG-EUPOS. Po wypełnieniu swoich danych, czekamy na aktywację konta przez administratorów systemu.

Krok drugi to „papierkologia”. Wypełniamy stosowny wniosek (dla NAWGIS, NAWGEO, KODGIS i abonamentu POZGEO D do rozporządzenia ws. udostępniania…, dla POZGEO i POZGEO D). Wpisujemy w nim swoje dane oraz zamawiane usługi, podpisujemy i wysyłamy do Centralnego Ośrodka Dokumentacji Geodezyjnej i Kartograficznej w Warszawie (CODGiK).

W jednym wniosku możemy zamówić kilka różnych usług jednocześnie, np. dostęp do korekt RTK i RTN. Ale jeśli chcemy zamówić kilka usług jednego typu (na przykład trzy usługi RTN dla naszych trzech odbiorników), musimy przesłać kilka oddzielnych wniosków.

Jeśli wniosek wyślemy tradycyjną pocztą, może to niestety trochę potrwać (o ile nasz list, odpukać, gdzieś nie zginie). Sposobem na przyspieszenie formalności jest internet, ale będziemy do tego celu potrzebowali albo podpisu elektronicznego, albo tzw. bezpiecznego podpisu elektronicznego, albo profilu ePUAP (od niedawna można go zdobyć nawet na poczcie czy w banku).

Gdy wniosek dotrze do CODGiK-u, ten go zarejestruje i powiadomi nas o tym fakcie e-mailem. Wtedy przychodzi kolej na opłatę. Nim zapłacimy, musimy otrzymać Dokument Obliczenia Opłaty (DOO). Jeśli zamówienie wysłaliśmy drogą elektroniczną, w ten sam sposób otrzymamy DOO. Jeśli skorzystaliśmy z usług poczty, nie pozostaje nam nic innego, jak czekać na listonosza. Gdy dotrze, przelewamy kwotę obliczoną przez CODGiK w DOO na odpowiednie konto. Ale uwaga! Zgodnie ze znowelizowanym Prawem geodezyjnym i kartograficznym opłata za realizację jednego wniosku wynosi nie mniej niż 30 zł! Tak więc jeśli zamówimy np. tygodniowy dostęp do NAWGEO, to zapłacimy nie 25,20, ale 30 zł!

Po zaksięgowaniu zapłaty nasze konto zostaje aktywowane i wreszcie możemy korzystać z ASG-EUPOS. Jako potwierdzenie zakończenia tej biurokratycznej procedury otrzymamy dokument licencji. Podobnie jak w poprzednich krokach, zostanie on wysłany albo pocztą tradycyjną, albo drogą elektroniczną. Co istotne, by zabrać się za pomiary, wcale nie musimy czekać na otrzymanie licencji. W przypadku zamawiania usług POZGEO i POZGEO D (nie dotyczy abonamentu) dane otrzymamy albo na elektronicznym nośniku, albo – co chyba wygodniejsze i szybsze – za pomocą usług sieciowych, czyli przez internet.

Kto za darmo, komu zniżkę

Nowelizacja Prawa geodezyjnego i kartograficznego w niektórych przypadkach przewiduje darmowe udostępnianie danych z zasobu geodezyjnego. Mogą na to liczyć instytucje chcące korzystać z tych danych w celach edukacyjnych (a więc np. uczelnie i szkoły) i badawczo-rozwojowych (m.in. jednostki naukowe), a także służby specjalne. Do listy tej dopisano jeszcze podmioty realizujące prace geodezyjne zamawiane przez administrację geodezyjną i kartograficzną.

Wszystkie te zwolnienia dotyczą również ASG-EUPOS, ale niestety w bardzo ograniczonym zakresie. W wymienionych wyżej sytuacjach bez opłat można bowiem korzystać wyłącznie z POZGEO oraz POZGEO D (ale nie w abonamencie). By skorzystać ze zwolnienia, należy w odpowiednim formularzu zaznaczyć, ze jesteśmy do tego uprawnieni. Po szczegóły dotyczące formalności w tej kwestii odsyłamy na stronę ASG-EUPOS.

Przypomnijmy, że oprócz całkowitego zwolnienia można załapać się jeszcze na kilka zniżek. Ale tu znów, dotyczy to tylko POZGEO i POZGEO D. Jak już wcześniej wspomnieliśmy, przy zakupie danych dla większej liczby punktów lub stacji referencyjnych albo przy dłuższym okresie obserwacji cena jednostkowa spada nawet kilkukrotnie. Ponadto o połowę mniej zapłacą wykonawcy prac geodezyjnych i kartograficznych podlegających obowiązkowemu zgłoszeniu do zasobu. Z kolei w przypadku nabycia danych na cele szkoleniowe zniżka wynosi 20%. A co z najpopularniejszą usługą NAWGEO? Tu niestety nie przewidziano ani żadnych zniżek, ani zwolnień z opłat.

Jeśli nie ASG-EUPOS, to co?

Po 12 lipca warto się zastanowić, czy w ogóle korzystać z ASG-EUPOS. I wcale nie chodzi tu o przerzucenie się na pion i węgielnicę. W ostatnich miesiącach jak grzyby po deszczu wyrastają kolejne prywatne stacje referencyjne, a nawet ich sieci.

Najbardziej rozbudowana jest TPI NETpro, która swoim zasięgiem obejmuje już cały kraj, a do tego – w przeciwieństwie do ASG-EUPOS – oferuje pełne pokrycie korektami GPS+GLONASS. Teoretycznie sieć ta przeznaczona jest wyłącznie dla klientów firmy TPI. Roczny abonament kosztuje 1,8 tys. zł. Ale przynajmniej do końca lipca w sieci mogą się rejestrować również inni użytkownicy, choć muszą za to zapłacić 2,2 tys. zł/rok.

Stacje referencyjne sieci TPI NETPro

Firma Leica Geosytems ma z kolei sieć SmartNet Polska (jej częścią będzie sieć budowana na południu Polski przez firmę Nadowski). Na razie obejmuje ona przede wszystkim województwa pomorskie i łódzkie, ale docelowo będzie można z niej korzystać w całym kraju. Poza Pomorzem dostęp do niej jest darmowy, choć wkrótce sieć ma stać się płatna.

Stacje referencyjne sieci Smart Net Polska

Użytkownicy z województw zachodniopomorskiego, świętokrzyskiego i śląskiego mają do dyspozycji sieć VRSnet firmy Trimtech. Na razie można z niej korzystać za darmo. Podobnie jak w przypadku Leica SmartNet, właściciel ma w planach objęcie korektami całego kraju.

Stacje referencyjne sieci VRSnet

W budowie jest sieć NadowskiNET, która już w sierpniu ma być dostępna w województwach śląskim, opolskim, małopolskim, podkarpackim i świętokrzyskim. Początkowo korzystanie z tego rozwiązania będzie darmowe. Na przełomie tego i przyszłego roku stanie się natomiast płatne.

Stacje referencyjne sieci NadowskiNET

Wspomnijmy także o Małopolskim Systemie Pozycjonowania Precyzyjnego, którego właścicielem jest Urząd Marszałkowski w Krakowie. Rozwiązanie to jest całkowicie bezpłatne i na razie nic nie wskazuje, by miało się to zmienić. Jest to o tyle dziwne, że MSPP dzieli stacje referencyjne z ASG-EUPOS. Tak więc przez system małopolski korzystamy z korekt za darmo, gdy te same korekty pobieramy przez ASG-EUPOS, musimy za nie płacić.

Stacje referencyjne sieci MSPP

Pojedyncze stacje referencyjne mają ponadto niektórzy dystrybutorzy sprzętu pomiarowego, a także firmy geodezyjne. Warto się więc podpytać tu i ówdzie, na jakich warunkach można by się do nich podłączyć. Pewnym wyjściem jest także zakup własnej stacji, ale to już koszt rzędu kilkudziesięciu tysięcy złotych, a więc opłaci się to tylko większym podmiotom.