Informacje

Pomiarowe trendy 2017

Wszystkie znaki na Ziemi i niebie wskazują, że rok 2017 przyniesie w technologiach pomiarowych kilka przełomów oraz wiele interesujących zmian i innowacji. Prezentujemy subiektywne zestawienie najciekawszych z nich.

1. Chmura ze słoika

Nie mamy wątpliwości, że największą ciekawostką sprzętową 2017 roku będzie skaner laserowy 3D Leica BLK360. To pierwsza na świecie tego typu konstrukcja, która przy rozmiarach litrowego słoika i masie niecałego kilograma jest pełnowartościowym skanerem przestrzennym. Instrument mierzy 360 000 punktów na sekundę, wykonuje tradycyjne zdjęcia panoramiczne w zakresie 360° i fotografie w podczerwieni, a realistyczny model pomieszczenia tworzy w niespełna 3 minuty.

O dziwo, producent wciąż nie podaje dokładności i zasięgu instrumentu. Te parametry zdecydują, do jakiego zakresu prac będzie się nadawał skaner Leica BLK360.

Do obsługi skanera Leica aplikację stworzyła firma Autodesk – ReCap 360 Mobile. Narzędzie to – instalowana na tablecie iPad Pro – pozwala nie tylko bezprzewodowo (przez Wi-Fi) sterować pracą skanera, ale głównym jego zadaniem jest obsługa chmur punktów. Oprogramowanie pozwala m.in. automatycznie łączyć skany wielostanowiskowe, zarządzać danymi i edytować je, generować realistyczne wizualizacje czy wirtualne spacery.

Można śmiało stwierdzić, że mini skaner Leiki i przygotowane do jego obsługi oprogramowanie Autodesku to odpowiedź na rynkowe potrzeby BIM-u – modelowania informacji o budynkach. W uproszczeniu zakłada ona tworzenia dokumentacji o obiektach w postaci modeli 3D i wykorzystywania ich do prac projektowych.

Na zakup skanera laserowego 3D Leica BLK360 trzeba przeznaczyć ok. 15 000 euro, a jego dystrybucja będzie prowadzona we ścisłej współpracy z firmą Autodesk. I choć instrument wejdzie do sprzedaży dopiero w marcu tego roku, to z kuluarów wiemy, że pod koniec 2016 r. na całym w świecie w kolejce po odbiór nowej zabawki czekało już blisko 100 przyszłych użytkowników.

2. Modelowanie 3D dla mas

Niejako uzupełnieniem możliwości wspomnianego powyżej lasera 3D Leica w marcu 2017 roku Microsoft ma udostępnić mobilną aplikację Capture 3D, która pozwoli w wyjątkowo prosty i szybki sposób generować modele 3D otaczających nas obiektów. Do ich stworzenia wystarczy smartfon z kamerą! Przy okazji Microsoft zaprezentuje zupełnie odmienioną wersję poczciwego Painta, która pozwoli na podstawową edycję takich modeli z komórki.

Na ile rozwiązania te będą proste w obsłudze, szybkie i dokładne, na razie trudno powiedzieć. Ale nawet jeśli nie okażą się rewolucyjne, to naszym zdaniem będą kamyczkiem, który tę rewolucję wywoła. Już teraz wiemy bowiem, że inni dostawcy oprogramowania pracują nad podobnymi aplikacjami. Przykładem jest Bentley Systems (znany np. z aplikacji MicroStation), który szykuje działające w chmurze oprogramowanie ContextCapture. Według zapewnień producenta aplikacja powinna w ekspresowym tempie generować modele 3D o inżynierskiej jakości. Niechybnie to sprawdzimy!

Nie możemy się także doczekać kolejnych wdrożeń technologii Google Tango, która pozwala pozyskiwać za pomocą smartfonów i tabletów gęstą chmurę punktów (szerzej o niej we wcześniejszym wpisie). Na razie ich liczba jest bardzo skromna, ale zapowiedzi producentów urządzeń mobilnych pozwalają przypuszczać, że w 2017 roku znacznie wzrośnie.

3. Skok w wirtualną rzeczywistość

Portale poświęcone nowinkom technologicznym coraz więcej miejsca poświęcają wirtualnej rzeczywistości (VR), do której możemy łatwo wskoczyć, zakładając specjalne gogle. Zapewne w tym roku będą one topowym prezentem na pierwszą komunię, wszak ich wybór jest spory, ceny przystępne, a doznania z użytkowania niezapomniane.

Co jednak ta zabawka ma wspólnego z technologiami pomiarowymi? Gogle VR same w sobie do pomiarów się nie nadają, choć teoretycznie mogłyby je wykonywać (mają sensor głębi), tyle że z kiepską dokładnością. Mimo to producenci sprzętu i oprogramowania pomiarowego patrzą na tę technologię z dużym zainteresowaniem. Przede wszystkim dlatego, że jest ona świetnym narzędziem do efektownej wizualizacji danych przestrzennych i interakcji z nimi. Polski oddział firmy Skanska chce np. od tego roku zacząć wykorzystywać wirtualną rzeczywistość do prezentowania klientom swoich inwestycji deweloperskich w formie modeli 3D.

 Tak dzięki VR ma w ocenie Trimble’a wyglądać praca inżyniera

Trwają także prace nad aplikacjami VR dla inżynierów. Na przykład architekt mógłby za ich pomocą wyświetlić sobie w szczerym polu swój projekt budynku, by upewnić się, że inwestycja ma „ręce i nogi”, bądź też porównać różne jej warianty. Specjalne aplikacje zasilone szczegółowymi modelami 3D mogłyby ponadto pomóc w inspekcjach złożonej infrastruktury – wskażemy palcem rurę, a przed oczami ukażą się nam jej szczegółowe parametry. VR mogłaby także rozwiązać wiele problemów z podziemnymi obiektami. Na przykład operator koparki mógłby założyć gogle VR i dzięki nim kopać tak, by nie trafić w pobliski gazociąg. Wszystkie tego typu aplikacje łączy jedno – wymagają zasilenia danymi przestrzennymi. Popularyzacja VR oznacza więc dla specjalistów od pomiarów pełne ręce roboty.

4. Od dronów się nie opędzisz

Według badania Instytutu Mikromakro w Polsce lata już 100 tys. bezzałogowych maszyn latających! Oczywiście zdecydowana większość to zabawki, ale profesjonalistów również przybywa. Już 3,6 tys. osób posiada specjalny certyfikat niezbędny do wykorzystania dronów w celach komercyjnych, a tylko między majem a listopadem wydano ich aż tysiąc! Cieszy, że ten szybko rosnący popyt zaspokajają również polscy producenci UAV.

Żeby nie być gołosłownym, wśród ciekawych bezzałogowych zapowiedzi na nowy rok można wymienić np. Dron Academy Software tworzone przez polską spółkę Dron Academy. Oprogramowanie ma generować ortofotomapy niemal w czasie rzeczywistym i wyświetlać je na pulpicie operatora.

 Oprogramowanie Drone Academy generuje ortofotomapę jeszcze w trakcie nalotu

Spodziewamy się, że w 2017 prezentowane będą nowe: sensory (coraz mniejsze, dokładniejsze i bardziej specjalistyczne), maszyny (coraz bardziej autonomiczne) i oprogramowanie (coraz szybciej generujące ortofotomapy czy chmury punktów). Nie mniej ważna będzie cena tych rozwiązań, która na pewno będzie spadać.

5. Galileo, czyli europejskie jest lepsze

15 grudnia 2016 roku uruchomiono pierwsze usługi europejskiego sytemu nawigacji satelitarnej Galileo. Na razie radość jest umiarkowana, bo wciąż zdecydowana większość odbiorników śledzi tylko amerykański GPS. Ale to właśnie w tym roku powinno zacząć się masowe wprowadzanie na rynek elektroniki kompatybilnej z Galileo. Co to oznacza dla jej użytkowników? Korzyści jest wiele.

Podstawowa to większa liczba satelitów nawigacyjnych, które może śledzić nasz odbiornik. Na razie w kosmosie jest 18 aparatów Galileo (z czego jeszcze nie wszystkie sprawne), co w Polsce przekłada się na maksymalnie 5 widocznych jednocześnie. Docelowo konstelacja będzie liczyć 30 satelitów. Przy łącznym wykorzystaniu GPS i Galileo oznacza to wreszcie możliwość wykonywania pomiarów w przyzwoitej dokładności w lesie, „miejskich kanionach” czy w górach.

Nawet jeśli będziemy korzystać tylko z Galileo, europejski system będzie nieco dokładniejszy od GPS-a, bo bazuje na nowszych rozwiązaniach technologicznych. Nie powinno to jednak dziwić, wszak amerykański system projektowany był jeszcze w latach 70., a budowa europejskiego rozpoczęła się na początku XXI wieku.

Galileo wyróżnia także bogata oferta różnorodnych usług: darmowej otwartej, bezpieczeństwa życia (oferującej informacje o ewentualnych awariach całego systemu lub poszczególnych satelitów), regulowanej publicznie (dającej upoważnionym służbom sygnały bardziej odporne na zakłócanie), komercyjnej (o znacznie lepszej dokładności, choć płatnej) oraz poszukiwawczo-ratunkowej (umożliwiającej przesłanie ratownikom swojej lokalizacji w dowolnym zakątku świata).

6. Centymetry dla każdego

Po latach teoretycznych rozważań i eksperymentów producenci podzespołów dla odbiorników satelitarnych (np. szwajcarski u-blox) wreszcie ruszają z masową produkcją płyt oferujących technologię RTK L1, które zapewne już w tym roku zaczną być montowane na większą skalę w odbiornikach.

 Czip szwajcarskiej firmy u-blox umożliwiający pracę w technologii RTK L1 (fot. u-blox)

Co kryje się pod tym skrótem? RTK to popularna szczególnie wśród geodetów technologia, która pozwala na satelitarny pomiar w czasie rzeczywistym z centymetrową dokładnością. Sęk w tym, że jej stosowanie wymaga posiadania dość drogiego odbiornika (koszt od kilkunastu do kilkudziesięciu tysięcy złotych) śledzącego minimum dwie częstotliwości (L1 i L2).

Tymczasem w przypadku RTK L1 możemy użyć znacznie tańszych (kosztujących nawet około tysiąca złotych) odbiorników jednoczęstotliwościowych. Ich ograniczeniem jest m.in. nieco niższa dokładność (około 10 cm), dłuższy czas inicjalizacji precyzyjnego pomiaru czy konieczność pracy w bliższej odległości od stacji referencyjnej. W wielu zastosowaniach kwestie te nie stanowią jednak większego problemu. Centymetrowa dokładność wreszcie staje się więc dostępna również dla użytkowników z chudszym portfelem.

7.  Solidny LiDAR

Już od pewnego czasu w świecie naukowym sporo mówi się o solid state LiDAR (na razie brak dobrego polskiego tłumaczenia tego terminu). W 2017 roku technologia ta wreszcie powinna trafić na rynek. Co to takiego?

Dziś LiDAR-y, czyli skanery laserowe, to stosunkowo drogie, duże i ciężkie instrumenty. To w dużej mierze konsekwencja tego, że składają się z wielu ruchomych części i układów optycznych. W instrumentach solid state LiDAR ich jednak nie uświadczymy, co ma doprowadzić do miniaturyzacji sprzętu oraz znacznego obniżenia ich ceny.

Jeden z producent skanerów – firma Velodyne, opracował już pierwsze układy scalone dla tego typu urządzeń, które zajmują raptem 4 mm kwadratowe i umożliwią budowanie podzespołów dla LiDAR-ów kosztujących raptem… 50 dolarów!

 Skanujący układ scalony zaprojektowany przez firmę Velodyne

Oczywiście, podkreślmy, że mówimy o podzespołach. Cały skaner będzie oczywiście większy i droższy, ale i tak powinien być wielokrotnie tańszy od instrumentów obecnie dostępnych w sprzedaży. Jesteśmy wielce ciekawi osiągów tych LiDAR-ów. Firma Velodyne twierdzi, że nasza ciekawość zostanie zaspokojona w 2017 roku.

8. Umierają „okienka”, niech żyje Android

To zadziwiające, jak długo w rejestratorach dla geodezji czy GIS-u funkcjonuje jeszcze archaiczny system Windows Mobile lub Windows Embedded. Ale jego dni są policzone! Skąd ta pewność? Już od kilku lat producenci systematycznie przerzucają się na Androida, bo daje użytkownikowi dużo większą swobodę pracy.

Gwoździem do trumny „okienek” będzie jednak udostępnienie pod koniec 2016 roku Androida w wersji Nougat, którą wyróżnia możliwość uzyskania dostępu nie tylko do wyliczonej przez ten system operacyjny pozycji użytkownika, ale także do surowych obserwacji GNSS.

Co to daje? Ogromne możliwości wspomagania pomiarów, np. poprzez uwzględnienie korekt czy też implementację algorytmów minimalizujących efekt wielodrożności. Nim jednak skorzystamy z tych zalet, deweloperzy muszą opracować specjalnie przystosowane do Nougata mobilne aplikacje pomiarowe. Z pewnością pierwsze z nich wejdą na rynek w 2017 roku i już nie możemy się doczekać, aż będziemy mogli je przetestować!

9. Małe jest piękne

Ręka do góry, kto z Czytelników kupił kiedyś zdjęcie satelitarne? Zapewne nikt i to wcale nie dlatego, że nie potrzebujemy tych danych, ale ponieważ są one za drogie. W 2017 roku powinno się to jednak diametralnie zmienić, a wszystko za sprawą wystrzeliwanych masowo mikro- i minisatelitów obserwacyjnych. Choć koszt ich budowy i wyniesienia jest wielokrotnie niższy niż w przypadku obecnie funkcjonujących dużych satelitów teledetekcyjnych, to te małe aparaciki są w stanie pozyskiwać niewiele gorsze dane. W oczywisty sposób przełoży się to więc na znacznie niższy koszt zobrazowań. Ponadto dzięki temu, że są na ogół pozyskiwane przez liczną konstelację, zdjęcia mogą być bardzo często odświeżane.

Na razie jedną z największych konstelacji minisatelitów jest Dove amerykańskiej firmy Planet (składa się już z ponad 100 aparatów). Oprócz tego powstaje kilka mniejszych systemów obserwacyjnych, np. SkyBox (kupiony przez Google’a) czy BlackSky. O tym, że tego typu biznesy mają sens, niech świadczy to, że własną tego typu konstelację chce mieć również firma DigitalGlobe, która swoją pozycję zbudowała na dostarczaniu danych z dużych i drogich satelitów.

10. Cyfrowy skok za unijną kasę

Zajrzyjmy na nasze, polskie podwórko. Tu także szykuje się sporo zmian, głównie za unijne pieniądze. Z opóźnieniem, ale jednak, w 2017 r. z kopyta ruszy wiele krajowych i regionalnych przedsięwzięć dotyczących cyfryzacji urzędowych danych, również przestrzennych. Stwarzają one realną szansę, że wreszcie pożegnamy się z analogowymi mapami geodezyjnymi i topograficznymi, a w ich miejsce dostaniemy nowoczesne, cyfrowe bazy dostępne łatwo i szybko przez internet. Uważnie warto obserwować choćby projekty Głównego Urzędu Geodezji i Kartografii. W jego planach jest m.in. uruchomienie Geoportalu w wersji 3D oraz rozbudowanie Portalu PZGiK (internetowego sklepu z danymi przestrzennymi) o archiwalne zdjęcia lotnicze kraju.

 Tak będzie prezentować się Geoportal 3D

Które z powyższych propozycji najbardziej zmienią w przyszłym roku świat pomiarów? A może macie własne przewidywania? Podzielcie się nimi w komentarzach!

Jak wyznaczyć pozycję w czterech ścianach, kiedy GPS nie daje rady?

Ach, gdyby tak z GPS-a można było korzystać nie tylko pod gołym niebem! O ile prostsza stałaby się nawigacja czy pomiary! Naukowcy dostrzegają tę potrzebę i od lat główkują nad metodami pozycjonowania wewnątrz budynków. Choć pomysłów mają wiele, to na horyzoncie wciąż nie widać tego jedynego, uniwersalnego rozwiązania. Co mamy na razie do wyboru?

Więcej mocy!

Na wstępie wyjaśnijmy, dlaczego GPS nie radzi sobie w czterech ścianach. Odpowiedź jest prosta – satelity GPS emitują sygnał radiowy z wysokości około 20 tys. km o mocy… nieco ponad 20 W! Czyli tyle co żarówka! To za mało, żeby przeniknąć przez dachy bądź ściany. Może w takim razie rozwiązaniem problemu jest po prostu przybliżenie źródła promieniowania mikrofalowego do użytkownika lub/i podniesienie jego mocy? Co ciekawe, właśnie na tym bazuje większość proponowanych metod wyznaczania pozycji wewnątrz budynku! Nie powinno to jednak dziwić, skoro otacza nas mnóstwo różnego rodzaju sygnałów radiowych, które – przynajmniej teoretycznie – można by wykorzystać do określania naszych współrzędnych.

Jeden z pierwszych tego typu pomysłów jest znacznie starszy niż GPS, sięga II wojny światowej i nazywa się LORAN (LOng Range Aid to Navigation). Początkowo rozwiązanie to służyło przede wszystkim do nawigowania alianckich konwojów przekraczających Atlantyk. Z zalet systemu szybko zaczęło jednak korzystać również lotnictwo, z biegiem czasu także straż przybrzeżna, a w latach 70. rozwiązanie udostępniono nawet cywilom. Nadawane przez sieć specjalnych, wysokich masztów pierwsze sygnały nawigacyjne LORAN pozwalały wyznaczać pozycję z dokładnością raptem kilku mil. Wraz z postępem technologicznym i kolejnymi wersjami systemu (m.in. LORAN-C i eLORAN) błąd spadł do 10 metrów.

Popularyzacja technologii GPS sprawiła jednak, że liczba użytkowników LORAN-a gwałtownie się kurczyła i na nic zdały się zalety tego rozwiązania, takie jak lepsza odporność na zakłócanie czy możliwość wyznaczania pozycji wewnątrz budynków, a nawet pod ziemią. Względy finansowe sprawiły, że Stany Zjednoczone rozpoczęły demontaż infrastruktury LORAN. Co ciekawe, odwrotną decyzją podjęły władze Wielkiej Brytanii i Korei Południowej. Doszły one do wniosku, że w obliczu coraz częstszych incydentów z celowym lub przypadkowym zakłócaniem sygnałów GPS, posiadanie jakiejś rezerwowej infrastruktury nawigacyjnej jest koniecznością.

Czy w takim razie eLORAN ma szansę stać się uniwersalnym rozwiązaniem do wyznaczanie pozycji wewnątrz budynków? Wątpliwe. Po pierwsze, wymagałby wprowadzenia istotnych modyfikacji w smartfonach czy tabletach. Po drugie – i to kluczowy argument – poszczególne kraje musiałyby zainwestować w kosztowną infrastrukturę nadawczą (wspomnijmy tylko, że nadajniki LORAN-C mają wysokość 190-220 metrów i moc od 100 do 4000 kW!). Dla przykładu, samo objęcie kanału La Manche tymi sygnałami (co zapewniono w 2014 roku) wymagało budowy aż 7 stacji.

Maszt systemu LORAN-C położony na niemieckiej wyspie Sylt (fot. Wikipedia/Gerd Fahrenhorst)

1a_loran

 Maszynownia jednej ze stacji nadawczych LORAN-C (fot. Wikipedia)

1b_loran

Komóreczko, powiedz przecie

A może prościej byłoby wykorzystać istniejącą infrastrukturę nadawczą, np. wszędobylskie maszty telefonii komórkowej? Osoby orientujące się w technologiach lokalizacyjnych dobrze wiedzą, że takie rozwiązanie stosowane było już w pierwszych smartfonach, które – w co być może trudno dziś uwierzyć – pozbawione były odbiornika GPS. Zasada działania jest tu prostsza niż w nawigacji satelitarnej – pozycja wyznaczana jest bowiem dzięki pomiarowi mocy sygnałów dochodzących z okolicznych masztów telefonii komórkowej. Co istotne, metoda umożliwia wyznaczanie pozycji zarówno z poziomu telefonu wyposażonego w odpowiednią aplikację (choćby Mapy Google), jak i operatora telefonii (co zresztą jest wykorzystywane choćby przy lokalizowaniu osób dzwoniących na numer alarmowy 112).

A co z dokładnością? Im więcej jest w naszym pobliżu masztów GSM, tym jest wyższa. W sprzyjających warunkach (czyli głównie w miastach) błąd takiego pomiaru może wynieść kilkadziesiąt metrów, ale na terenach o rzadkiej infrastrukturze telekomunikacyjnej rośnie nawet do kilku kilometrów. Takie wyniki eliminują więc tę metodę z wyznaczania pozycji wewnątrz budynków. Dlaczego są tak kiepskie, znacznie gorsze niż choćby w przypadku eLORAN? W dużym skrócie dlatego, że – co zabrzmi banalnie – infrastrukturę telefonii komórkowej projektowano z myślą o rozmowach telefonicznych i wymianie danych, a nie wyznaczaniu pozycji. Z czysto teoretycznego punktu widzenia nie ma jednak przeciwwskazań, by po modyfikacjach technologicznych sieci komórkowe pozwalały wskazywać pozycję z dokładnością porównywalną do GPS-a. Trudno się więc dziwić, że temat ten porusza wyobraźnię naukowców i biznesmenów, którzy co rusz informują o ciekawych koncepcjach nowych technologii lokalizacyjnych bazujących na sygnałach komórkowych.

 Typowy maszt sieci komórkowej (fot. J. Smith/Wikipedia)

2_gms

Jednym z przykładów jest system MBS (Metropolitan Beacon System) firmy NaxtNav. Metoda polega na emitowaniu przez specjalnie przystosowaną sieć LTE sygnałów podobnych do GPS-a, które dla smartfona czy tabletu są po prostu kolejnymi satelitami nawigacyjnymi. Co ciekawe, dokładność takiego rozwiązania jest znacznie lepsza w pionie niż w poziomie, a więc odwrotnie niż w nawigacji satelitarnej (wszystko dlatego, że stacje MBS położone się mniej więcej na tej samej wysokości). W rezultacie system MBS będzie się świetnie nadawał do wyznaczania piętra, na którym znajduje się dany użytkownik. Zasadniczą wadą tego rozwiązania jest jednak konieczność modyfikacji smartfonów czy tabletów, choć firma NextNav deklaruje, że byłyby one nieznaczne. Chwali się ponadto, że w porównaniu z GPS-em system MBS oferuje znacznie szybszą inicjalizację pomiaru (nawet 6 sekund) i wymaga mniejszego poboru energii. Brzmi ciekawe, ale czekamy na pierwsze poważne wdrożenia.

Szukając hot-spota

Zróbmy krótki eksperyment: sprawdź, drogi Czytelniku, ile w tym momencie Twój smartfon, tablet czy komputer widzi sieci wi-fi? O ile mieszkasz wśród gęstej zabudowy, możesz ich mieć od kilku do nawet kilkudziesięciu. Czy da się wykorzystać te sygnały radiowe w wyznaczaniu pozycji? Nie dość, że się da, to od ładnych paru lat jest to powszechnie znana technologia! Jej podstawową zaletą jest to, nie wymaga budowania specjalistycznej infrastruktury – bez problemu wykorzystuje nawet te sieci, do których nie mamy hasła. Ponadto dzięki niewielkiemu zasięgowi poszczególnych sieci wi-fi (do około 150 m) metoda ta siłą rzeczy oferuje niezłą dokładność – od kilkunastu do około 5 metrów. Błąd można jeszcze bardziej zredukować (nawet do 2 metrów), jeśli w danym budynku założymy specjalne sieci, które – podobnie jak satelity GPS – będą nadawały informacje o aktualnym, precyzyjnym czasie.

Zasadniczą wadą WPS (Wi-fi Positioning System) jest konieczność posiadania dostępu do możliwie jak najpełniejszej i jak najbardziej aktualnej bazy danych o sieciach wi-fi na świecie. Do dziś powstało ich 9 – jest więc w czym wybierać, sęk w tym, że nie zapiszemy sobie przecież takiej bazy na smartfonie (największa ma ponad miliard rekordów!). Korzystanie z WPS wymaga więc dostępu do internetu, co dla niektórych użytkowników może być problemem. Poza tym wciąż wiele budynków nie posiada żadnych sieci wi-fi.

 Mapa sieci wi-fi w zasobach otwartego projektu Mozilla Location Service

3_wps

Mimo tych wad to właśnie WPS postrzegany jest jako główny kandydat to tytułu międzynarodowego, uniwersalnego standardu wyznaczania pozycji wewnątrz budynków. Naukowcy już roztaczają wizję ogólnoświatowego systemu IPS (Indoor Positioning System). Kluczem do jego sukcesu miałoby być zaprzęgnięcie wszystkich smartfonów i tabletów do ciągłej aktualizacji jednej, centralnej bazy sieci wi-fi.

W objęciach Sinozębego

Inna popularna kategoria sygnałów radiowych to Bluetooth – standard obsługiwany już chyba przez wszystkie smartfony, tablety czy laptopy. Ale czy można je wykorzystać w nawigacji, skoro są nadawane w dużej mierze przez urządzenia mobilne? Można, o ile ich źródłem są tzw. beacony, czyli niewielkie nadajniki o niskim poborze mocy i o stałej pozycji. Ich użycie pozwala lokalizować użytkownika z dokładnością dochodzącą nawet do jednego metra, choć znów – tak jak w przypadku wi-fi – wynikowy błąd zależy w dużej mierze od gęstości infrastruktury: im więcej beaconów, tym jest mniejszy.

Interesującym przykładem wykorzystania tej metody jest polski projekt Virtualna Warszawa wyróżniony w międzynarodowym konkursie „Mayors Challenge”. Zakłada on rozmieszczenie beaconów Bluetooth we wszystkich urzędach warszawskiego ratusza, a nawet w poszczególnych autobusach czy tramwajach (wyposażonych dodatkowo w GPS) oraz w pobliżu atrakcji turystycznych. Do tego stworzona zostanie specjalna aplikacja mobilna, która będzie w stanie na podstawie sygnałów z tych beaconów wyznaczać pozycję i nawigować użytkownika do odpowiedniego okienka w urzędzie czy właściwego autobusu.

 Beacony Bluetooth wykorzystywane w projekcie Virtualna Warszawa

4

Zaletą rozwiązania jest gotowość do użycia na większości urządzeń mobilnych. Zasadniczą wadą jest natomiast konieczność budowy złożonej infrastruktury beconów (z których każdy wymaga zasilania), która w zasadzie może być użytkowana tylko przez jedną aplikację. Za Virtualną Warszawę trzymamy kciuki, ale podobne rozwiązania raczej nie staną się międzynarodowym standardem.

Sklepowy pomysł

Chyba każdemu choć raz zdarzyła się nieprzyjemna sytuacja, gdy podczas wychodzenia ze sklepu niesłusznie zawyły bramki wykrywające kradzież towaru. Przyczyną tego zamieszania są niepozorne naklejki będące tzw. układami RFID (Radio-frequency identification). Ich działanie polega na przekazywaniu poprzez fale radiowe krótkiej informacji pomiędzy znacznikiem a czytnikiem. W przypadku znanych nam bramek sklepowych mamy do czynienia z tzw. znacznikami pasywnymi, czyli takimi, które nie mają zasilania, a fale radiowe emitują pod wpływem pola magnetycznego. Zasięg ich działania wynosi maksymalnie 1-2 metry. Są również znaczniki aktywne, które posiadają własne źródło zasilania i dzięki temu zasięg ich działania jest większy (nawet do 200 m).

RFID może służyć nie tylko do informowania o potencjalnym złodzieju, ale także przekazywać do czytnika dane o pozycji znacznika. Dokładność takiego systemu pozycjonowania jest w dużej mierze uzależniona od liczby znaczników – w skrajnym przypadku może wynosić nawet kilka centymetrów, wiązałoby się to jednak z koniecznością rozmieszczenia sporej liczby znaczników. Zresztą, nawet jeśli zależałoby nam tylko na metrach, objęcie sporego budynku tą technologią jest nie lada wyzwaniem logistycznym. Z tego względu trudno oczekiwać, by pozycjonowanie RFID stało się powszechne, choć w niektórych przypadkach, choćby przy taśmach produkcyjnych czy w rozległych magazynach, może się świetnie sprawdzać.

 Typowy pasywny znacznik RFID zabezpieczający towar przed kradzieżą (fot. Maschinenjunge/Wikipedia)

5_rfid

Satelitarny wzmacniacz

A może rozwiązaniem problemu nawigacji wewnątrz budynków jest po prostu obniżenie orbity satelitów nawigacyjnych i zwiększenie mocy ich sygnałów nawigacyjnych? Z tego założenia wyszli twórcy zaprezentowanego w tym roku systemu STL (Satellite Time and Location). Rozwiązanie wykorzystuje sieć 66 satelitów telekomunikacyjnych Iridium orbitujących na wysokości blisko 800 km nad Ziemią do retransmisji sygnałów GPS. Mogą one służyć nie tylko jako wsparcie tego amerykańskiego systemu w miejscach o trudnych warunkach pomiarowych, ale również do autonomicznego wyznaczania pozycji. Są jednak trzy „ale”. Po pierwsze, dostęp do STL jest płatny, co przesądza o tym, że nie powtórzy on sukcesu GPS-a. Po drugie, w trybie autonomicznym umożliwia osiągniecie dokładności raptem 50 metrów, i to po 2-minutowej inicjalizacji (po wydłużeniu tego czasu do 10 minut dokładność rośnie do 20 metrów, co jest wciąż sporą wartością). Po trzecie, implementacja STL wymaga ingerencji w hardware odbiornika GPS.

 Konstelacja satelitów Iridium

22807_iridium_satelite_coverage_network_reliablitliy

Na marginesie warto dodać ciekawostkę, że wyznaczanie pozycji za pomocą STL bazuje nie tylko na pomiarze czasu lotu sygnału od satelity do odbiornika, jak to jest w przypadku GPS-a, ale także na pomiarze tzw. efektu Dopplera. Dzięki temu do korzystania z tego rozwiązania nie potrzeba minimum czterech satelitów nawigacyjnych (o co, nawiasem mówiąc, w przypadku konstelacji Iridium jest ciężko).

Idź w stronę światła

Popuśćmy jednak wodze fantazji i nie ograniczajmy się wyłącznie do sygnałów radiowych! Może do wyznaczania pozycji wystarczy światło? Owszem! Udowadnia to technologia VLC (Visible Light Communication). Zasada jej działania jest prosta i niezwykle praktyczna. W pomieszczeniu, które chcemy objąć tym rozwiązaniem, umieszczamy diody LED. Dla naszych oczu są one zwykłym elementem oświetlenia, ale już aparat w smartfonie „dostrzeże”, że światło to jest modulowane, tak by przekazywać informację o naszych współrzędnych. By skorzystać z systemu VLC, wystarczy zainstalować specjalną aplikację w urządzeniu mobilnym. Co ciekawe, system ten szybko zdobywa popularność w centrach handlowych.

Siłą inercji

Opisane wyżej technologie przeznaczone są przede wszystkim do mniej lub bardziej dokładnej nawigacji. Część czytelników z niecierpliwością czeka natomiast na coś o tym, co jest tematem tego blogu, czyli dokładne pomiary. Tu największą popularnością cieszą się inercyjne jednostki pomiarowe IMU – urządzenia składające się z żyroskopów, przyśpieszeniomierzy i czasem również magnetometrów, które odtwarzają prędkość oraz kierunek ruchu użytkownika. IMU stały się popularne przede wszystkim w mobilnych systemach kartowania, ponadto są coraz częściej stosowane w bardziej rozwiniętych systemach nawigacji, które mogą wyznaczać pozycję nawet po utracie widoczności satelitów GPS (np. w tunelach czy na parkingach podziemnych). Dokładność tego typu sprzętu jest bardzo różna – od centymetrów do metrów, obowiązuje tu jednak naczelna zasada: im dłużej nie mamy sygnału GPS, tym błąd pomiaru jest większy.

To kluczowa wada IMU. Inną jest wysoka cena sprzętu idąca nawet w dziesiątki tysięcy dolarów, a także wymiary, znacznie większe niż w przypadku odbiornika GPS. Trzeba jednak przyznać, że postęp technologiczny sprawia, iż urządzenia te błyskawicznie tanieją i maleją. Dowodem jest choćby nowy moduł NEO-M8L szwajcarskiej firmy u-blox przeznaczony dla przemysłu motoryzacyjnego. Jego deklarowana dokładność wynosi 2% dystansu pokonanego bez sygnału GPS, a wymiary to raptem 12,2 x 16,0 x 2,4 mm. Bez wątpienia upowszechnienie się tego tymi sensorów w smartfonach czy tabletach to kwestia kilku najbliższych lat.

 Profesjonalny sensor IMU firmy Applanix. Choć tego typu urządzenia zajmują coraz mniej miejsca, to są wciąż większe od modułów do nawigacji satelitarnej

7_imu

Wystarczy algorytm?

Zupełnie inne podejście do tematu reprezentuje technologia SLAM (Simultaneous Localization and Mapping). Tu do wyznaczania pozycji nie są potrzebne żadne sygnały nawigacyjne, ale pozyskiwane na bieżąco dane przestrzenne przetwarzane przez specjalny algorytm. Krótko mówiąc, urządzenie pozycjonowane jest na podstawie danych gromadzonych w trakcie jego ruchu. Jednym z popularnych wdrożeń technologii SLAM jest skaner laserowy Zeb1, który skanuje, wychylając się na specjalnej sprężynie (stąd pieszczotliwie nazywany jest „kropidłem”). Według zapewnień producenta, najnowsza odsłona tego urządzenia umożliwia pomiar nawet do 43 tys. punktów na sekundę z dokładnością 0,1% pokonanej odległości, i to bez dostępu do sygnałów GPS. Robi wrażenie!

Skaner Zeb1 firmy GeoSLAM do wyznaczania współrzędnych chmury punktów wykorzystuje algorytmy SLAM

8a_slam

Ale konkurencja nie śpi i przygotowuje własne systemy kartowania wnętrz bazujące na SLAM, czego przykładem jest nagrodzony na międzynarodowych targach geodezyjnych Intergeo 2015 zestaw Pegasus:Backpack firmy Leica Geosystems.

 Mobilny system kartowania wnętrz Leica Pegasus:Backpack

8b_leica

Dodajmy, że wiele wskazuje na to, że technologia SLAM dość szybko trafi „pod strzechy”. Wszystko za sprawą innowacyjnego tabletu Tango firmy Google (więcej o nim we wcześniejszym wpisie na blogu). Za pomocą wbudowanego sensora głębi jest on w stanie szybko zbierać gęstą chmurę punktów, która dzięki algorytmom SLAM może posłużyć do nawigowania we wnętrzach budynków oraz ich dość dokładnego pomiaru.

Jak magnes

Jednym z bardziej nietypowych pomysłów na nawigację wewnątrz budynków jest wymyślony przez fińskich naukowców IndoorAtlas. Twierdzą oni, że uniwersalnym sposobem na rozwiązanie tego problemu może być… pole magnetyczne. Duże ilości metali stosowane w budownictwie sprawiają, że naturalne pole magnetyczne Ziemi jest zaburzane. Wystarczy więc zmierzyć lokalny charakter tych zaburzeń i na tej podstawie da się określić pozycję.

Jak to zrobić? Wystarczy użyć elektronicznego kompasu, który jest już standardowym wyposażeniem większości smartfonów. Wcześniej jednak administrator budynku musi skartować lokalne pole magnetyczne, a wyniki pomiarów udostępnić użytkownikom przez specjalną aplikację. Twórcy technologii twierdzą, że oferuje ona dokładność nawet na poziomie 3 metrów. Założenia IndoorAtlas wyglądają więc bardzo obiecująco. Niestety, od momentu zaprezentowania tej technologii w 2012 roku zrobiło się o niej cicho i trudno wskazać jakieś jej poważniejsze wdrożenia.

Czekając na rewolucję

Jak widać z tego pobieżnego przeglądu technologii, choć metod wyznaczania pozycji wewnątrz budynków jest sporo (a nie wyczerpaliśmy jeszcze tematu), trudno powiedzieć, która stanie się tą jedyną, uniwersalną. A może po prostu jesteśmy skazani na łączenie kilku rozwiązań? Jedno jest pewne. Odpowiedź na to pytanie poznamy dość szybko, bo presja na znalezienie odpowiednika GPS-a działającego „w czterech ścianach” jest ogromna.

Wystarczy przytoczyć wyniki badań, które wskazują, że nasz smartfon czy tablet blisko przez 70% czasu jest używany właśnie we wnętrzach budynku. Jeśli uda się opracować skuteczną i dokładną metodę wyznaczania pozycji wewnątrz budynku, otworzy to ogromne możliwości biznesowe – zarówno w branży usług lokalizacyjnych, jak i w geodezji, kartografii, budownictwie czy w innych profesjonalnych zastosowaniach. W najbliższych latach czeka nas więc zalew nowych, mniej lub bardziej rewolucyjnych rozwiązań pomiarowych, co oznacza… mnóstwo ciekawych tematów do opisywania na naszym blogu!

[products]

Przyszłość GNSS: jest pięknie, a będzie jeszcze lepiej

Jeszcze niedawno cywilna nawigacja satelitarna ograniczała się do jednego systemu, jednej częstotliwości i dwóch tuzinów satelitów. Za kilka lat te wartości będą kilkukrotnie wyższa. Wszystko świetnie, tylko co z tego będzie mieć przeciętny zjadacz chleba? Ano, całkiem sporo praktycznych korzyści!

Aby móc wyznaczyć pozycję, potrzeba ich minimum cztery. Sęk w tym, że przy takiej właśnie liczbie inicjalizacja pomiarów (zwana „łapaniem fiksa”) trwa stosunkowo długo – nawet kilka minut. A gdy już mamy to za sobą, to z powodu niekorzystnego układu satelitów dokładność pomiaru spada z kilku do nawet kilkudziesięciu metrów.

Korzystając tylko z jednego globalnego systemu nawigacji satelitarnej (GNSS – Global Navigation Satellite System), takie sytuacje wcale nie należą do rzadkości. Można się o tym przekonać, bawiąc się narzędziem do planowania pomiarów satelitarnych. Przykładowo, w Warszawie przy idealnie odsłoniętym niebie i korzystaniu tylko z jednego systemu nawigacji (tj. GPS) nasz odbiornik „widzi” 11-15 satelitów. Nieźle! Ale w obszarze mocno zabudowanym (załóżmy, że przy horyzoncie zasłoniętym do wysokości 45 stopni) ta liczba spada już do 3-6. Ze złapaniem fiksa może być więc kłopot.

Liczba satelitów nawigacyjnych widocznych przynajmniej 45 stopni powyżej horyzontu w Warszawie. Jak widać, im więcej systemów, tym większa szansa złapania fiksa

warszawa_wykres

Problem rozwiązuje dodanie nowych systemów – rosyjski GLONASS zwiększy tę liczbę do maksymalnie 8, jeśli dorzucić jeszcze europejski Galileo, będzie to już 9, a razem z chińskim BeiDou – do 11. A większość tych systemów jest wciąż rozbudowywanych, więc wartości te wkrótce wzrosną! Zarówno dla amatorów, jak i profesjonalistów oznacza to znacznie szybszego fiksa i wyraźnie dokładniejszy pomiar – szczególnie w mieście, lesie czy w górach.

Jak to jednak w życiu bywa, nie ma róży bez kolców – odbiór większej liczby satelitów oznacza zauważalny wzrost zużycia energii. Z tego powodu w amatorskich urządzeniach dodatkowe systemy włączane są dopiero w trudniejszych warunkach pomiarowych. W bardziej profesjonalnym sprzęcie możemy na ogół ręcznie włączać i wyłączać wybrane systemy.

Tak zmieniała się i będzie się zmieniać liczba satelitów GNSS. Systemy WAAS, EGNOS, GAGAN, MSAS i SDCM to rozwiązania, o których tu nie piszemy. Nie są to bowiem satelity nadające typowe sygnały nawigacyjne, ale poprawki do nich (fot. raport roczny projektu Multi-GNSS)

gnss_wykres

A co nam po dodatkowych częstotliwościach? Te zapewniają przede wszystkim wyższą dokładność pomiaru. Jak to możliwe? Otóż w jonosferze sygnał satelitarny nie biegnie idealnie po linii prostej, a jego prędkość się zmienia. Tak powstaje tzw. opóźnienie jonosferyczne – jedna z bardziej znaczących składowych błędu pomiarów GNSS (od kilku do nawet kilkudziesięciu metrów). A co ma on wspólnego z dodatkowymi sygnałami satelitarnymi? Otóż opóźnienie dla każdej częstotliwości jest inne. Jeśli więc odbiornik śledzi dwie częstotliwości nadawane z tego samego satelity, to można w dużym stopniu wyeliminować błąd związany z tym zjawiskiem. Inna zaleta płynąca z wielu częstotliwości to zwiększa wiarygodność pomiaru, np. w razie celowego lub przypadkowego zakłócania lub awarii jednego z nadajników satelity.

Poza tym nowe sygnały GNSS to nowe możliwości – np. jeszcze lepsza dokładność pomiaru czy zwiększona odporność na zakłócenia. Dedykowane częstotliwości mają lub będą mieć np. piloci, armia, służby ratunkowe i porządkowe lub… ci, co za dostęp do nich zapłacą. Zasadniczą wadą pracy na kilku częstotliwościach jest natomiast kilkukrotnie wyższa cena odbiornika. Patrząc jednak na ewolucję rynku GNSS, nie ma wątpliwości, że będzie ona szybko spadać.

Wszystkie te możliwości brzmią pięknie, szkoda tylko, że trochę musimy jeszcze na nie poczekać. Budowa i modernizacja systemów GNSS idzie bowiem jak krew z nosa.

GPS trwa i trwa maćgps

Tak jak marka Adidas stała się powszechnym określeniem sportowych butów, tak GPS został synonimem nawigacji satelitarnej. Nic dziwnego, wszak to pierwszy i przez długi czas jedyny system GNSS. Wydaje się więc, że jego funkcjonowanie jest czymś oczywistym. Otóż, niekoniecznie! Wprawdzie obecnie administratorzy GPS-a chwalą się rekordowym tempem wystrzeliwania satelitów (w 2014 i 2015 r. wyniesiono ich aż 7), to perspektywy na najbliższą przyszłość rysują się w ciemnych barwach.

Obecnie kończy się wystrzeliwanie aparatów generacji IIF (wyniesiono już 11 z 12). Wyróżnia je m.in. nadawanie już na trzech cywilnych częstotliwościach (oprócz podstawowego kanału L1, również na nowych L2C i L5) oraz na nowym wojskowym kanale M, a także większa odporność emitowanych sygnałów na celowe lub przypadkowe zakłócanie.

W następnej kolejności na orbity miały trafiać satelity trzeciej generacji. Ich najważniejszym wyróżnikiem miało być nadawanie na udoskonalonym podstawowym cywilnym kanale L1 (to ten, który jest śledzony przez nasze smartfony i tablety), który ma zostać przemianowany na L1C. Ta dodatkowa literka to wbrew pozorom zapowiedź sporej zmiany.

Po pierwsze, sygnał ma być bardziej zbliżony do tego nadawanego przez Galileo, co oznacza lepsze i tańsze odbiorniki wielosystemowe. Po drugie, L1C ma mieć większą moc niż L1, co przełoży się na lepsze wyznaczanie pozycji w trudnych warunkach pomiarowych, w tym większą odporność za zakłócanie, i to dla wszystkich użytkowników systemu. Poza tym satelity III generacji miały zapewnić globalną dostępność sygnału L2C (przeznaczonego dla geodezji i GIS-u) oraz L5 (dla służb ratowniczych i lotnictwa).

Miały, ale ich wystrzelenie mocno się opóźnia. Start pierwszego aparatu tego bloku wstępnie planowano na rok 2014, ale wskutek problemów technicznych przesunięto go na rok 2017 (na razie). Oznacza to, że na pełne pokrycie świata sygnałami L2C trzeba poczekać do roku 2018, a w przypadku L5 – do 2021 r.

Aktualna dostępność sygnału GPS L2C, który ma ułatwić wykonywanie dokładnych pomiarów satelitarnych. Dodajmy, że na razie sygnał jest w fazie testów. Ma się to zmienić wkrótce (fot. GPS Directorate)

gps_mapa1

Aktualna dostępność sygnału GPS L5, który ma służyć przede wszystkim służbom ratunkowym. Dodajmy, że na razie sygnał jest w fazie testów. Ma się to zmienić wkrótce (fot. GPS Directorate)

gps_mapa2

Co gorsza, by uruchomić nowe możliwości satelitów III generacji potrzeba zmodernizować segment naziemny do tzw. standardu OCX. Niestety, i to się mocno opóźnia. Możliwe, że rozwiązanie to będzie gotowe dopiero w roku 2023! Zaniepokojony tym poślizgiem amerykański odpowiednik NIK-u alarmuje, że za kilka lat nie da się wykluczyć lokalnych niedostępności takiej liczby satelitów GPS, która jest niezbędna do złapania fiksa. Administrator systemu zarzeka się jednak, że taka sytuacja jest wykluczona.

Polityczny GLONASSglonass

Ewolucja rosyjskiego systemu nawigacji jest ściśle związana z najnowszą historią tego kraju. Pomysł budowy systemu był oczywiście zimnowojenną odpowiedzią na plany uruchomienia GPS. GLONASS udało się jednak uruchomić już po upadku „żelaznej kurtyny”, w 1995 roku. Raptem kilka lat później, wskutek kłopotów gospodarczych związanych m.in. z pierestrojką, starty kolejnych satelitów wstrzymano, a liczebność konstelacji szybko spadła poniżej 24 aparatów, niezbędnych do utrzymania globalnej dostępności sygnałów.

Losy systemu odwróciły się, gdy na Kremlu zasiadł Władimir Putin, dla którego GLONASS stał się oczkiem w głowie. Nie tylko zwiększył on finansowanie systemu, tak że w 2011 roku udało się ponownie ogłosić jego pełną operacyjność, ale także – strasząc cłami zaporowymi – zmusił producentów elektroniki do montowania w swych urządzeniach odbiorników śledzących również GLONASS. To właśnie dzięki temu obsługa tego systemu w smartfonach i tabletach stała się standardem.

Władimir Putin z urządzeniem nawigacyjnym systemu GLONASS – władca Rosji nawet nie ukrywa, że GLONASS to jego oczko w głowie. Gdyby nie jego zaangażowanie, system z pewnością by upadł (fot. Kremlin.ru)

glonass_wp

Teraz – jak wiadomo – w Rosji znów nie dzieje się najlepiej. Dla GLONASS-a problemem okazały się sankcje gospodarcze nałożone na ten kraj, w wyniku których Rosjanie nie mogą sprowadzać niektórych komponentów satelitów nowej generacji K. A blok ten miał wprowadzić w tym systemie sporo zmian. Nowe aparaty mają być lżejsze, być bardziej żywotne, oferować nawet 4-krotnie wyższą dokładność pozycjonowania i nadawać na nowym cywilnym kanale L3. Bodaj najważniejszą nowością jest jednak zmiana technologii wielodostępu z FDMA na CDMA. Mówiąc po ludzku: chodzi tu o zwiększenie kompatybilności GLONASS z systemami GPS i Galileo, co przełoży się na łatwiejszą (a więc i tańszą) produkcję odbiorników wielosystemowych.

Satelity GLONASS poruszają się po trzech płaszczyznach orbitalnych. Wyróżnikiem tej konstelacji jest duży kąt inklinacji orbit, co – mówiąc prościej – oznacza, że satelity GLONASS są lepiej widoczne na wysokich szerokościach geograficznych (fot. Roscosmos)

glonass_konstelacja

Na razie na orbicie znajdują się tylko dwa satelity generacji K1, oferującej tylko wybrane nowości przewidziane w bloku K. Wszystkie „atrakcje” będzie mieć dopiero blok K2 – na pierwsze satelity tego typu musimy jednak poczekać przynajmniej do 2018 roku. Kolejne lata muszą minąć, nim zostanie osiągnięte globalne pokrycie nowymi sygnałami.

Galileo: a to Europa właśniegalileo

Europejski system nawigacji Galileo niczym w zwierciadle pokazuje niedomagania organizacyjne Unii Europejskiej. Nawet jeśli Wspólnota wpadnie na ambitny i przydatny pomysł, to biurokratyczne tryby będą go tak długo mieliły, że niektórzy stracą zapał do jego realizacji. Powiedzmy tylko tyle, że prace nad Galileo ruszyły już na początku XXI wieku, a system wraz z 30 satelitami miał być gotowy koło 2014 roku. Mamy rok 2016, a aparatów jest tylko 12, z czego część niesprawna.

Galileo ma docelowo składać się z 30 satelitów, z czego 6 ma mieć charakter rezerwowych (fot. ESA)

galileo_konstelacja

Tymczasem idea Galileo jest jak najbardziej słuszna. Wyjątkowość systemu polega przede wszystkim na tym, że będzie to pierwsze cywilne rozwiązanie GNSS. Oczywiście z dobrodziejstw GPS czy GLONASS również mogą korzystać cywile, ale są to systemy przede wszystkim wojskowe. Oznacza to, że w razie (odpukać) wojny dostępność takiego systemu mogłaby zostać ograniczona. W przypadku Galileo jest to zaś wykluczone.

Kolejna zaleta Galileo to dodatkowe usługi cywilne. Podobnie jak w innych systemach, mamy oczywiście darmową usługę otwartą. Oprócz niej europejscy decydenci przewidzieli jednak jeszcze dwa serwisy. Tzw. usługa regulowana publicznie (PRS – Public Regulated Service) ma zapewnić odrębny, szyfrowany sygnał uprawnionym służbom, np. policji czy pogotowiu. Ma go wyróżniać przede wszystkim zwiększone bezpieczeństwo, czyli lepsza odporność na zagłuszanie i tzw. spoofing (podszywanie się pod system). Drugim nowym serwisem będzie płatna usługa komercyjna (CS – Commercial Service). Dzięki zastosowaniu dodatkowych dwóch kanałów rozwiązanie ma zagwarantować wyższą wiarygodność oraz dokładność wyznaczania pozycji. Choć na razie administratorzy Galileo jak ognia unikają podawania konkretnych liczb, wiadomo że dokładność tej usługi ma być liczona bardziej w centymetrach niż w metrach.

Kiedy się doczekamy tych dobrodziejstw? Decydenci w Brukseli mówią, że już w tym roku, gdy zostanie ogłoszona częściowa operacyjność systemu (potrzeba do tego 16 sprawnych satelitów). Pełna operacyjność (wymagająca 30 satelitów) ma zostać osiągnięta w 2020 roku. Czy te plany są realne? Z jednej strony pozytywnie nastraja fakt, że najtrudniejsze etapy budowy system ma już za sobą. Teoretycznie wystarczy bowiem wystrzeliwać satelity wykonane wg jednego projektu, których poprawność działania została już dowiedziona. A starty jeszcze w tym roku mają mocno przyspieszyć. Zamiast mieszczących dwa satelity rosyjskich Sojuzów UE chce zacząć wykorzystywać znacznie większe rakiety Ariane, zdolne wynieść za jednym zamachem aż 4 aparaty. Ale z drugiej strony, jeśli chodzi o systemy GNSS, to licho przecież nie śpi. Przekonaliśmy się o tym choćby latem 2014 roku, gdy wskutek usterki w Sojuzie dwa aparaty trafiły na orbitę eliptyczną zamiast kołowej. Do dziś nie wiadomo, czy maszyny będą mogły zostać włączone do konstelacji Galileo.

Efekt złego wystrzelenia dwóch satelitów Galileo w sierpniu 2014 r. Zamiast na orbicie kołowej (kolor zielony) aparaty trafiły na eliptyczną (czerwony) (fot. ESA)

galileo_orbita

BeiDou: tisze jediesz, dalsze budieszbeidou

Choć porzekadło jest rosyjskie, nieźle pasuje do chińskiego systemu nawigacji. Ten wydaje się bowiem powstawać bez większych problemów. Użyliśmy słów „wydaje się”, bo trudno powiedzieć, ile w tym szczęścia, a ile oszczędnego dawkowania informacji (np. Chińczycy informują o startach satelitów dopiero po fakcie). Faktem jest jednak, że system powstaje dość sprawnie. Co ciekawe, jego budowa zaczęła się w… Europie! Początkowo Chińczycy mieli uczestniczyć w projekcie Galileo, ale zniecierpliwieni europejską machiną biurokratyczną postanowili zbudować własny system, który najpierw ochrzcili jako Compass, a później przemianowali na BeiDou (co oznacza Wielki Wóz).

Chiński system nawigacji wyróżnia to, że jego satelity znajdują się na aż trzech różnych typach orbit – średniej (podobnie jak w systemach GPS, GLONASS i Galileo), geosynchronicznej oraz geostacjonarnej (fot. CSNO)

beidou_orbity

Pierwszym sporym sukcesem projektu było ogłoszenie na początku 2013 roku jego operacyjności w regionie Azji i Pacyfiku. Za kolejny można uznać udostępnienie w 2014 r. drugiego cywilnego sygnału satelitarnego (oznaczonego jako B2I). Podkreślmy, że to pierwszy system GNSS, który to osiągnął! Trzecim ważnym momentem jest wystrzelenie w 2015 r. pierwszego (z 17) satelity BeiDou III generacji. Aparaty wyróżnia przede wszystkim większa kompatybilność nadawanych sygnałów z systemami GPS i Galileo.

Aktualny zasięg systemu BeiDou (fot. Wikipedia)

beidou_mapa

Oficjalna data uruchomienia pełnej operacyjności BeiDou na całym świecie to rok 2020, ale eksperci zauważają, że budowa systemu mocno wyprzedza dotychczasowe plany. Nie wykluczone więc, że korki od szampana będzie można otwierać już w 2017 roku!

Orientalne ciekawostki

Warto wspomnieć jeszcze o dwóch inicjatywach, które choć nie będą dostępne dla użytkowników w Polsce, to są po prostu ciekawe. Pierwsza z nich to IRNSS (Indian Regional Navigation Satellite System) – indyjski system, który ma mieć wyłącznie zasięg lokalny. Będzie się składać tylko z 7 satelitów, ale ich orbity dobrano tak, by taka liczba wystarczała do samodzielnego wyznaczania pozycji w Indiach i krajach sąsiednich. Dokładność pozycjonowania z wykorzystaniem IRNSS ma wynosić 10-20 metrów, czyli ponad 2 razy gorzej od konkurencji. System ma być gotowy jeszcze w tym roku.

Inną koncepcję przyjęli Japończycy, budując QZSS (Quasi-Zenith Satellite System). Ten system w pierwszej fazie będzie składać się z 4 satelitów, które (inaczej niż IRNSS) nie mają tworzyć rozwiązania samodzielnego, ale wspierające GPS. Orbity aparatów dobrano tak, aby na obszarze Japonii przynajmniej jeden satelita zawsze znajdował się w okolicach zenitu, co – jak wiadomo – najlepiej sprzyja pomiarom satelitarnym. Oprócz tego QZSS zaoferuje poprawki, które zwiększają dokładność pomiaru. W zależności od usługi – od poziomu submetrowego do nawet centymetrowego. Aktualnie system składa się z jednego satelity, do 2018 ma być ich 4, a w następnej dekadzie – nawet 7.

Nietypowa orbita japońskiego systemu QZSS sprawia, że aparaty w Japonii widoczne są w okolicach zenitu (fot. CAO)

qzss

Warto zwrócić uwagę, że jeśli ziszczą się plany systemów IRNSS, QZSS oraz BeiDou, Azja będzie obszarem o największej gęstości nawigacyjnych sygnałów satelitarnych. W zasięgu jednego odbiornika może być ich nawet ponad 35! Wprawdzie w Europie możemy liczyć tylko na około 20, ale to przecież i tak aż 5 razy więcej niż obowiązkowa czwórka!

Tak w 2020 roku będzie wyglądała dostępność satelitów GNSS, i to 30 stopni ponad horyzontem. Jak widać, najwięcej, bo blisko 35, będzie dostępnych w Azji Południowo-Wschodniej (fot. raport roczny projektu Multi-GNSS)

gnss_mapa

Szkic pomieszczeń ze Stanley Floor Plan – techniki obrazowe, cz. II

Jeśli ktoś chce wykonać plan pomieszczeń, dotychczas potrzebował miarki, ołówka i sporo czasu. Bardziej nowocześni i majętni wykorzystują dalmierz laserowy. Tymczasem firma Stanley przekonuje, że wystarczy użyć bezpłatnej aplikacji Floor Plan. Znany producent narzędzi, w tym dalmierzy laserowych, oferuje darmowe rozwiązanie, które wyprze jego własne produkty? Gdzie tkwi haczyk?

Użyj kamery w smartfonie

Pierwszą opisywaną na blogu aplikacją, która wykorzystuje techniki obrazowe do zadań inwentaryzacyjnych, było narzędzie ON 3D-CameraMeasure. Jak zapewne pamiętacie, zastosowaliśmy ją do zgrubnego obmiaru otworów okiennych w elewacji budynku, a wyniki z pomiarów telefonem wyposażonym w kamerę były naprawdę zadowalające.

Przyszedł więc czas na przedstawienie kolejnego narzędzia, które również bazuje na technikach obrazowych (kamera cyfrowa), ale zasada działania Stanley Floor Plan jest troszeczkę inna, bardziej zautomatyzowana, przeznaczona do wykonywania szybkich inwentaryzacji pomieszczeń i wykonywania z nich nawet prostych modeli 3D. Czy jest ona lepsza, dokładniejsza i czy sprawdzi się w terenie i w zadaniach realizowanych przez architektów wnętrz? Przekonajcie się i sami oceńcie aplikację Stanleya. Zapraszamy do lektury.

Na czym i skąd?

Aplikację Stanley Floor Plan można pobrać za darmo z Google Play oraz AppStore. Choć można ją zainstalować na każdym smartfonie/tablecie z systemami operacyjnymi Android (4.0 i wyższy) oraz iOS (7.0 i wyższy), to sprzęt ten musi posiadać wbudowany żyroskop. Bo właśnie odczyty z tego sensora aplikacja wykorzystuje do obliczeń. Zapewne większość rynkowych urządzeń mobilnych jest wyposażona w ten gadżet, to jednak warto przed rozpoczęciem pomiarów sprawdzić dane techniczne naszego smartfona/tabletu.

Aplikacja Stanley Floor Plan jest oferowana w trzech wersjach:

  • darmowej – pomiar i tworzenie planów,
  • płatnej 2,99$ za każdy zmierzony obiekt i wykonany plan, z opcjami eksportu wyników do plików PDF, JPG, CSV, DXF oraz w postaci interaktywnej wizualizacji do internetu,
  • płatnej 9,99$ na miesiąc, bez ograniczeń w liczbie wykonanych pomiarów, z opcjami eksportu wyników do plików PDF, JPG, CSV, DXF oraz w postaci interaktywnej wizualizacji do internetu, edycja obiektów na planie.

Firma Stanley dodała do wachlarza możliwości zwykłego smartfona kolejną opcję – tworzenie precyzyjnych planów zamkniętych pomieszczeń z dokładnością wystarczającą do przeprowadzenia dowolnych prac aranżacyjnych czy remontowych. Dzięki niej telefon staje się kieszonkowym architektem wysokiej klasy. Zasada działania aplikacji jest prosta. Użytkownik wykonuje zdjęcia pomieszczenia, w trybie edycji dodaje na nich obiekty, np. drzwi, a aplikacja sama dokonuje niezbędnych pomiarów i na bieżąco tworzy w ten sposób plan pomieszczeń. Samodzielne wykonanie takiego schematu zajmuje tylko kilka minut, bez konieczności konsultacji z ekspertami, przestawiania mebli czy wykonywania mnóstwa pomiarów lub samodzielnego rysowania.

stanley_01_a

stanley_01_b

stanley_01_c

Ten fragment komunikatu prasowego firmy Stanley brzmi naprawdę zachęcająco! Jak to jednak z reklamą bywa, rzeczywistość okazuje się bardziej złożona. Potwierdził to nasz test, który przeprowadziliśmy za pomocą iPhone’a.

Weryfikacja obietnic

Zacznijmy od tego, co się z komunikatem prasowym zgadza. Aplikacja faktycznie jest prosta w obsłudze i nie wymaga żadnej specjalistycznej wiedzy czy też doświadczenia w mierzeniu pomieszczeń i kreśleniu planów. Interfejs jest prosty i czytelny – od razu skieruje użytkownika do najważniejszej funkcji – mierzenia. Pierwsza niespodzianka: nim przystąpimy do pomiarów, wcale nie trzeba studiować instrukcji obsługi czy folderu pomocy (choć taki przygotowano), bo program przy pierwszym użyciu wyświetli nam krótkie filmy instruktażowe. A nawet jeśli ktoś obejrzał je nieuważnie, to w trakcie pomiarów aplikacja będzie nam podpowiadać wszystkie czynności.

Jak wygląda pomiar pomieszczenia? Na początku kalibrujemy sensory orientacji smartfona/tabletu (żyroskop), co polega po prostu na położeniu go na kilka sekund na płaskiej powierzchni. Następnie stajemy na środku pomieszczenia i kierujemy urządzenie mobilne na dolną część ściany, tak aby pozioma linia widoczna na obrazie wideo pokryła się z linią podłogi. Następnie analogiczną czynność wykonujemy dla linii sufitu (oczywiście na tej samej ścianie), uważając przy tym, by nie zmienić pozycji telefonu (jego wysokości). I tak wyznaczyliśmy wysokość pomieszczenia.

Wskazywanie narożników pomieszczenia na obrazie wideo

stanley_02

Dalej mierzymy kształt pomieszczenia, wskazując na obrazie wideo poszczególne jego narożniki na wysokości podłogi. Cały czas stoimy w jednym miejscu, będąc niczym statyw. Pomiar kończymy wskazując jeszcze raz pierwszy narożnik.

W tym miejscu zaczynają się schody. O ile pomiar pustego pomieszczenia będzie łatwy i szybki, tak w umeblowanym pokoju wielu narożników po prostu nie widać! Co zrobić? Aplikacja sugeruje wprawdzie możliwość pomiaru na wysokości sufitu, ale z drugiej strony w przypadku naszego testu pomiar zakończył się komunikatem, że zbyt często mierzyliśmy w ten sposób, co odbije się niekorzystnie na dokładności pomiaru. Drugi ważny wniosek jest taki, że korzystając z ekranu smartfona, trudno precyzyjnie wskazać róg. Twórcom aplikacji sugerujemy więc np. dodanie opcji zoomu. Do tego czasu użytkownikom Stanley Floor Plan radzimy używać tabletu.

 Gotowy plan pierwszego pokoju

stanley_03

 Aplikacja preferuje pomiar narożników na poziomie podłogi. Co jednak zrobić, gdy są one niewidoczne, bo np. zasłaniają je meble?

stanley_04

Niespieszny pomiar pierwszego pokoju (wraz z obejrzeniem filmów instruktażowych) zajął nam około 15 minut. Po jego zakończeniu na ekranie od razu wyświetlił nam się plan pomieszczenia wraz ze wszystkimi miarami, co pokazuje, że aplikacja działa szybko i nie „zamula” telefonu/tabletu.

Za cel postawiliśmy sobie pomierzenie wszystkich pomieszczeń na piętrze, co – po zdobytych doświadczeniach – poszło błyskawicznie. W przypadku gdy wysokość pozostałych pokoi jest stała, pierwszej części pomiaru nie trzeba powtarzać. Dochodzi nam za to opcja wskazywania oprócz narożników, także drzwi. Po zakończeniu pomiaru kolejnych pomieszczeń definiujemy ich pozycję i orientację na planie poprzez obracanie i przesuwanie. Wszystko banalnie proste, choć pewnym mankamentem wymagającym dopracowania jest przycisk „cofnij”, który w niektórych przypadkach – nie wiedzieć czemu – nie działa. Dodajmy, że plan każdego pokoju można wzbogacić o zdjęcia oraz notatki.

 Dopasowywanie pomieszczeń odbywa się poprzez obracanie i przesuwanie

stanley_05

 Plan każdego pomieszczenia można wzbogacić o notatki i zdjęcia

stanley_06

W tym miejscu warto nadmienić, że oprócz „metody fotograficznej” Stanley Floor Plan oferuje jeszcze dwa tryby pomiaru. Pierwszy polega na zwykłym rysowaniu na ekranie dotykowym. Druga metoda to wypełnianie – praktyczne rozwiązanie do pomiaru ostatniego pomieszczenia otoczonego ze wszystkich stron pomierzonymi już pokojami.

 Dostępne metody pomiaru

stanley_07

Gdy zakończymy pomiar, możemy przystąpić do „meblowania”. Aplikacja posiada imponującą bibliotekę symboli, którymi wypełniamy poszczególne pomieszczenia. Wszystko podzielono na kilkanaście kategorii, tak więc dotarcie do poszukiwanego obiektu nie powinno zająć wiele czasu. Co ważne, wymiary wstawianych obiektów można swobodnie edytować.

 Meblujemy pokój

stanley_08

 Program oferuje bogatą bibliotekę obiektów

stanley_09

Jeśli posiadamy odpowiednio płatną wersję programu, gotowe plany można eksportować do popularnych formatów PDF, JPG, DXF czy CSV, a także publikować w formie interaktywnej wizualizacji w internecie.

Z dokładnością na bakier

Przejdźmy jednak do kwestii fundamentalnej – co z dokładnością? W trakcie mierzenia poszczególnych pomieszczeń można było zachować optymizm – ich kształt „na oko” wydawał się bowiem prawidłowy. Niestety, po złożeniu wszystkich pokoi na piętrze wszystko stało się oczywiste – mamy grube błędy. Przykład: ściany po prawej stronie planu powinny być w jednej linii, a ewidentnie nie są.

 Efekt złożenia wszystkich pomieszczeń na piętrze. Ściany po prawej stronie powinny być w jednej linii

stanley_10

A jak to wygląda w liczbach? Sprawdziliśmy wymiary wybranych kilku ścian z miarką. Okazuje się, że aplikacja w 80% przypadków zawyżała wymiary: średnio o blisko 30 cm, w skrajnym przypadku o 88 cm, a w najlepszym pomyliła się o 7 cm. W liczbach względnych maksymalny błąd wyniósł 28%, minimalny – 3%, a średni – blisko 16%.

Jak te wyniki mają się do zapewnienia producenta, że Stanley Floor Plan umożliwia „tworzenie precyzyjnych planów zamkniętych pomieszczeń z dokładnością wystarczającą do przeprowadzenia dowolnych prac aranżacyjnych czy remontowych”? Odpowiedź pozostawiamy ewentualnym użytkownikom tego narzędzia.

Postawmy jednak sprawę jasno. Wynik ten nie jest dla nas niespodzianką. Jak wspomnieliśmy na wstępie, trudno się spodziewać, by producent proponował darmową aplikację, która mogłaby zastąpić oferowane przez niego urządzenia pomiarowe. Poza tym już po samym sposobie wykonywania pomiarów za pomocą Stanley Floor Plan ciężko spodziewać się szczególnej precyzji. Trudno przecież obracać się idealnie wokół własnej osi, trzymając cały czas tablet w sugerowanej przez producenta odległości 40 cm od ciała. Trudno też – o czym już wspomnieliśmy – precyzyjnie celować na obrazie wideo w kolejne rogi.

Bliższa analiza funkcjonalności Stanley Floor Plan pokazuje, że sam producent w pełni zdaje sobie sprawę z tych ograniczeń. Wymiar każdej ściany czy mebla można bowiem zdefiniować ręcznie – czy to posługując się miarką, czy – co znacznie wygodniejsze – importując wymiar bezpośrednio z dalmierza laserowego wyposażonego w Bluetooth.

 Aplikacja umożliwia zdefiniowanie wymiaru dowolnej ściany lub obiektu ręcznie lub z dalmierza wyposażonego w Bluetooth

stanley_11

Decyzja należy do Ciebie

Podsumujmy test. Aplikację należy pochwalić za wyjątkową prostotę obsługi – spokojnie poradzi sobie z nią nawet osoba odporna na nowinki technologiczne. Na plus zaliczyć należy także zawartość programu – trzy opcje pomiaru pomieszczeń oraz bogatą bibliotekę obiektów. Mieszane uczucia budzi za to dokładność. Z jednej strony to, co można osiągnąć wyłącznie za pomocą aparatu fotograficznego, jest zupełnie niewystarczające do jakichkolwiek prac remontowych i aranżacyjnych. Z drugiej strony… producent nigdzie nie obiecywał, że tak będzie. Udostępnił przecież funkcję, która – koniec końców – umożliwia wykonanie precyzyjnego planu.

Trzeba też przyznać, że w materiałach promocyjnych wspomniano o możliwości wykorzystania dalmierza laserowego. Uczciwie byłoby jednak napisać wprost, że urządzenie to (lub choćby miarka) jest w praktyce niezbędne – dla laika wcale nie jest to takie oczywiste.

Podsumowując, jeśli ktoś chce mierzyć wyłącznie za pomocą aplikacji Stanley Floor Plan, to mocno się zawiedzie. Jeśli jednak wspomóc ją pomiarami dalmierza laserowego z Bluetooth, otrzymujemy świetne narzędzie do szybkiego i łatwego opracowania atrakcyjnego graficznie planu.

3D Disto – nowy soft na Windows

Leica Geosystems udostępniła właśnie najnowszą wersję 4.0 oprogramowania sterującego pracą instrumentu 3D Disto na systemy operacyjne Windows.

Przypomnijmy, że standardowym narzędziem do obsługi skanera Leica 3D Disto jest znajdujący się w walizce niewielki kontroler, który działa na systemie Android. W zupełności wystarcza on do prowadzenia pomiarów niezbyt dużych obiektów, a jego niewątpliwą zaletą są niewielkie gabaryty. Jeśli jednak prace inwentaryzacyjne obejmują dużą liczbę danych (zmierzonych punktów, wiele stanowisk i punktów łącznych), to do obsługi 3D Disto zdecydowanie lepiej użyć tabletu lub laptopa z systemem operacyjnym Windows 7/8/10.

Wszyscy użytkownicy Leica 3D Disto, którzy wraz z instrumentem wykupili dodatkowo płatną licencję na Windows, mogą teraz za darmo pobrać najnowszą wersję 4.0 aplikacji sterującej (z instrukcją obsługi, dostępna także na portalu Leica MyWorld). Wraz z tą aktualizacją szwajcarski producent zapowiedział, że software na Androida w „walizkowym” kontrolerze nie będzie dalej rozwijany.

Najważniejsze zmiany w aplikacji sterującej w wersji 4.0:

Nawigacja 3D widoku szkicu

To najpoważniejsza zmiana w działaniu oprogramowania, która zdecydowanie poprawia komfort pracy. Dotychczasowe widoki z góry i od przodu, przy dużej ilości danych, były często niewystarczające do właściwej interpretacji wyników pomiarów w trakcie ich realizacji. Widok 3D zmierzonych punktów wraz z dodatkowymi narzędziami nawigacyjnymi (powiększanie/pomniejszanie, przesuwanie, swobodna orbita, zdefiniowane widoki góra/dół/przód/tył) pozwalają swobodnie obracać obraz zapisanych punktów i jednoznacznie oceniać poprawność wykonanych pomiarów.

disto_1

disto_2

disto_3

Eksport do pliku DWG

Do dotychczasowych formatów eksportu danych pomiarowych – DXF, TXT i XLS – dodano DWG. Ten format został opracowany przez firmę Autodesk i jest domyślnym formatem rysunku dla wszystkich aplikacji od tego producenta (m.in. AutoCAD). Nowy format ma zapewnić bezproblemową wymianę danych bez ewentualnej utraty niektórych informacji przy konwersji z DXF między 3D Disto a aplikacjami bazującymi na plikach DWG.

disto_4

Uproszczenie działania funkcji skanowania

Skanowania to najistotniejsze i najczęściej używane narzędzie podczas pomiarów inwentaryzacyjnych za pomocą 3D Disto. Inżynierowie uprościli działanie tej funkcji i usprawnili do niej dostęp poprzez dodanie ikony na bocznym pasku narzędziowym. W poprzedniej wersji oprogramowania przed rozpoczęciem skanowania operator musiał wskazać i zmierzyć wysokość odniesienia (tzw. reper). Teraz skanowanie (przekrój poziomy/pionowy/skośny, powierzchnie, pomiar ręczny punktów charakterystycznych) można realizować bez uprzedniego wyznaczania wysokości odniesienia lub określić ją w dowolnym momencie pomiaru.

disto_5

Dodatkowe informacje o mierzonych punktach i liniach

Do rozwijanego paska z podstawowymi informacjami o zmierzonych liniach i punktach (odległość skośna, pozioma, przewyższenie, różnica wysokości) dodano dwie nowe pozycje – przyrosty współrzędnych X i Y. Dane te pozwolą realizować bardziej skomplikowane pomiary realizacyjne, ale także w prostszy sposób badać zależności geometryczne mierzonych elementów (np. pionowość czy prostoliniowość).

disto_6

Możliwość edytowania nazw zdjęć mierzonych punktów

Podczas pomiaru punktów operator może wykonać fotografię szczegółu, która automatycznie zapisuje się w oddzielnym katalogu dołączonym do pliku pomiarowego. Teraz operator może z poziomu aplikacji sterującej dowolnie zmieniać nazwy zdjęć. Podobnie rzecz się ma z fotografiami punktów łącznych, które 3D Disto zapisuje podczas zmiany stanowisk i ich łączenia. Możliwość edycji nazw plików usprawnia późniejszą ich identyfikację w trakcie obróbki danych na komputerze.

disto_7

Usprawniony widok z kamery i przyspieszona obsługa za pomocą joysticka

Na ekranie z obrazem przekazywanym z kamery instrumentu dodano informację o długości ostatnio zmierzonego odcinka. Pozwala to kontrolować poprawność wykonywanych pomiarów bez konieczności przechodzenia do widoku szkicu.

Sterowanie celowaniem za pomocą wirtualnego joysticka na ekranie jest teraz o 50% szybsze, co poprawia wydajność pomiarów.

disto_8

Uproszczona procedura wprowadzania klucza licencyjnego

Teraz, aby w pełni odblokować oprogramowanie, wystarczy wprowadzić jeden klucz licencyjny (na „Leica 3D Disto Software for Windows”). Pozostałe narzędzia pomiarowe, które także mają swoje klucze licencyjne, uruchomią się automatycznie bez potrzeby ich aktywowania kodami. Licencję można również wczytać z zewnętrznego pliku tekstowego.

disto_9

Wszystkich użytkowników instrumentu Leica 3D Disto, którzy kupili go w sklepie mierzymy.pl – w razie pytań i problemów z instalacją nowego oprogramowania oraz połączenia go z instrumentem pomiarowym – serdecznie zachęcam do kontaktu telefonicznego lub mailowego.

Letni konkurs – można wygrać laser lub dalmierz

Sklep mierzymy.pl wraz z firmą Leica Geosystems są fundatorami nagród w konkursie na najciekawsze „wymagające realizacje okienne”. Jego organizatorem jest spółka Aluplast – jeden z największych na rynku polskim dostawca systemów okiennych z PVC.

Zasady konkursu są niezwykle proste. Wystarczy na adres profiokno@aluplast.com.pl wysłać zdjęcie wykonanej przez siebie lub swoją firmę interesującej pod względem technicznym realizacji z zakresu stolarki okienno-drzwiowej. Fotografie można nadsyłać do 10 lipca 2015 r., a wybór przez jury najciekawszej pracy nastąpi 20 lipca 2015 r.

Serdecznie zachęcam do wzięcia udziału w konkursie, ponieważ do wygrania są bardzo ciekawe i wartościowe nagrody – sprzęt pomiarowy dla producentów i montażystów stolarki okiennej i drzwiowej:

I miejscelaser płaszczyznowy Leica Lino L360
II miejscelaser krzyżowy Leica Lino L2+
III miejscedalmierz laserowy Leica Disto X310

Więcej informacji o konkursie i jego regulamin na stronie internetowej firmy Aluplast.

Odbiornik GPS – jak szybko sprawdzić jego dokładność?

Jeśli wierzyć prospektom, dokładność prostego odbiornika GPS – turystycznego czy w smartfonie – wynosi 5-10 metrów. Jednak każdy, kto choćby pobieżne przyjrzał się funkcjonowaniu takiego sprzętu, szybko się zorientował, że błąd pomiaru nierzadko bywa wielokrotnie większy. Czy w takim razie producenci sprzętu nas oszukują?

Niekoniecznie. Rozbieżność między teorią a praktyką wynika, po pierwsze, z tego, że dokładność prezentowana w folderach jest przecież tylko pewnym wskaźnikiem statystycznym (jak mawia przysłowie – są trzy rodzaje prawdy: prawda, półprawda i statystyka). Krótko mówiąc, podawana przez producentów wartość dotyczy tylko pewnego poziomu prawdopodobieństwa.

Drugą przyczyną rozbieżności jest to, że deklarowana dokładność odbiornika wyznaczana jest w optymalnych warunkach pomiarowych, to znaczy przy bardzo dobrej widoczności nieba, z dala od przeszkód terenowych. A przecież w lesie, górach czy w gęstej zabudowie błąd pomiaru może nam urosnąć nawet ponad dziesięciokrotnie. Dlatego tak ważne jest, by samodzielnie sprawdzić dokładność swojego odbiornika. A – jak za chwilę udowodnimy – wcale nie jest to takie trudne.

Co będzie nam potrzebne?

Przede wszystkim oprogramowane, które umożliwi rejestrowanie punktów i linii w popularnych formatach, np. GPX i KML. Jeśli mamy profesjonalny odbiornik (np. klasy GIS lub geodezyjny), wbudowane aplikacje na pewno oferują taką opcję. Z dużym prawdopodobieństwem znajdziemy je także w odbiornikach turystycznych, np. marki Garmin.

Jeśli zaś chodzi o smartfony, do wyboru mamy multum aplikacji – zarówno płatnych, jak i bezpłatnych. Dla miłośników prostoty polecamy np. GPS Essentials, a preferującym „full-wypas” – OruxMaps lub Locus.

Przyda się także oprogramowanie desktopowe do wizualizacji pomiarów na tle zdjęć lotniczych i satelitarnych – np. Google Earth, choć polecamy coś bardziej profesjonalnego, np. darmowy QGIS, ArcGIS Explorer lub inne aplikacje GIS-owe. Dobrze, by program obsługiwał standard usług sieciowych WMS.

Do tego musimy znaleźć dobre miejsce (lub miejsca) testu. Najlepiej niech jedno ma bardzo dobrą widoczność nieba – może to być np. pole, łąka lub duży plac. Drugie niech będzie dla naszego odbiornika większym wyzwaniem. Może to być np. gęsty las czy okolice wysokich bloków. Ważne, żeby każdy z naszych punktów testowych był łatwo identyfikowalny zarówno w terenie, jak i na zdjęciu lotniczym lub satelitarnym. Dobrze nadają się do tego celu studzienki, załamania krawężników czy znaki poziome na drogach (np. zebra).

Po pierwsze, precyzja

Najpierw sprawdźmy precyzję odbiornika. Przypomnijmy, że to nie to samo, co dokładność. Weźmy np. łucznika. Jeśli wypuszczane przez niego strzały trafiają mniej więcej w to samo miejsce tarczy, ale nie w jej środek, wówczas powiemy, że łucznik jest precyzyjny, ale mało dokładny. Byśmy mogli go nazwać dokładnym, musiałby zawsze trafiać w „dziesiątkę”.

Sprawdzanie precyzji jest bardzo proste. Mierzymy współrzędne punktu, następnie odchodzimy od niego i po pewnym czasie wracamy. Wówczas w odbiorniku włączmy opcję pomiaru odległości do wcześniej zmierzonego punktu – często jest to dostępne w liście punktów, a w bardziej profesjonalnym sprzęcie pod hasłem „tyczenie” lub „nawigacja do punktu”. Teoretycznie nasz odbiornik powinien pokazać zero, z dużym prawdopodobieństwem będzie jednak inaczej.

Wszystkie 5 punktów zarejestrowano w tym samym miejscu w kilkugodzinnych odstępach (zrzut z aplikacji OruxMaps)

Zrzut z aplikacji OruxMaps, na którym pokazane są wyniki pomiarów tego samego punktów w kilkugodzinnych odstępach czasu

W teście tym zalecamy powrócić na pomierzony punkt dopiero po kilku godzinach. Jeśli pojawimy się na nim już po kilku minutach, układ satelitów nawigacyjny ulegnie tylko nieznacznym zmianom, odbiornik wskaże więc podobną wartość. Gdy wzajemne położenie satelitów znacznie się zmieni, z dużym prawdopodobieństwem „rozjadą” się także pomierzone współrzędne.

Przykład analizy precyzji w aplikacji OruxMaps. Choć wszystkie pięć punktów pomierzono w tym samym miejscu, to znajdują się od 7 do 22 metrów od nas

W aplikacji OruxMaps widać, że choć wszystkie pięć punktów pomierzono w tym samym miejscu, to znajdują się od 7 do 22 metrów od nas

Bardziej dociekliwym polecamy wykonanie wielu pomiarów w jednym punkcie, zapisanie ich, a następnie wyświetlenie ich w programie desktopowym celem przeprowadzenia bardziej wnikliwej analizy.

Po drugie, jazda z satelitą

Powoli zmierzamy w kierunku oceny dokładności. Na razie zróbmy to zgrubnie. Zobaczmy, jak nasz odbiornik zachowuje się w różnych warunkach pomiarowych. Ten test będzie szczególnie przydatny dla tych, którzy GPS-a używają do zbierania danych liniowych lub też po prostu do nawigacji. Wyznaczmy trasę przejazdu, która będzie biegła przez różnorodne tereny, najlepiej przez gęsto zabudowany (ciekawe wyniki wyjdą tuż przy wysokich budynkach), leśny (może być też park) oraz otwarty (np. rozległy plac lub pole). Interesującym urozmaiceniem może być wąwóz lub wąska dolina, choć zdajemy sobie sprawę, że w większości regionów Polski trudno o takie obiekty. Ciekawie będzie również, gdy zabierzemy ze sobą nie jeden, ale kilka odbiorników.

Przed pokonaniem trasy włączmy w naszym odbiorniku rejestrowanie śladu z najwyższą możliwą częstotliwością – w przypadku większości instrumentów będzie to 1 Hz, czyli jeden pomiar na sekundę, choć są i takie które potrafią mierzyć 100 razy szybciej. No i ruszamy w drogę. Zależnie od tego, na jaki sposób poruszania mamy ochotę, test ten możemy przeprowadzić przy okazji biegania lub jazdy rowerem bądź samochodem.

Po przebyciu trasy zgrywamy ślad na komputer i otwieramy go na tle zdjęć lotniczych lub satelitarnych. W większości odbiorników ślady rejestrowane są w formacie GPX. Pliki takie możemy otworzyć na przykład w popularnej aplikacji Google Earth. Teraz przeanalizujmy, jak bardzo nasz ślad lub ślady odbiegają od faktycznej trasy przejazdu.

Porównanie śladu z odbiornika GPS (kolor czerwony) z rzeczywistą trasą spaceru (zielony). Choć trasa wiedzie przez niską zabudowę, błędy pomiaru przekraczają nawet 50 m.

Porównanie śladu z odbiornika GPS (kolor czerwony) z rzeczywistą trasą spaceru (zielony)

Rozbieżności oceńmy nie tylko wizualnie, ale także za pomocą narzędzia do mierzenia odległości. Zapewne okaże się, że na terenie otwartym ślad dość dobrze „trzyma się” naszej trasy. W lesie będzie nieco gorzej, a największy błąd pomiaru wyjdzie zapewne w „miejskiej dżungli”.

Ciekawym eksperymentem może okazać się porównanie długości obu tras. Długość śladu z pliku GPX możemy odczytać np. w Google Earth, klikając w górnym menu Edycja > Pokaż profil wysokości względnej.

Rzeczywistą długość trasy najwygodniej wyliczymy z kolei w jednym z wielu dostępnych w internecie serwisów mapowych. Problem może być natomiast wtedy, gdy poruszaliśmy się po ścieżkach niezaznaczonych na mapach. Wówczas na podkładzie zdjęć satelitarnych możemy ręcznie przeklinać naszą trasę – opcja taka dostępna jest w Google Earth, a od niedawna także w Google Maps (klikamy prawym przyciskiem w dowolne miejsca mapy, a następnie wybieramy opcję Zmierz odległość).

Po trzecie, dokładność

Powyższy test pozwala poznać tylko orientacyjną dokładność. Jeśli chcemy przekonać się, na co naprawdę stać nasz odbiornik, musimy wykonać pomiar w punkcie o znanych współrzędnych. I tu zaczynają się schody. Skąd mamy wiedzieć, jakie są poprawne współrzędne naszych punktów testowych? Najłatwiejszym rozwiązaniem będzie skorzystanie ze zdjęć lotniczych lub satelitarnych przetworzonych do postaci ortofotomapy.

Znów możemy tu użyć Google Earth. Ale uwaga! Zdjęcia w tej aplikacji może i mają niezłą rozdzielczość, ale nic nie wiemy o ich dokładności. Inaczej jest w przypadku danych urzędowych, których specyfikację możemy znaleźć choćby w warunkach przetargu. Na potrzeby naszego testu polecamy skorzystać z ortofotomapy wykonanej w ramach projektu ISOK i dostępnej przez usługę sieciową WMS serwisu Geoportal.gov.pl (http://mapy.geoportal.gov.pl/wss/service/img/guest/ORTO/MapServer/WMSServer). Zgodnie z wymaganiami zamawiającego opracowanie to ma rozdzielczość 10 cm i niewiele gorszą dokładność, a więc do testu odbiornika wystarczy. Należy jednak zaznaczyć, że ortofotomapa ta dostępna jest tylko dla 203 miast powyżej 50 tys. mieszkańców.

Fragment ortofotomapy z Geoportal.gov.pl

Fragment ortofotomapy z Geoportal.gov.pl

Zacznijmy test. Udajmy się w nasze punkty testowe i zmierzmy ich współrzędne. Następnie zgrajmy je do GIS-owego programu desktopowego (QGIS, ArcGIS Explorer lub jeszcze innego), a jako podkład załadujmy usługę WMS z projektu ISOK. Teraz wystarczy już tylko za pomocą miarki zmierzyć odległość między punktem pomierzonym w terenie a jego pozycją na ortofotomapie. Czynność tę możemy zrobić również w terenie – wiele mobilnych aplikacji, w tym OruxMaps czy Locus, oferuje bowiem wyświetlanie naszej pozycji na tle warstw WMS.

Żółta linia pokazuje odcinek łączący punkt testowy (koniec „zebry”) z punktem wyznaczonym przez odbiornik („Test”). Jego długość to 1,3 m (lewy dolny róg), czyli całkiem nieźle!

Żółta linia pokazuje odcinek łączący punkt testowy (koniec „zebry”) z punktem wyznaczonym przez odbiornik („Test”)

Zaprawiony w boju geodeta z pewnością uznałby powyższą metodę za niewystarczającą. Dla satelitarnych hardcore’ów polecamy więc skorzystanie z osnowy, która powinna mieć dokładność znacznie lepszą niż ortofotomapa ISOK („powinna”, bo w praktyce bywa z tym różnie). Będzie to od nas wymagało jednak nieco samozaparcia. Musimy się bowiem udać do najbliższego starostwa, do ośrodka dokumentacji geodezyjnej i kartograficznej. Tam grzecznie prosimy o dokumentację punktu osnowy, która będzie zawierała m.in. jego dokładne współrzędne oraz opis, który pomoże nam w terenie odnaleźć punkt. Upewnijmy się jednak, czy jest on łatwo dostępny. Niestety, za dokument ten urząd pobierze od nas stosowną opłatę.

Przykładowy opis punktu osnowy pochodzący z systemu informacji przestrzennej Piotrkowa Trybunalskiego

Przykładowy opis topograficzny punktu osnowy

Gdy już mamy współrzędne punktu, tworzymy na ich podstawie punkt w naszej aplikacji polowej odnajdujemy w terenie osnowę i sprawdzamy różnicę położenia.

Punkt osnowy geodezyjnej II klasy na Połoninie Caryńskiej w Bieszczadach, fot. Wikipedia/Ented

Punkt osnowy geodezyjnej II klasy na Połoninie Caryńskiej w Bieszczadach

Wyzwaniem może okazać się konieczność pracy w krajowych układach współrzędnych – problem można jednak rozwiązać przeliczając je na długość i szerokość geograficzną w takich programach, jak Asystent Geodety czy geoGPS (oba są płatne, ale oferują darmowe wersje testowe).

Całego tego urzędniczego zachodu można sobie darować, nomen omen, za Zachodzie. Na przykład w Niemczech od kilku lat systematycznie w centrach miast rozmieszczane są tzw. punkty referencyjne. Jako że wyryto na nich dokładne współrzędne, każdy przechodzień może sobie łatwo sprawdzić dokładność swojego odbiornika.

 Punkt referencyjny GPS w Stuttgarcie, fot. Urząd Miejski w Stuttgarcie

Punkt referencyjny GPS w Stuttgarcie

Punkt referencyjny GPS w Bremie, fot. Urząd Miejski w Bremie

Punkt referencyjny GPS w Bremie

U nas takich obiektów jest tyle, co kot napłakał. Mamy kilka pomników na cześć południków, np. w Stargardzie Szczecińskim (15°E), choć ponoć umieszczono go z błędem aż 220 m! Z kolei w Krakowie pewien ochotnik utrwalił w terenie miejsce przecięcia południka 20°E i równoleżnika 50°N. Dokładne współrzędne wyryto także na pomniku środka powiatu drawskiego.

Po czwarte, wysokość

Nawet jeśli nasz odbiornik nieźle przeszedł poprzedni test, to z mierzeniem wysokości może mu już nie pójść tak dobrze. Wszystko przez to, że systemy nawigacji satelitarnej z zasady lepiej radzą sobie w poziomie niż w pionie. Jeśli spojrzeć na broszury niektórych produktów, okaże się, że ta różnica jest z reguły dwukrotna. Ale i z tym zadaniem jakoś sobie poradzimy.

Do tego celu, podobnie jak w poprzednim teście, będziemy potrzebowali danych referencyjnych. Dobrze sprawdzi się mapa topograficzna dostępna np. na Geoportal.gov.pl (zakładka Archiwalne mapy rastrowe). Szukamy na niej w naszej okolicy opisanych punktów wysokościowych. Potem po prostu udajemy się w to miejsce i sprawdzamy, co pokazuje nasz odbiornik. Oprócz punktów wysokościowych z powodzeniem można wykorzystać także poziomice. Pewnym ułatwieniem może być załadowanie map topograficznych do naszego odbiornika – czy to w formie pliku rastrowego czy usługi WMS (http://mapy.geoportal.gov.pl/wss/service/img/guest/TOPO/MapServer/WMSServer). Wtedy mamy pewność, że stoimy na właściwym punkcie lub poziomicy oraz możemy łatwo wytypować miejsce kolejnego testu.

Choć trasa spaceru wiodła przez teren płaski jak deska, GPS twierdzi, że pokonaliśmy pagórek o wysokości ponad 20 metrów. Winny tego błędu jest zapewne las

Kontrola dokładności wyznaczania wysokości przez odbiornik GPS

Mierząc wysokość GPS-em, może się okazać, że większość pomiarów odstaje o kilkanaście lub nawet kilkadziesiąt metrów od rzeczywistości. Wyjaśnienie tego zjawiska nie musi wcale tkwić w błędnym działaniu odbiornika, ale w geodezji wyższej. Surowy pomiar satelitarny odnosi się bowiem do elipsoidy, czyli pewnego uproszczenia kształtu Ziemi. Tymczasem, jeśli chcemy dokładnie wyznaczyć wysokość, pomiary należy odnieść do geoidy. Różnica między elipsoidą a geoidą wynosi nawet ponad 100 metrów, a na terenie Polski – od blisko 30 do ponad 40 metrów. Taka jest też rozbieżność między pomiarem wysokości względem elipsoidy i geoidy. W profesjonalnych odbiornikach problem ten rozwiązuje się poprzez załadowanie modelu geoidy.

Program LocusMap wskazuje wysokość 142 m, tymczasem w rzeczywistości powinno być 108,4 m n.p.m. Czyli w tym przypadku mamy do czynienia z elipsoidą. Ale w tym samym punkcie program OruxMaps zainstalowany na tym samym odbiorniku pokazał 112 m – czyli tu mamy geoidę.

Rozbieżności w wysokościach wynikające z różnych powierzchni odniesienia (elipsoida, geoida)

W amatorskim sprzęcie sprawa się komplikuje, bo producent rzadko podaje, jak mierzona jest wysokość. Jeśli jednak w testach wyjdzie nam, że stosowana jest elipsoida, nie pozostaje nic innego, jak odjąć od pomierzonej wysokości wartość z tej mapy.

Tańcząc z DOP-ami

Jeśli chcecie jeszcze bardziej wkręcić się w satelitarne testy, polecamy pobawić się narzędziami do planowania pomiarów. W sieci dostępny jest np. GNSS Online Planning. W formularzu określamy nasze współrzędne, wysokość, datę oraz tzw. maskę (cutoff), czyli stopień widoczności nieba, a w następnej zakładce wybieramy systemy nawigacji, które obsługuje nasz odbiornik. Teraz możemy zobaczyć liczbę satelitów dostępnych dla naszego odbiornika – warto zwrócić uwagę, jak bardzo wartość ta może wahać się w ciągu doby. Przypomnijmy, że aby wyznaczyć pozycję, odbiornik musi „widzieć” minimum 4 aparaty.

Kolejny wykres prezentuje współczynniki DOP opisujące wpływ geometrii konstelacji satelitów na dokładność pomiaru: pozycji 3D (PDOP), współrzędnych płaskich (HDOP), wysokości (HDOP) i czasu (TDOP). Im wyższy DOP, tym dokładność będzie niższa. Generalnie przyjęło się, że przy pomiarach wymagających wyższej dokładności nie powinno się pracować z PDOP > 6.

Ale po co w ogóle te wykresy w naszych testach? Ano, dzięki nim możemy stwierdzić, kiedy panują najkorzystniejsze i najgorsze warunki do pomiarów satelitarnych. My polecamy przeprowadzić test w tym drugim przypadku. Wtedy zobaczymy, jak nasz odbiornik radzi sobie, gdy gorzej już być nie może. Oczywiście, można też zrobić na odwrót. Dowiemy się wówczas, ile można maksymalnie wycisnąć z naszego sprzętu.

Wykres przedstawiający liczbę widocznych satelitów nad Warszawą w ciągu jednej doby oraz prognozowane wskaźniki DOP

Wykres przedstawiający liczbę widocznych satelitów nad Warszawą w ciągu jednej doby oraz prognozowane wskaźniki DOP

Powyżej zaproponowaliśmy tylko podstawowe testy. Przy odrobinie inwencji można wymyślić jeszcze wiele innych doświadczeń sprawdzających działanie odbiornika satelitarnego. Odporność na zakłócenia, porównanie pomiarów GPS oraz GPS + GLONASS, sprawdzanie czasu inicjalizacji itd. Ograniczeniem jest tylko nasza wyobraźnia. Zachęcamy więc do eksperymentów i dzielenia się w komentarzach swoimi doświadczeniami!

Przedłuż gwarancję – rejestracja instrumentów pomiarowych Bosch Professional i Leica Geosystems

Ciekawe jak za granicą, ale w Polsce statystyki korzystania z programów przedłużania gwarancji są naprawdę mizerne. Tylko 15% klientów, którzy kupili „niebieski” instrument Bosch w sklepie mierzymy.pl zarejestrowało sprzęt i uzyskało dodatkowy, trzeci rok opieki gwarancyjnej. Aż dziw bierze, że firmy dają, a tak mało z nas chce brać. (więcej…)

Geodezyjne Technologie Pomiarowe 2013 – mamy darmowe wejściówki

Druga edycja konferencji organizowanej na Politechnice Warszawskiej jest jednym z ciekawszych tego typu wydarzeń w branży. I tylko nazwa może mylić, bo pokazywane na imprezie instrumenty pomiarowe stosowane są coraz powszechniej w budownictwie, archeologii, architekturze i wielu innych dziedzinach wymagających budowania modeli, tworzenia dokumentacji czy wyznaczania kształtów lub/i rozmiarów. (więcej…)