Augmented Reality und GIS – 8 Jahre später

Genau heute vor 8 Jahren habe ich einen Blogpost zum Thema „Augmented Reality und GIS” geschrieben. Damals hatte Apple die iOS Version 3.1 veröffentlicht, die unter Anderem neue API Funktionalitäten für die Kamera enthielt. Damit wurde es möglich, eigene Grafikelemente in die Kameraview einzublenden. EBP hat dann im Herbst 2009 zusammen mit der ETH die mobile Applikation SwissPeaks entwickelt, die dann auch einige Installationen verzeichnen konnte. Wir haben für die App einen Geodatenservice auf Basis des Bergsichtkatasters aufgebaut, der nur die wirklich sichtbaren Bergspitzen einblendet.

Der Hype um Augmented Reality (oder kurz AR) hat sich damals schnell beruhigt, SwissPeaks ist mittlerweile auch nicht mehr im AppStore vertreten. Unternehmen wie Layar oder Wikitude haben weiterhin versucht, das Thema AR zu pushen, trotzdem wurde es etwas still um diese Technologie, da sie noch nicht ausgereift war.

Im Sommer 2016 kam das Smartphone-Spiel Pokémon Go auf den Markt und mit einem Mal war Augmented Reality wieder in den Schlagzeilen und wurde zu einem Massenphänomen. Und es geht wohl weiter: Microsoft baut an einer speziellen Brille für Entwickler und Unternehmen, während Apple mit iOS 11 die Technologie auf einen Schlag für Millionen von Geräten nutzbar macht: Das Framework ARKit ermöglicht jedem neueren iPhone oder iPad, horizontale Ebenen in der Umgebung zu erkennen und und durch ein sehr zuverlässiges Tracking virtuelle Objekte in die Livebild der Kamera zu platzieren. Erste interessante Apps sind beispielsweise AR Airplanes oder MeasureKit. IKEA hat bereits eine ARKit basierte App angekündigt. Google hat in der Zwischenzeit auf ARKit reagiert und veröffentlichte vor kurzem auf Basis ihres Projekts Tango das Framework ARCore für Android Geräte.

Das Thema AR scheint also wieder an Fahrt aufzunehmen. Damit komme ich zurück zu zwei Thesen, die ich vor 8 Jahren so oder so ähnlich formulierte:

  • Räumliche Daten sind die Datengrundlage jeder AR-Applikation: Qualitativ gute Geodaten sind wichtiger denn je.
  • Mit AR im Smartphone können wir Geodaten in einer neuen Perspektive erfahren. Alleine in der Schweiz sind seit ein paar Tagen Millionen von Geräten in der Lage, diese neue Technologie nutzen.

Mein Arbeitskollege Vasile Coțovanu hat ARKit bereits in seiner Swiss Public Transport App eingebaut und stellt in einer ersten Version die Haltestellen im Umkreis um den EBP-Standort an der Mühlebachstrasse in Zürich dar:

Wir von EBP werden das Thema auf alle Fälle weiter entwickeln und an dieser Stelle von unseren Erkenntnissen berichten.

Wenn Sie sich schon jetzt wissen wollen, wie Sie Augmented Reality gewinnbringend für ihre Bedürfnisse einsetzen können, nehmen Sie doch einfach mit uns Kontakt auf.

 

Example projects: Military and meteo data, geoinformation aggregation and process consulting

In the „projects“ series we occasionally highlight some of our projects. Today, these projects encompass a geodata portal for the Swiss Army, a metadata portal for meteorologists, a cloud-based aggregation infrastructure for geoinformation and a process support for a biodiversity research team.

Geographic information portal for the Swiss Army

The Swiss Army was looking to standardise its use of geodata. EBP was commissioned to help the Army develop a geographic information portal.

The so-called „Mil User Platform“ is to be realised on the basis of the Swiss Federal Office of Topography’s (swisstopo) „Federal Administration User Platform“.

EBP supported the Military Geographic Information Service of the Armed Forces Joint Staff in the conception, initiation and installation phases of the Mil User Platform project. We manage the relevant business analyses and also model the requirements to be met by the GeoInfo Portal V in SPARX Enterprise Architect.

→ find out more

 

OSCAR: Metadata for meteorology – convenient global access

© MeteoSchweiz

To manage metadata, the World Meteorological Organization (WMO) is setting up what is known as the Observing Systems Capability And Review tool (OSCAR). This tool promises to facilitate the proper use of meteorological measurement data, provide a global overview of the available weather stations; and help facilitate the task the WMO member states have of administering these stations.

Working closely with the WMO, MeteoSwiss is developing and operating the OSCAR surface module. EBP helps MeteoSwiss realise the project using the HERMES-5 methodology.

→ find out more

 

KKGEO: Operation of the cloud-based aggregation infrastructure

The Office of the Conference of Cantonal Geoinformation Service Providers (KKGEO) has established an aggregation infrastructure for the Switzerland-wide publication of harmonised cantonal spatial data: geodienste.ch.

Working in the capacity of a project manager, EBP has designed and realised the scalable operation of the portal. The software components used for the system are based on open-source technologies and were developed by Sourcepole AG.

Working in close cooperation with the cloud-service provider CloudSigma, we set up the infrastructure for the application’s operation in a Switzerland-based computing centre. Thanks to the use of dynamic scaling, our solution can react flexibly to load and request volume fluctuations.

→ find out more

 

Process consulting and implementation of the ALL-EMA database

In the context of its ALL-EMA long-term study, the Swiss research institute Agroscope is gaining a better understanding of biodiversity in Switzerland by gathering field data on flora and habitat types. Before launching the first season of fieldwork, Agroscope wanted to improve its ALL-EMA data system.

EBP supported Agroscope in migrating its ALL-EMA project infrastructure to a comprehensive system with a central repository and efficient processes for data management and analysis.

The scope of the development included tools for importing field data, sampling design and exporting derived data in relevant exchange formats. The ALL-EMA architecture, data sources, workflows, responsibilities and IT security measures were recorded in a system manual and data documentations.

→ find out more

Projektbeispiele: Meteodaten, Aggregation kantonaler Geodaten und Prozessberatung bei Agroscope

In der Serie „Projekte“ möchten wir Ihnen in unregelmässigem Rhythmus einige Highlights aus der Arbeit von EBP Informatik vorstellen. Heute drehen sich die vorgestellten Projekte um die Erstellung eines Metadatenportals für weltweite Meteodaten, den Betrieb der cloudbasierten Aggregationsinfrastruktur für kantonale Geoinformationen und die Prozessunterstützung im ALL-EMA-Biodiversitätsprojekt von Agroscope.

OSCAR: Metadaten für die Meteorologie – weltweit einfach zugänglich

© MeteoSchweiz

Die MeteoSchweiz entwickelt in enger Zusammenarbeit mit der World Meteorological Organization (WMO) einen Teil des Portals OSCAR für die Verwaltung und Analyse von Metadaten zu meteorologischen Messungen.

EBP unterstützte MeteoSchweiz im Projektmanagement, bei der Spezifizierung der Anforderungen und bei der Evaluation der WTO-Ausschreibung für einen Entwicklungspartner.

→ mehr Informationen

 

KKGEO: Systembetrieb der Aggregationsinfrastruktur in der Cloud

Die Konferenz der kantonalen Geoinformationsstellen (KKGEO) hat ein Aggregationsportal zur schweizweiten Publikation harmonisierter räumlicher Daten der Kantone in Form von Download- und Darstellungsdiensten aufgebaut.

EBP hat in der Projektleitung den skalierbaren Betrieb dieses Portals, www.geodienste.ch, konzipiert und basierend auf Softwarekomponenten von Sourcepole realisiert. Durch die dynamische Skalierung kann unsere Lösung innert kürzester Zeit auf Lastschwankungen reagieren.

→ mehr Informationen

 

Prozessberatung und Implementation ALL-EMA-Datenbank

Die Forschungsanstalt Agroscope gewinnt in der Langzeitstudie ALL-EMA anhand von in Feldarbeit erhobenen Daten zu Lebensraumtypen und Pflanzenarten Erkenntnisse zur Biodiversität in der Schweiz.

EBP unterstützt Agroscope vor der Lancierung der ersten Feldarbeitssaison bei der Überführung der Infrastruktur des Projekts ALL-EMA in ein Gesamtsystem mit einer zentralen Ablage und effizienten Prozessen für die Datenbewirtschaftung und Datenanalyse.

→ mehr Informationen

Projektbeispiele: Zürcher Fruchtfolgeflächen, Patrouille des Glaciers und Geodaten für die Armee

In der Serie „Projekte“ möchten wir Ihnen in unregelmässigem Rhythmus einige Highlights aus der Arbeit von EBP Informatik vorstellen. Heute drehen sich die vorgestellten Projekte um die Nachführung von Daten über Fruchtfolgeflächen, die bekannte Patrouille des Glaciers und um die Bereitstellung von Geoinformationen für die Schweizer Armee.

F3N: Nachführung der Fruchtfolgeflächen-Karte des Kantons Zürich

© Fachstelle Bodenschutz des Kantons Zürich
© Fachstelle Bodenschutz des Kantons Zürich

Die Fachstelle Bodenschutz des Kantons Zürich hält die Daten zum qualitativ besten ackerfähigen Kulturland, den sogenannten, Fruchtfolgeflächen, aktuell.

Wir haben für den Kanton Zürich ein Nachführungskonzept entwickelt und darauf aufbauend die Applikation F3N umgesetzt.

F3N verbessert die Effizienz des Nachführungsprozesses und erlaubt daneben auch stets detaillierte Aussagen zu Bestand und Veränderungen der Fruchtfolgeflächen im Kanton.

→ mehr Informationen

 

Anmelde- und Zeitmessungsverfahren für die Patrouille des Glaciers

© Patrouille des Glaciers
© Patrouille des Glaciers

Die Patrouille des Glaciers ist ein internationaler Skialpinismus-Wettkampf der Schweizer Armee, an welchem auch zivile Patrouillen teilnehmen dürfen. Sie gilt als härtester Teamwettkampf der Welt und zieht alle zwei Jahre über 5’000 Teilnehmende an.

Ernst Basler + Partner ist zusammen mit der Firma race result verantwortlich für die Bereitstellung des Anmelde- und Zeiterfassungssystems für den Wettkampf im Jahr 2016 (und optional auch im Jahr 2018).

→ mehr Informationen

 

Geoinformationsportal für die Schweizer Armee

Die Schweizer Armee will die Nutzung von Geoinformationen mit der Realisierung einer „Nutzungsplattform Mil“ vereinfachen.

Ernst Basler + Partner unterstützt die Armee unter anderem bei der Konzeption eines Geoinformationsportals, welches mit klassifizierten Daten und mit Daten von weltweiter Ausdehnung umgehen können muss.

→ mehr Informationen

Internet of Things: Live Data Quality Assessment for a Sensor Network

TL;DR: We believe that connected devices and real-time data analytics are the next big things in GIS. Here is a live dashboard for a sensor network in 7 cities around the world.

Geoinformation systems have evolved quite rapidly in recent years and the future seems to be more exciting than ever: All major IT trends such as Internet of Things (IoT), big data or real-time systems are directly related to our professional domain: Smart devices are spatially located or even moving in time; big data and real-time systems almost always need locational analytics. This is why we got interested when we heard about the „Sense Your City Art Challenge„, a competition to make sense of a network of DIY sensors, which are spread over 7 cities in 3 continents. To be honest, our interest was not so much drawn to the „art“ aspect, at the end we are engineers and feel more at home with data and technology. And there is real-time sensor data available within the challenge: About 14 sensor nodes in every city deliver approximately 5 measurements every 10 second, such as temperature, humidity or air quality. The sensor is data freely available. When we looked at the numbers, we realized that data had some surprising properties, for example the temperature within varies quite a bit within one city.

Screenshot Story Map
Screenshot of our story map for Sense Your City.

 

Our goal: Live data quality assessment for a sensor network

So, we took the challenge a bit differently and more from an engineering perspective: How to implement a real-time quality assessment system for sensor data? As an example, we took the following questions, which need re-evaluated as new sensor data comes in:

  • Are there enough sensors that provide information about the sensors?
  • How much does the sensor measurements vary within a city?
  • How do the sensor measurements compare to external data?

Our solution: A live dashboard with real-time statistics 

My colleague Patrick Giedemann and I started late last week and developed a live dashboard with real-time statistics for the sensor network of seven cities. The dashboard is implemented with a story map containing one world view and seven views on city-level. The components of the views are:

  • A heatmap showing a condensed view of the analysis for each of the cities, labeled with numbers 2 to 8. For example, we want to show the visualize number of sensor values for each city within a time frame of 30 seconds. The darker the blue bucket, the more sensor signals we got. Light buckets indicate a low number og signals in the time frame.
  • Another heatmap, which calculates coefficient of variation for each city, again with a time frame of 30 seconds.
  • A gauge showing the number of sensor signals for a city and a linechart with the minimum, maximum and average temperature for a city.

We haven’t yet got around to show real weather data, although it is processed internally.

Some implementation details

For the technically inclined: Our implementation is based on Microsoft’s Azure, one of many cloud computing platforms available. Specifically, we used three main components: Event Hubs, Stream Analytics and WebSockets.

introduction-to-azure-stream-analytics_02
Graphic from Microsoft Azure documentation. We used Event Hubs, Stream Analytics and WebSockets instead of a data store.
  • We started building our solution using Azure Event Hubs, a highly scalable publish-subscribe infrastructue. It could take in millions of events per second, so we have room to grow with only 170’000 data points per hour. Every ten seconds, we pull the raw data from the official data sources and push the resulting data stream to an Azure Event Hub.
  • For the real-time analysis, we tried Azure Stream Analytics, a fully managed stream processing solution, which can take event hubs as an input source. With Stream Analytics, you can analyze incoming data within a certain time window and immediately push the result back to another event hub. For our example, Stream Analytics aggregates the raw signal data every 3 to 4 seconds and calculates  average value, minimum value, maximum value and standard deviation for 30 seconds within a city.
  • Finally, there is a server component, which transforms the event hub into WebSockets. With WebSockets, we can establish a direct connection between the data stream and a (modern) browser client.

What’s next?

Admittedly, this is a very early version of a live quality assessment system for real-time sensor data. However, it shows the potential: We can define a set of data quality indicators like number of active sensors or the variation coefficient. These indicators can be computed as the data streams into the system. Using Azure Stream Analytics, we could incorporate tens of thousands of sensors, instead of only hundred and we’d still have the same performance without changing a line of code.

Of course, there is room for improvements:

  • Ideally the sensor would push its data directly into the Azure EventHub instead of using a polling service as intermediate.
  • Exploiting historical data, like a comparison between the live data and date from a week ago.
  • Integrating more and different data sources for the data analysis.

Do you have any question? Send me an e-mail at stephan.heuel@ebp.ch or leave a comment.