SmartSuisse 2018

Am 11. und 12. April 2018 fand in Basel zum zweiten Mal die SmartSuisse-Konferenz statt. Ich habe zusammen mit meiner Kollegin Fabienne Perret (Geschäftsbereich Verkehr) und meinen Kollegen Kaspar Fischer (Raum- und Standortentwicklung) und Ralph Straumann (Informatik) teilgenommen. Das Thema Smart City wurde in parallelen Vortragstracks und mit einem grossen Ausstellungsbereich beleuchtet. An der Konferenz konnte man Details zu vielen (Pilot-)Projekten zu Smart City in Städten und Gemeinden erfahren.

Daten-Layer

Initial begrüsste Konferenz-Initiator Mike Vogt die Besucher. Er präsentierte dabei das SmartSuisse-Modell zu Smart City: mit Untergrund-Layer, Boden-Layer, Luft-Layer und – eben neu im Zentrum beim Thema Smart City – einem Daten-Layer, der sich in die klassische Ebenen-Sicht schiebt, die wir in unserem Fach so gut kennen. In den folgenden Stunden sollte es darum gehen, welche Daten in diesem Daten-Layer erfasst und transportiert werden sollen, wie dieser mit den anderen Layer über Prozesse gekoppelt werden soll und welche Informationen man daraus extrahieren kann.

SBB-Chef Andreas Meyer machte den Auftakt der Referate, indem er unter anderem das Projekt Wolf-Areal in Basel als das smarteste Areal der Schweiz vorstellte. Auf dem Gelände soll in den nächsten Jahren ein smartes Areal konzipiert und entwickelt werden. Er hob weiter verschiedene smarte Themenbereiche rund um die Bahn hervor: Smart Mobility (Mobilitätshubs), Smart Building (Arbeiten mit BIM), Smart Public Space (Design von Erlebnisflächen im Herzen von Städten im Dialog mit der Bevölkerung), Smart City („von isoliert zu vernetzt“, Smart City als Infrastruktur Management Platform bzw. City Information Model (CIM)). Er appellierte an die Schweiz, sich gegenüber den Entwicklungen in anderen Städten der Welt offen zu zeigen, um nicht von diesen überholt zu werden.

Zusammenarbeit und umsichtige Regulierung

Klar zum Ausdruck kam bei verschiedenen Vorträgen das Bedürfnis nach Kooperation zwischen verschiedenen Partnern aus Verwaltung, Wirtschaft und Bevölkerung. Dass die Lösungsentwicklung im Alleingang kaum zu bewerkstelligen ist, wurde beispielsweise im Vortrag von Claudia Pletscher von der Schweizerischen Post deutlich: Sie sah Herausforderungen im Bereich der Regulierung, die der Technologie hinterherhinke. Sie wies in diesem Zusammenhang auf den „Red Flag Act“ im England des 19. Jahrhunderts hin, der für die damals neuen Autos 31 Jahre lang die Maximalgeschwindigkeit auf 4 Meilen pro Stunde (2 MPH innerorts) drosselte und zudem erforderte, das zur Warnung jedem Fahrzeug jemand mit einer roten Flagge  vorangehen musste – nicht ganz unähnlich zu den Settings, in denen heute automatisierte Fahrzeuge erprobt werden. (Übrigens: Der Red Flag Act verhinderte eine stattliche Zahl tödlicher Unfälle nicht.)

Lebensqualität für alle: strategisch versus opportunistisch

In vielen Referaten wurde deutlich, dass die Lebensqualität der smarten Städte im Mittelpunkt steht, oder zumindest stehen sollte. Beispielsweise postulierte Helle Søholt von der dänischen Firma Gehl:

„A smart city is a livable city!“

Damit fand die Bevölkerung der künftigen smarten Städte (die in der Technologieperspektive des Schichtenmodells zwischen Untergrund-, Boden-, Daten- und Luft-Layer vergessen gegangen war) doch zurück auf die Hauptbühne. Dass es diesbezüglich und allgemein für Smart City-Themen in der Schweiz noch Potenzial gibt, wurde ebenfalls in mehreren Vorträgen erwähnt. Thilo Zelt von Roland Berger stellte in diesem Zusammenhang eine interessante Studie zu einem „Smart City Index“ vor. Allerdings fehle es in der Schweiz allgemein noch etwas an klaren Strategien für Smart Cities. Dieser Punkt wurde am zweiten Konferenztag am Treffen der IG Smart City nochmals klar, aber zum Teil etwas anders gewertet: Während manche Städte sich eine Smart Ciy-Strategie gegeben haben (z.B. kürzlich Basel) bzw. eine erarbeiten (z.B. Zürich), haben andere Städte (etwa Aarau) den klassischen Prozess auf den Kopf gestellt (bzw. vom Kopf auf die Füsse?) und direkt mit kleinen Pilotprojekten und Tests gestartet, aus denen sich später eine Strategie herauskristallisiert.

Mobilität: Mehr Intelligenz statt Beton

Das Thema Mobilität war ebenfalls prominent an der Konferenz, nicht zuletzt natürlich mit der Konferenz-in-der-Konferenz Automaticar. Dort referierte Fabienne Perret, Mitglied der Geschäftsleitung von EBP, zum Forschungsprojekt „Einsatz automatisierter Fahrzeuge im Alltag“, das wir zusammen mit diversen Schweizer Partnern zum Thema des automatisierten Fahrens erarbeiten. Daneben drehten sich viele der bezüglich Mobilität genannten Ideen und Konzepte um multi- und intermodale Mobilitätsformen, die mit Hilfe neuer Technologien einfacher nutzbar gemacht werden können. MaaS (Mobiliy as a Service) wurde natürlich zahlreich thematisiert, unter anderem in den Vorträgen von Jörg Astalosch (Italdesign), Sampo Hietanen (MaaS Global) sowie von Gerd Scheller und Martin Fehr (Siemens).

Auch Prof. Carl Ratti vom Massachusetts Institute of Technology (MIT) wies auf die fundamentalen Änderungen hin, die im Bereich Mobilität bevorstehen: In seinem Vortrag zu Senseable Cities zeigte er eindrückliche Ergebnisse der Mobilitätsforschung, unter anderem zum Verkehrsfluss an Kreuzungen. Ausserdem zeigte er auf, dass Infrastruktur heute nicht mehr für 100 Jahre gebaut werden sollte, sondern transformierbar sein sollte, da sich die Bedürfnisse an sie in Zukunft potenziell schnell ändern werden. Das erscheint uns aber zumindest vorerst noch ein hehrer Wunsch, zeigen doch unsere eigenen Forschungsarbeiten in diesem Bereich, wie träge heute viele Bestandteile des Verkehrssystems auf technologische Innovationen reagieren, man denke zum Beispiel an Schiffs- und Flugzeugflotten oder an gebaute Infrastruktur. Künftig wird hier der oben angesprochene Daten-Layer noch wichtiger werden – nämlich um die physische Infrastruktur optimal, sicher und nachhaltig zu nutzen.

Weitere Eindrücke von der SmartSuisse finden sich in den sozialen Medien.

Wir beraten Sie gerne in Fragen rund um den Daten-Layer smarter Städte und smarter Regionen, Datengovernance, nachhaltige Planung und Entwicklung sowie eine Vielzahl weiterer Themen. Wir freuen uns über Ihre unverbindliche Kontaktaufnahme.

 

2018 Esri Partner Conference and Developer Summit – Part 2

The timing worked superbly, like the best Swiss clockwork: A few days before winter made a comeback in Switzerland, I sat in a plane to Los Angeles. Nevermind that California also had slightly cooler temperatures than usual – it was definitely preferable over the polar cold air masses that firmly occupied Switzerland. Even the place names felt evocative: Santa Cruz, Big Sur, and San Francisco. For two weeks I would cruise California, before making my way back to L.A. and then Palm Springs in order to attend the 2018 Esri Partner Conference and Developer Summit together with my colleague, Nicole Sulzberger. In what follows, we describe what we learned during the two Esri events: the latest news about developments at Esri.

Part 1 of this review has been published last week.

The Science of Where

As described previously, The Science of Where is still Esri’s tagline. Esri aims to apply the science of where to help answering spatial questions with:

  • increased efficiency to save resources
  • better analysis to actually understand what is going on, and
  • better communication to foster good decisions

Many of the recent developments shown during the Partner Conference and the Developer Summit can be linked very well to at least one, often several, of these three promises.

 

Select Highlights (continued from Part 1)

Geo AI DSVM

The big news of Esri in terms of data analysis was quite a mouthful: Esri Geo AI Data Science Virtual Machine (DSVM) on Microsoft Azure. That’s „GeoAI DSVM“ for short.  What is behind this? Geo AI DSVM is a virtual machine in the Microsoft Azure cloud that combines ArcGIS Pro and a plethora of Microsoft data science toolkits. It’s part of Microsoft’s „AI for Earth“ project. The VM contains pre-configured installations of, for example, Python, R, VisualStudio, RStudio, Microsoft Powershell, various Python and R packages, Power BI, and a Jupyter Notebook Server. So there is a lot of things that allow you to dive into GIS-supported data science in a scalable cloud environment. In order to use the GeoAI DSVM you need to have an ArcGIS Pro license and Azure VM usage charges apply. An overview of the GeoAI DSVM can be found in the Microsoft Azure Marketplace. On Github, Esri offers an example of a pixel-level landcover classification using Deep Learning with Microsoft’s Cognitive Toolkit, that can be used in conjunction with the Geo AI DSVM.

Geo AI DSVM was a big part of Joseph Sirosh’s (Corporate Vice President in the AI Research group at Microsoft) keynote address:

 

Jupyter Notebooks

Throughout the conference, various data science and machine learning examples were highlighted, and often demonstrated with Jupyter Notebooks – basically an interactive Python environment in your browser that lends itself ideally for making data analysis workflows more transparent and reproducible through integration of code, documentation, and output. Jupyter Notebooks can also be used with the Python API for ArcGIS for, e.g., Portal administration, however, if you are so inclined. If you do data analysis in Jupyter using, e.g. arcpy, results are by default temporary but can be persisted onto a Portal or locally. Esri offers http://notebooks.esri.com for testing Jupyter Notebooks.

One example that was shown using Jupyter was the extraction of SAM sites from orthoimagery using a neural network:

A planned feature for ArcGIS Portal is the integration of Jupyter Notebooks. You will be able to share your Jupyter Notebooks with your colleagues on your ArcGIS Portal.

And Other Things Python

In other Python news, we found an emphasis on ArcGIS Enterprise and Online automation using Python, specifically the ArcGIS API for Python for communicating with a web GIS. Example tasks that can be done through this pythonic API were the creation of groups and user accounts, the assignment of accounts to groups, and of content to users, cloning a portal, re-assignment of content, creation of reports about content, as well as publishing new and pruning old content. The plenary session had an Automation with Python slot that highlights some of the key developments around these topics.

Secondly, Python in ArcGIS Pro was a big topic and also part of the plenary session. Some of the key things to know: ArcGIS Pro comes with Python version 3, rather than 2.7 like ArcGIS 10.x. Further, the Python installation is conda-based. (Ana)conda is a widely used Python package and virtual environment manager that should make the lives of Python developers easier. Thanks to the conda-based installation, many relevant Python packages are pre-installed, for example the whole SciPy stack (this includes pandas). There have been numerous other improvements, big and small, of the Python developer experience, for example for those of you who like to work in Microsoft VisualStudio.

If you want to know more about these topics, check out the videos and the above links: Automation with Python and  Python in ArcGIS Pro.

Exploratory Data Analysis with Insights for ArcGIS

Insights, the data exploration solution by Esri, was highlighted throughout the event (earlier versions of Insights have been shown in previous events). This tool allows to carry out data analysis using a drag-and-drop interface that lets the user build a collection of „cards“ that can contain maps, charts, or tables. Users can interact with different cards using the linked view paradigm where features in a card are highlighted based on a user interaction in another card.

ArcGIS Insights (source: Esri)

Insights further allows joining data dynamically (not sure to what data set size this stays performant) and the analysis that a user builds is represented in a graphical model that can be shared with other users. Since December 2017, Insights is newly available also in ArcGIS Online (previously it was part of ArcGIS Enterprise): To perform analysis in Insights for ArcGIS, users need to purchase a subscription, in addition to an ArcGIS Online Level 2 named user license. A Level 1 named user license for ArcGIS Online provides you view-only access to Insights.

 

Also on the Table

There was much, much more on the plate: improvements around the performance of the GeoEvent Server, the Spatiotemporal Big Data Store and the GeoAnalytics Server, for example, but also in deployment with Docker and Kubernetes, UX and UI, data in the Living Atlas, as well as IoT and real-time applications.

 

And Where Do We Go From Here?

In our opinion, it was rightly emphasised in the plenary session during the conference: the future lies in

  • connecting separate software systems,
  • expanding collaboration between individuals, teams, departments, and organizations,
  • integrating all kinds of data in common views, be they interactive plots and visualizations, feature layers, maps or web scenes,
  • and adding powerful exploration and analysis of data.

In the perspective of Esri, these ingredients enable a new scale in the trajectory of GIS (if you still want to call it that): GIS will turn into a system of systems.

However, this process doesn’t happen by itself but requires careful thinking and designing.

If any of these piqued your interest, please get in touch with us. We are happy to think along with you and assist in designing tomorrow’s workflows, systems and tools!

 

Part 1 of this review has been published last week.

 

e-geo-Interview mit Ralph Straumann: «Data Literacy ist eine grosse Herausforderung»

Mit dem letzten Newsletter schloss das Impulsprogramm e-geo.ch Anfang November 2016 seine Tätigkeiten ab. Ralph Straumann, Projektleiter in unserem Tätigkeitsfeld Systemberatung + Analytik wurde in diesem letzten, dem 28. Newsletter von e-geo.ch neben anderen GIS-Exponentinnen und -Exponenten interviewt. Das Interview dreht sich rund um unsere innovativen Themen: Data Science, die Zukunft von GIS und die digitale Transformation.

e-geo.ch und die NGDI. Bildquelle: e-geo.ch
e-geo.ch und die NGDI. Bildquelle: e-geo.ch

Personen in der Geoinformationsbranche ist e-geo.ch ein Begriff. Für alle anderen paraphrasiere ich aus der Newsletter-Einleitung von Christian Kaul: e-geo.ch war seit 2003 das Programm zur Förderung des Aufbaus einer Nationalen Geodaten-Infrastruktur (NGDI). Die Trägerorganisationen von e-geo.ch waren der Bund, die Kantone und die SOGI. Mit der neuen Geoinformationsgesetzgebung auf Stufe Bund (GeoIG) wurde 2008 ein grosser Meilenstein erreicht. Ab 2011 rückten dann Umsetzungsfragen zwischen Bund und Kantonen in den Fokus. Im Austausch zwischen den Trägerorganisationen zeigte sich dann ab Januar 2015, dass e-geo.ch zwar viel erreicht hat aber für die Umsetzung ein neuer Rahmen gesucht werden soll.

Der letzte e-geo-Newsletter bietet einen Rückblick in die „Pionierzeit“ und auf verschiedene Highlights des Impulsprogramms. Er zeigt aber auch aktuelle Herausforderungen der Geoinformation und fragt: Was kommt danach? Verschiedene Fachleute geben ihre Einschätzungen ab zu spannenden Visionen und Trends der Branche. Der Text aus dem Interview mit Ralph Straumann:

«Data Literacy ist eine grosse Herausforderung»

Das BAKOM nennt in einer Studie vier grosse Trends, die auch für die Geoinformation relevant sind, nämlich Information, Cloud, Mobile und Social. Wir alle produzieren immer mehr Daten, schon allein, weil wir mit dem Smartphone herumlaufen. Wir nutzen aber auch immer mehr Informationen in der einen oder anderen Form. Das wird ermöglicht durch die Cloud und ihre skalierbare Rechnerleistung. «Mobile» ist ein Trend, weil immer mehr Internetnutzung über das Handy läuft, und «Social» steht für die Netzwerke, wo man sich miteinander austauscht. Diese vier Trends gelten natürlich nicht nur für GIS, aber an ihnen kann man recht viel fest machen, was im Moment passiert.

Niederschwelligere Angebote

Weiter stelle ich fest, dass unser Feld sich öffnet. Es gibt neue Werkzeuge, die das Arbeiten mit Geodaten viel weniger exklusiv machen. Früher hatte man die grossen, teuren GIS-Systeme. Dazu gibt es heute Alternativen, kommerzielle und freie. Diese Entwicklung wird unter anderem vorangetrieben durch den Datenjournalismus, der in den letzten Jahren aufgekommen ist und auch häufig mit Karten zu tun hat. Aus dieser Richtung kommen viele neue Herangehensweisen von Leuten, die nicht so in den Paradigmen drin sind wie wir GIS-Leute. Das finde ich spannend, und das meine ich, wenn ich von «Mainstreaming» und «Consumerisation» spreche.

Geomorphometrie: Valleyness im Tessin (Straumann, 2010)

Komplexe Datenwissenschaft

Als Trend sehe ich auch die «Data Science», die Datenwissenschaft, die seit ein paar Jahren immer mehr in den Vordergrund tritt und in der wir bei EBP auch aktiv sind. Das Ziel der «Data Science» ist, mit den umfangreich anfallenden Daten Prozesse und Strukturen zu optimieren. Ein klassisches Beispiel ist Amazon: Wenn ich dort Bücher bestellt habe, sagt mir Amazon, welche Bücher mir auch noch gefallen könnten. Dieses Empfehlungssystem ist eine einfache Anwendung, aber es gibt auch noch andere Beispiele, wo das viel weiter getrieben wird, auch im Zusammenhang mit Geodaten.

Trajektorien in Zürich von lokalen und auswärtigen Flickr-Nutzerinnen und -Nutzern (Straumann, Çöltekin & Andrienko, 2014)
Trajektorien in Zürich von lokalen und auswärtigen Flickr-Nutzerinnen und -Nutzern (Straumann, Çöltekin & Andrienko, 2014)

Weniger einfache Tätigkeiten

Diese Trends haben für unsere Branche natürlich Konsequenzen, indem einfache GIS-Arbeiten in Zukunft vielleicht weniger gefragt sein werden. Vor fünf Jahren konnte es durchaus sein, dass ein Kunde zu uns kam mit einer Datenbank, in der die Adressen seiner Kunden hinterlegt waren und die er auf einer Karte sehen wollte. Solche einfachen Auswertungen kann es zwar immer noch geben, aber die Funktionalität dafür ist je länger je mehr in gängigen Desktop-Programmen eingebaut, so dass die Leute das selber machen können.

Aber die Kundenstandorte nicht nur zu kartieren sondern zu analysieren, zum Beispiel bezüglich der Frage, wo ein neuer Standort eröffnet werden soll und wie sich dieser auf das Betriebsergebnis oder die Versorgung auswirkt – das sind nach wie vor spannende Fragestellungen, die wir mit «Location Intelligence» beantworten können.

Es ergeben sich aber gerade noch weitere neue Fragen: Wir beraten unsere Kunden zum Beispiel zu den aktuellen Entwicklungen rund um das Internet of Things, Bots, Echtzeitdaten und Smart Cities bzw. Smart Infrastructure. Für diese Themen braucht es Fachwissen und spezielle Kompetenzen.

«Data Literacy» als Bürger(innen)pflicht

Ein besonderes Anliegen ist mir persönlich die «Data Literacy», das heisst die Befähigung von Nicht-Fachleuten, Daten und darauf aufbauende Analysen richtig «lesen» und interpretieren zu können – ganz besonders, wenn auf dieser Grundlage geschäftliche oder politische Entscheidungen getroffen werden. In unserer direkten Demokratie stimmen wir zudem über Fragen ab, die immer öfter ein gewisses Verständnis für Datenanalyse voraus setzen. Wir als Gesellschaft müssen also lernen, diese Dinge zu verstehen, damit umzugehen und manches auch kritisch zu hinterfragen.

Sie können das im e-geo-Newsletter erschienene Interview mit Ralph Straumann hier als PDF beziehen oder hier die gesamte Publikation herunterladen.

Vielen Dank an Swisstopo und Claudia Fahlbusch von escribo für die Erlaubnis zur Publikation dieses Texts auf unserem Blog.

Die nächste Evolution von GIS

… so hiess mein Artikel und Vortrag für den Track Innovation und Trends am GEOSummit 2016. Worum ging’s? Die Geodatenangebote der Kantone und des Bundes stehen, Services und zum Teil Datendownloads sind bereit und Behörden wie auch Private nutzen GIS auf dem Desktop, online und mobil on-the-go in raumrelevanten Fragen. In meinem Beitrag wollte ich aber mal ganz bewusst über das „Tagesgeschäft“ hinaus blicken und einige Veränderungen einfangen, die wir wegen ihrer Subtilität und vor lauter Routine oft nicht recht wahrnehmen.

Dabei habe ich mich zu einem guten Teil auf „weiche“ Faktoren konzentriert wie zum Beispiel Veränderungen am Umfeld, in dem GIS genutzt wird. Natürlich laufen nebenbei alle bekannten technologischen Umwälzungen: Drohnen, Augmented und Virtual Reality, Cloud Computing, Wearables, Nearables, autonome Systeme und Bots, Sensor Networks und Smart Infrastructure, etc. etc. Manche von diesen kommen am Rande auch vor in meinem Beitrag (und wir können uns gerne hier oder andernorts mal über die technologische Seite austauschen); die technischen Aspekte stehen bei meinen Betrachtungen aber nicht im Zentrum.

Die Folien meines Vortrags können Sie hier anschauen:

Und bei Interesse finden Sie hier den Volltext meines GEOSummit-Abstracts:

In vielen Bereichen unseres Lebens nutzen wir komplexe Infrastrukturen und Dienstleistungen. Beispielsweise bringt uns fünf Minuten nach Ankunft des Zugs ein Bus an unsere Destination. Wir sind mit Wasser, Strom, Gas oder Fernwärme versorgt. Abwasser und Abfall werden zuverlässig weggeführt. Die Regale in den Geschäften sind stets gefüllt und das nötige Ersatzteil wird zuverlässig in die Garage geliefert.

Basis für dieses gute Funktionieren unserer Infrastruktur – und unseres gesellschaftlichen, wirtschaftlichen und politischen Lebens – sind die sorgfältige Planung, Steuerung, und Pflege der involvierten Anlagen und Prozesse. Dafür sind Informationen unabdingbare Grundlage. So wie im letzten Jahrhundert die Entdeckung und Nutzung des Erdöls die Industriegesellschaft befeuert hat, sind Informationen wichtigster Grundstoff unserer Wissensgesellschaft.

Erzeugung und Verwendung von Informationen sind Veränderungen unterworfen, welche auch Auswirkungen auf die Geoinformationsbranche haben. In seinen Überlegungen zur Wissensgesellschaft identifiziert das Bundesamt für Kommunikation vier Haupttrends: Mobile, Social, Cloud und Information (Abb. 1).

Abb. 1: Die Haupttrends „Mobile“, „Social“, „Cloud“ und – im Zentrum – „Information“ sowie die involvierten Akteure (eigene Darstellung)

Von diesen Trends ausgehend: Was kommt auf uns zu?

Verändertes Umfeld

In der Wissensgesellschaft nimmt die Informationsnutzung in Verwaltung und Politik aber auch in der Zivilgesellschaft weiter zu. Hinter letzter stehen zum Teil neue Gruppen von Nutzenden von Geoinformation, welche sich im Zug der aufgezeigten Entwicklungen formiert haben: schon seit einiger Zeit finden Geodaten unter anderem im Datenjournalismus (data-driven journalism) immer häufiger Verwendung. Daneben hat die Open-Data-Bewegung neue Nutzende geschaffen, welche oft nicht den typischen Disziplinen entstammen. Nicht zu unterschätzen ist ferner die Breitenwirkung der BGDI mit der map.geo.admin-API und den teilweise geöffneten Datenbeständen des Bundes.

Die Bedürfnisse an unsere Branche entwickeln sich dadurch weiter: zum Beispiel umfassende und allgemein verständliche Dokumentation von Daten, schnelle Kommunikation auf Augenhöhe, einfache Nutzung (oder zumindest Sichtung) von Geoinformationen in Portalen aber auch die Bereitstellung offener Services, APIs und Daten (wo möglich in Echtzeit). Dadurch, dass bisher eher unterrepräsentierte Akteure auftreten, werden etablierte, aber vielleicht auch überholte Praktiken vermehrt in Frage gestellt werden. Für die Anbieter von Geoinformationen eröffnet sich die Chance, den Elan dieser neuen Nutzergruppen z.B. in die Produktentwicklung oder Qualitätsverbesserungen einfliessen zu lassen.

Consumerization und Mainstreaming

GIS wird vermehrt zu einer allgemein eingesetzten Technologie bzw. Methode werden: „GIS as a utility“. Dies ist bereits sichtbar in der fortschreitenden (leichten) GIS-Befähigung von Office-Software. Für einfache Aufgaben wie das Abbilden von Filialen auf einer Karte oder die Geocodierung eines Kundenstamms wird in Zukunft nicht mehr auf GIS-Fachleute zurückgegriffen werden müssen. Dies ist die Reifung von GIS: Der Begriff „GIS“ verschmilzt zum Teil mit anderen Themen und Disziplinen. Und: nicht überall wo GIS drin ist, steht „GIS“ drauf.

Die oben aufgezeigten Trends befähigen eine grosse Gruppe von Personen Daten – oft: Geodaten – selbst zu erheben, aus verschiedenen Quellen zu nutzen und zusammenzuziehen, aufzubereiten und weiterzuverbreiten. Dazu trägt auch die Verfügbarkeit von freier Software bei. Wie weit die Consumerization gehen wird, ist noch schwer abzuschätzen.

Neue Komplexität: IoT und smarte Systeme

Allerdings bringen technologische Impulse wie das Internet of Things (IoT) und smarte Infrastruktur, das partizipative Internet aber auch Trends wie Quantified Self sowie Virtual und Augmented Reality neue Komplexität mit sich: die bereits heute unübersichtliche Datenmenge wird sich noch weiter vergrössern. Datenströme werden wichtiger werden als Datensätze. Unternehmen und Behörden (z.B. Smart Cities) müssen durch Filtern und in Kombination von Datenströmen die richtigen Erkenntnisse gewinnen.

Dies bringt neue Herausforderungen in der Verarbeitung und Analyse von Daten, aber eben auch in der Entwicklung von künftigen Geschäftsmodellen. Hier werden Geoinformationsfachleute immer noch gefragt sein, sich aber auch zum Beispiel mit ‚Spatial Data Scientists‘ messen – oder sich zu solchen entwickeln.

LoRaWAN: IoT Network for the Future?

If you follow someone from #TeamEBP on Twitter, you may have noticed that last week we installed a LoRaWAN gateway of The Things Network in our office building. And like some of my colleagues you may have wondered (or wonder now): What is this all about?

Is EBP now into selling parrots (of course we could call our parrot Polly, not Lora)? Or are we supporting an alternative Zurich radio station? Good guesses. But it is of course neither of those two: LoRaWAN stands for Long Range Wide Area Network, a technology for low power wireless telecommunication networks. LoRaWAN gateways are intended to be used by battery operated sensors and other low power devices, nowadays better known as the Internet of Things (IoT), to transfer their data to the internet.

While mobile and WiFi networks drain your mobile phone battery quickly with increasing data transfer rates, LoRa takes the opposite approach. Only very little data can be sent over the network to minimize power consumption. Take for example the optimizing of garbage collection by installing sensors on waste bins, a solution that is already more widespread than I expected. You would certainly use batteries, maybe combined with energy harvesting, rather than connect every garbage container throughout a city to the power grid.

450px-HVogel-FrauHolle

Have you ever noticed the amazing anticipation of IoT ideas in „Frau Holle„? Bread calling out: „Oh, take me out. Take me out, or I’ll burn. I’ve been thoroughly baked for a long time.“ (Image source: Public domain).

LoRaWAN Gateways serve as transparent bridges for the end-to-end encrypted communication between sensors and devices out in the field and central network servers (you can read more about the technology here). One big advantage of LoRa is that you only need a few of these gateways to cover a whole city.

While commercial companies are working on LoRa networks (e.g. Swisscom or Digimondo), the afore-mentioned The Things Network (that now EBP is a part of) is an interesting open initiative. With The Things Network, an enthusiastic community is building LoRa networks in cities all around the world. These networks are free and open to use for everybody. At EBP, we immediately felt favourably towards that idea and are excited to share some of our company’s bandwidth with the community behind The Things Network.

The Things Network Zurich coverage map with the EBP gateway
The Things Network Zurich coverage map with the EBP gateway

As an additional benefit, we thus expand our playground to experiment with IoT and new networking technologies. Our order for additional hardware to build some LoRa test devices is out and we are looking forward to do some soldering. So stay tuned for more LoRa news here. Or indeed, join the revolution yourself!

Artikel: Die Zukunft von GIS ist smart und vernetzt

Vor kurzem hat in unserem Blog Ivo Leiss über die Evolution von GIS und GIS 5.0 berichtet. In GIS 5.0 werden das Internet der Dinge, Indoor-Navigation und Echtzeit-Informationssysteme Schlüsselelemente sein. GI-Systeme 5.0 werden smarter und vernetzter sein als die Systeme, die wir heute kennen. Dies zieht auch neue Infrastruktur-Bedürfnisse nach sich. Wie die einzelnen Elemente zusammenspielen, hat Ivo Leiss im oben verlinkten Blogpost anhand dieser Grafik erläutert (nach Porter und Heppelmann, abgeändert):

Wenn Sie sich wie wir für die Zukunft von Informationssystemen interessieren, empfehle ich Ihnen die Lektüre unseres Geomatik Schweiz-Artikels mit dem Titel „GIS 5.0 – Smart und vernetzt“ (pdf). Darin hat Ivo Leiss drei unserer Mitarbeitenden (u.a. mich) zum Thema interviewt. Die drei Interviewten nähern sich dem Thema aus drei unterschiedlichen Richtungen: Internet of Things, Erkenntnisgewinne aus Datenanalysen und Cloud-Technologien.

GIS 5.0 – Smart und vernetzt (pdf), erschienen in Geomatik Schweiz 5/2015.

Alle Wege führen zu Windows 10 – und Azure

Sprichwörtlich führen alle Wege nach Rom. Nach meinem gestrigen Besuch des Technology Outlooks von Microsoft Schweiz scheinen in Zukunft aber alle Wege zu Windows 10 zu führen. Oder in den Worten von Microsoft: „Wherever your code was born, you can bring it to Windows“. Welche dieser Wege Autobahnen und welche eher holprige Wanderpfade sind, wird sich zeigen.

clouds

Mit Windows 10 setzt Microsoft konsequent auf eine Plattform für alle Geräte: Überall läuft die gleiche Runtime, die Apps kommen für alle Geräte aus einem Store und werden mit Visual Studio entwickelt. Der gleiche Code läuft auf PCs, Tablets, Phones, Hololens oder auf einem Raspberry Pi 2. Spannend daran ist, dass mit Windows 10 ein adaptives User Interface zur Verfügung steht: Man entwickelt eine Benutzerschnittstelle, die sich dann automatisch ans jeweils angeschlossene Display anpassen soll. Wenn man sein Windows Phone also an einen Bildschrm anschliesst, sehen die Applikationen aus wie auf dem PC, statt einfach das Handy-Display zu skalieren. Um das zu testen, müsste man allerdings zuerst mal ein Telefon mit Windows haben…

Dieses Problem hat Microsoft ebenfalls erkannt. Um Windows Phones attraktiver zu machen und den Rückstand bei der Anzahl verfügbarer Apps zu verkleinern, bieten sie mit Windows 10 (einfache?) Möglichkeiten, Android- und iOS-Apps auf Windows 10 zu bringen. Für Android-Apps gibt es einen Emulator – der gleiche Code kann also weiterverwendet und mit spezifischen Windows-Funktionen ergänzt werden. Für iOS-Apps ist eine Neukompilierung des Objective C-Codes notwendig, was von Visual Studio unterstützt wird. Solche „Bridges“ zu Windows 10 gibt es übrigens auch für Win32- und Web-Applikationen. Die Wege führen nicht nur zu Windows, sondern auch wieder heraus: Beispielsweise durch die Integration von Xamarin in Visual Studio 2015, um Apps plattformübergreifend zu entwickeln. Oder durch den .NET Core 5 für Linux und Mac OS X.

Ein Stolperstein für diese schöne neue Welt könnten die unterschiedlichen Fähigkeiten der Geräte sein. Einerseits natürlich die Rechenleistung, andererseits die unterschiedlichen Bedienkonzepte und Spezialfähigkeiten – die Hololens unterscheidet sich doch stark von einem PC. Trotzdem ist Windows 10 sehr spannend und vielversprechend. Wir freuen uns jedenfalls auf die neuen Möglichkeiten.

Im zweiten Teil der Veranstaltung präsentierte Sascha Corti, Technical Evangelist von Microsoft Schweiz, die Verwendung von Microsoft-Lösungen für das „Internet of Things“ (IoT). Für uns bei Ernst Basler + Partner ist das natürlich speziell interessant, da auch wir bereits entsprechende Lösungen entwickeln.

Oft werden im Zusammenhang mit IoT abstrakte Ideen entwickelt oder grosse Luftschlösser gebaut – wie üblich, wenn ein Thema ganz oben auf dem Hype Cycle ist. Microsoft sieht das IoT aber pragmatisch: Schlussendlich geht es einfach darum, Informationen von Geräten über Netzwerke auf eine zentrale Plattform zu bringen. Dort analysiert und visualisiert man die Daten, um für sein Geschäft einen Mehrwert zu generieren und bessere Entscheidungen treffen zu können. Das alles ist mit vorhandener Technologie problemlos möglich. Idealerweise beginnt man deshalb mit Geräten und Daten, die bereits zur Verfügung stehen. Die daraus gewonnen Einsichten kann man anschliessend laufend durch zusätzliche Geräte, Messungen und Daten verbessern.

raspberry

Als ideale Plattform zur Analyse und Darstellung von IoT-Daten sieht Microsoft natürlich Azure. Tatsächlich steht hier out-of-the-box eine breite Palette von Möglichkeiten zur Verfügung, um typische IoT-Workflows abzubilden: Datenspeicher, Datenmanipulation, Analyse, Darstellung. Aus unserer eigenen Erfahrung können wir bestätigen, dass sich Lösungen damit sehr einfach umsetzen lassen. Ein weiteres Argument zur Nutzung der Cloud ist die Fähigkeit zur Verarbeitung unglaublich grosser Datenmengen: Eine Instanz eines Event Hubs kann bis zu 1 Gigabyte Daten pro Sekunde von 1 Million unterschiedlicher Quellen verarbeiten (insgesamt verarbeiten die Events Hubs momentan mehr als 60 Terabyte Daten pro Tag).

Zum ersten Mal live gesehen habe ich gestern Azure Machine Learning. Spontan fand ich das sehr eindrücklich – allerdings nicht ganz ungefährlich. Eindrücklich ist, wie einfach sich hier Analysen erstellen und durchführen lassen. In einer graphischen Oberfläche klickt man sich einen Workflow zusammen (ähnlich wie beispielsweise in FME), wählt eine geeignete Methode und trainiert diese. Ein Knopfdruck publiziert das trainierte Modell als Web-Service.

Warum kann das gefährlich sein? Es ist so einfach zu bedienen, dass man auch ohne Kenntnisse in Datenverarbeitung, Statistik und Machine Learning schnell zu Ergebnissen kommt. Die Frage ist bloss, ob es die richtigen Ergebnisse sind. Um zu geschäftlichem Mehrwert und besseren Entscheidungen zu gelangen, ist das allerdings zentral. Man sollte deshalb nicht nur wissen, wie man mit dem Werkzeug umgeht, sondern auch was man damit macht. Dazu gehört das Wissen über die verwendeten Daten genauso wie Kenntnisse der eingesetzten Methoden.

 

 

 

GIS 5.0 – Smart and connected

Recently I came across an interesting article by Dave Peters. He outlines the evolution of GIS in four development phases:

  1. In the early 80ies GIS were based primarily on scripts. Using scripts, GI specialists cleaned, edited and visualized spatial data. Some readers might recall the ARC/INFO era and its scripting language Arc Macro Language – AML.
  2. About 20 years later, at the end of the 90ies, the first GUI-centric object-oriented GIS appeared on the stage (for example, ArcGIS Desktop in 1998). This second step with the more efficient programming technique was enabled by more performant hardware.
  3. New technologies to provide data and services emerged with the rapid advent and development of the Web. A building stone of these service-oriented architectures (SOAs) was, for example, the Web Map Services (WMS) specification that was adopted in 2000 (Version 1.0).
  4. Finally, virtualization of hardware and centralization of computing centers initiated the fourth phase leading to cloud-based GIS portals. Storage space and computing power have become scalable commodities. ArcGIS Online, launched in 2012, is a prominent example of this fourth phase.

Now the question is: what comes next?

The steps in GIS software evolution. What's next?
The steps in GIS software evolution. What’s next?

Smart and connected systems

From the past we can learn: New technological abilities lead to new applications. They substiantially influence the further evolution of GIS. Among the contenders for the most relevant (to GIS) technologies and developments I see:

  • indoor navigation,
  • the Internet of Things (IoT) and
  • real-time sytems

Future GIS applications will be more and more smart and networked. They will require a technical infrastructure which is composed of several layers: embedded components, network communications, a cloud-based platform or system, tools for providing authentification and authorization, and  gateways to include external data sources as well as in-house data (see the figure below, adapted from Porter and Heppelmann).

The architecture of future smart, networked GIS applications
The architecture of future smart, connected GIS applications (adapted from Porter and Heppelmann)

The IT Division of Ernst Basler + Partner (EBP Informatics) has already amassed solid experience with the components in such a system (see our reference projects). Also in our blog posts we engage with these future developments, most recently with regards to the real-time quality assessment of data streams.

Do you have any questions or comments on these topics? We would like to hear from you!

 

GIS 5.0 – Smart und vernetzt

Vor Kurzem bin ich auf einen interessanten Artikel von Dave Peters gestossen. Er hat die Evolution von GIS-Software in vier Entwicklungsschritten dargestellt:

  1. In den frühen 80er-Jahren basierten GIS primär auf Skripts. Mit ihnen wurden Daten bereinigt, editiert und visualisiert. Einige Leser dürften sich noch an die Zeit von ARC/INFO erinnern mit seiner Skriptsprache AML (Arc Macro Language).
  2. Erst Ende der 90er Jahre – also fast 20 Jahre später – kamen die ersten objekt-orientierten GIS-Produkte auf den Markt (z.B. ArcGIS Desktop im Jahr 1998). Möglich wurde dieser zweite Entwicklungsschritt mit der effizienteren Programmiertechnik durch eine performantere Hardware.
  3. Im Zug der rasanten Entwicklung des Webs entstanden anschliessend Technologien, um Daten und Services breit verfügbar zu machen. Ein Baustein dieser service-orientierten Architekturen ist beispielsweise die im Jahr 2000 (Version 1.0) verabschiedete Spezifikation des Web Map Services (WMS).
  4. Virtualisierung von Hardware und Zentralisierung von Rechenzentren leiteten den vierten Entwicklungsschritt ein und führten zu cloud-basierten GIS-Portalen. Dabei können Speicherplatz aber auch Rechenleistung den aktuellen Bedürfnissen entsprechend bezogen und wieder abgestellt werden. Das im Jahr 2012 lancierte ArcGIS Online ist ein prominentes Beispiel hierfür.

Jetzt stellt sich natürlich die Frage, was als Nächstes kommt.

abb1
Die vier Entwicklungsschritte der Evolution von GIS-Software.

 Smarte und vernetzte Systeme

Aus der Vergangenheit lernen wir: Neue technologische Möglichkeiten führen zu neuen Anwendungen und beeinflussen in hohem Masse auch die Weiterentwicklung von GIS. Zu den für die Zukunft von GIS relevanten Technologien und Entwicklungen zähle ich

  • die Indoor-Navigation,
  • das Internet der Dinge (Internet of Things, kurz IoT) sowie
  • Echtzeit-Systeme.

Künftige GIS-Anwendungen werden zunehmend smart und vernetzt. Sie erfordern eine neue technische Infrastruktur, welche sich aus verschiedenen Schichten zusammensetzt. Dazu gehören eingebettete Systeme, Netzwerkkommunikation und ein cloud-basiertes System, aber auch Werkzeuge zur Gewährleistung der Datensicherheit, ein Gateway für die Einbindung externer Informationsquellen sowie die Integration der eigenen Unternehmenssysteme (siehe Abbildung unten, abgeändert nach Porter und Heppelmann).

abb2
Die Architektur von smarten, vernetzten GIS-Anwendungen.

Der Geschäftsbereich Informatik von Ernst Basler + Partner (EBP Informatik) hat bereits in mehreren dieser Bereiche Erfahrungen gesammelt (vgl. unsere Referenzprojekte). Auch in unseren Blogposts beschäftigen wir uns immer wieder mit diesen Zukunftsthemen, wie z.B. die Beurteilung von Datenqualität bei Realtime-Sensoren.

Internet of Things: Live Data Quality Assessment for a Sensor Network

TL;DR: We believe that connected devices and real-time data analytics are the next big things in GIS. Here is a live dashboard for a sensor network in 7 cities around the world.

Geoinformation systems have evolved quite rapidly in recent years and the future seems to be more exciting than ever: All major IT trends such as Internet of Things (IoT), big data or real-time systems are directly related to our professional domain: Smart devices are spatially located or even moving in time; big data and real-time systems almost always need locational analytics. This is why we got interested when we heard about the „Sense Your City Art Challenge„, a competition to make sense of a network of DIY sensors, which are spread over 7 cities in 3 continents. To be honest, our interest was not so much drawn to the „art“ aspect, at the end we are engineers and feel more at home with data and technology. And there is real-time sensor data available within the challenge: About 14 sensor nodes in every city deliver approximately 5 measurements every 10 second, such as temperature, humidity or air quality. The sensor is data freely available. When we looked at the numbers, we realized that data had some surprising properties, for example the temperature within varies quite a bit within one city.

Screenshot Story Map
Screenshot of our story map for Sense Your City.

 

Our goal: Live data quality assessment for a sensor network

So, we took the challenge a bit differently and more from an engineering perspective: How to implement a real-time quality assessment system for sensor data? As an example, we took the following questions, which need re-evaluated as new sensor data comes in:

  • Are there enough sensors that provide information about the sensors?
  • How much does the sensor measurements vary within a city?
  • How do the sensor measurements compare to external data?

Our solution: A live dashboard with real-time statistics 

My colleague Patrick Giedemann and I started late last week and developed a live dashboard with real-time statistics for the sensor network of seven cities. The dashboard is implemented with a story map containing one world view and seven views on city-level. The components of the views are:

  • A heatmap showing a condensed view of the analysis for each of the cities, labeled with numbers 2 to 8. For example, we want to show the visualize number of sensor values for each city within a time frame of 30 seconds. The darker the blue bucket, the more sensor signals we got. Light buckets indicate a low number og signals in the time frame.
  • Another heatmap, which calculates coefficient of variation for each city, again with a time frame of 30 seconds.
  • A gauge showing the number of sensor signals for a city and a linechart with the minimum, maximum and average temperature for a city.

We haven’t yet got around to show real weather data, although it is processed internally.

Some implementation details

For the technically inclined: Our implementation is based on Microsoft’s Azure, one of many cloud computing platforms available. Specifically, we used three main components: Event Hubs, Stream Analytics and WebSockets.

introduction-to-azure-stream-analytics_02
Graphic from Microsoft Azure documentation. We used Event Hubs, Stream Analytics and WebSockets instead of a data store.
  • We started building our solution using Azure Event Hubs, a highly scalable publish-subscribe infrastructue. It could take in millions of events per second, so we have room to grow with only 170’000 data points per hour. Every ten seconds, we pull the raw data from the official data sources and push the resulting data stream to an Azure Event Hub.
  • For the real-time analysis, we tried Azure Stream Analytics, a fully managed stream processing solution, which can take event hubs as an input source. With Stream Analytics, you can analyze incoming data within a certain time window and immediately push the result back to another event hub. For our example, Stream Analytics aggregates the raw signal data every 3 to 4 seconds and calculates  average value, minimum value, maximum value and standard deviation for 30 seconds within a city.
  • Finally, there is a server component, which transforms the event hub into WebSockets. With WebSockets, we can establish a direct connection between the data stream and a (modern) browser client.

What’s next?

Admittedly, this is a very early version of a live quality assessment system for real-time sensor data. However, it shows the potential: We can define a set of data quality indicators like number of active sensors or the variation coefficient. These indicators can be computed as the data streams into the system. Using Azure Stream Analytics, we could incorporate tens of thousands of sensors, instead of only hundred and we’d still have the same performance without changing a line of code.

Of course, there is room for improvements:

  • Ideally the sensor would push its data directly into the Azure EventHub instead of using a polling service as intermediate.
  • Exploiting historical data, like a comparison between the live data and date from a week ago.
  • Integrating more and different data sources for the data analysis.

Do you have any question? Send me an e-mail at stephan.heuel@ebp.ch or leave a comment.