SmartSuisse 2018

Am 11. und 12. April 2018 fand in Basel zum zweiten Mal die SmartSuisse-Konferenz statt. Ich habe zusammen mit meiner Kollegin Fabienne Perret (Geschäftsbereich Verkehr) und meinen Kollegen Kaspar Fischer (Raum- und Standortentwicklung) und Ralph Straumann (Informatik) teilgenommen. Das Thema Smart City wurde in parallelen Vortragstracks und mit einem grossen Ausstellungsbereich beleuchtet. An der Konferenz konnte man Details zu vielen (Pilot-)Projekten zu Smart City in Städten und Gemeinden erfahren.

Daten-Layer

Initial begrüsste Konferenz-Initiator Mike Vogt die Besucher. Er präsentierte dabei das SmartSuisse-Modell zu Smart City: mit Untergrund-Layer, Boden-Layer, Luft-Layer und – eben neu im Zentrum beim Thema Smart City – einem Daten-Layer, der sich in die klassische Ebenen-Sicht schiebt, die wir in unserem Fach so gut kennen. In den folgenden Stunden sollte es darum gehen, welche Daten in diesem Daten-Layer erfasst und transportiert werden sollen, wie dieser mit den anderen Layer über Prozesse gekoppelt werden soll und welche Informationen man daraus extrahieren kann.

SBB-Chef Andreas Meyer machte den Auftakt der Referate, indem er unter anderem das Projekt Wolf-Areal in Basel als das smarteste Areal der Schweiz vorstellte. Auf dem Gelände soll in den nächsten Jahren ein smartes Areal konzipiert und entwickelt werden. Er hob weiter verschiedene smarte Themenbereiche rund um die Bahn hervor: Smart Mobility (Mobilitätshubs), Smart Building (Arbeiten mit BIM), Smart Public Space (Design von Erlebnisflächen im Herzen von Städten im Dialog mit der Bevölkerung), Smart City („von isoliert zu vernetzt“, Smart City als Infrastruktur Management Platform bzw. City Information Model (CIM)). Er appellierte an die Schweiz, sich gegenüber den Entwicklungen in anderen Städten der Welt offen zu zeigen, um nicht von diesen überholt zu werden.

Zusammenarbeit und umsichtige Regulierung

Klar zum Ausdruck kam bei verschiedenen Vorträgen das Bedürfnis nach Kooperation zwischen verschiedenen Partnern aus Verwaltung, Wirtschaft und Bevölkerung. Dass die Lösungsentwicklung im Alleingang kaum zu bewerkstelligen ist, wurde beispielsweise im Vortrag von Claudia Pletscher von der Schweizerischen Post deutlich: Sie sah Herausforderungen im Bereich der Regulierung, die der Technologie hinterherhinke. Sie wies in diesem Zusammenhang auf den „Red Flag Act“ im England des 19. Jahrhunderts hin, der für die damals neuen Autos 31 Jahre lang die Maximalgeschwindigkeit auf 4 Meilen pro Stunde (2 MPH innerorts) drosselte und zudem erforderte, das zur Warnung jedem Fahrzeug jemand mit einer roten Flagge  vorangehen musste – nicht ganz unähnlich zu den Settings, in denen heute automatisierte Fahrzeuge erprobt werden. (Übrigens: Der Red Flag Act verhinderte eine stattliche Zahl tödlicher Unfälle nicht.)

Lebensqualität für alle: strategisch versus opportunistisch

In vielen Referaten wurde deutlich, dass die Lebensqualität der smarten Städte im Mittelpunkt steht, oder zumindest stehen sollte. Beispielsweise postulierte Helle Søholt von der dänischen Firma Gehl:

„A smart city is a livable city!“

Damit fand die Bevölkerung der künftigen smarten Städte (die in der Technologieperspektive des Schichtenmodells zwischen Untergrund-, Boden-, Daten- und Luft-Layer vergessen gegangen war) doch zurück auf die Hauptbühne. Dass es diesbezüglich und allgemein für Smart City-Themen in der Schweiz noch Potenzial gibt, wurde ebenfalls in mehreren Vorträgen erwähnt. Thilo Zelt von Roland Berger stellte in diesem Zusammenhang eine interessante Studie zu einem „Smart City Index“ vor. Allerdings fehle es in der Schweiz allgemein noch etwas an klaren Strategien für Smart Cities. Dieser Punkt wurde am zweiten Konferenztag am Treffen der IG Smart City nochmals klar, aber zum Teil etwas anders gewertet: Während manche Städte sich eine Smart Ciy-Strategie gegeben haben (z.B. kürzlich Basel) bzw. eine erarbeiten (z.B. Zürich), haben andere Städte (etwa Aarau) den klassischen Prozess auf den Kopf gestellt (bzw. vom Kopf auf die Füsse?) und direkt mit kleinen Pilotprojekten und Tests gestartet, aus denen sich später eine Strategie herauskristallisiert.

Mobilität: Mehr Intelligenz statt Beton

Das Thema Mobilität war ebenfalls prominent an der Konferenz, nicht zuletzt natürlich mit der Konferenz-in-der-Konferenz Automaticar. Dort referierte Fabienne Perret, Mitglied der Geschäftsleitung von EBP, zum Forschungsprojekt „Einsatz automatisierter Fahrzeuge im Alltag“, das wir zusammen mit diversen Schweizer Partnern zum Thema des automatisierten Fahrens erarbeiten. Daneben drehten sich viele der bezüglich Mobilität genannten Ideen und Konzepte um multi- und intermodale Mobilitätsformen, die mit Hilfe neuer Technologien einfacher nutzbar gemacht werden können. MaaS (Mobiliy as a Service) wurde natürlich zahlreich thematisiert, unter anderem in den Vorträgen von Jörg Astalosch (Italdesign), Sampo Hietanen (MaaS Global) sowie von Gerd Scheller und Martin Fehr (Siemens).

Auch Prof. Carl Ratti vom Massachusetts Institute of Technology (MIT) wies auf die fundamentalen Änderungen hin, die im Bereich Mobilität bevorstehen: In seinem Vortrag zu Senseable Cities zeigte er eindrückliche Ergebnisse der Mobilitätsforschung, unter anderem zum Verkehrsfluss an Kreuzungen. Ausserdem zeigte er auf, dass Infrastruktur heute nicht mehr für 100 Jahre gebaut werden sollte, sondern transformierbar sein sollte, da sich die Bedürfnisse an sie in Zukunft potenziell schnell ändern werden. Das erscheint uns aber zumindest vorerst noch ein hehrer Wunsch, zeigen doch unsere eigenen Forschungsarbeiten in diesem Bereich, wie träge heute viele Bestandteile des Verkehrssystems auf technologische Innovationen reagieren, man denke zum Beispiel an Schiffs- und Flugzeugflotten oder an gebaute Infrastruktur. Künftig wird hier der oben angesprochene Daten-Layer noch wichtiger werden – nämlich um die physische Infrastruktur optimal, sicher und nachhaltig zu nutzen.

Weitere Eindrücke von der SmartSuisse finden sich in den sozialen Medien.

Wir beraten Sie gerne in Fragen rund um den Daten-Layer smarter Städte und smarter Regionen, Datengovernance, nachhaltige Planung und Entwicklung sowie eine Vielzahl weiterer Themen. Wir freuen uns über Ihre unverbindliche Kontaktaufnahme.

 

2018 Esri Partner Conference and Developer Summit – Part 2

The timing worked superbly, like the best Swiss clockwork: A few days before winter made a comeback in Switzerland, I sat in a plane to Los Angeles. Nevermind that California also had slightly cooler temperatures than usual – it was definitely preferable over the polar cold air masses that firmly occupied Switzerland. Even the place names felt evocative: Santa Cruz, Big Sur, and San Francisco. For two weeks I would cruise California, before making my way back to L.A. and then Palm Springs in order to attend the 2018 Esri Partner Conference and Developer Summit together with my colleague, Nicole Sulzberger. In what follows, we describe what we learned during the two Esri events: the latest news about developments at Esri.

Part 1 of this review has been published last week.

The Science of Where

As described previously, The Science of Where is still Esri’s tagline. Esri aims to apply the science of where to help answering spatial questions with:

  • increased efficiency to save resources
  • better analysis to actually understand what is going on, and
  • better communication to foster good decisions

Many of the recent developments shown during the Partner Conference and the Developer Summit can be linked very well to at least one, often several, of these three promises.

 

Select Highlights (continued from Part 1)

Geo AI DSVM

The big news of Esri in terms of data analysis was quite a mouthful: Esri Geo AI Data Science Virtual Machine (DSVM) on Microsoft Azure. That’s „GeoAI DSVM“ for short.  What is behind this? Geo AI DSVM is a virtual machine in the Microsoft Azure cloud that combines ArcGIS Pro and a plethora of Microsoft data science toolkits. It’s part of Microsoft’s „AI for Earth“ project. The VM contains pre-configured installations of, for example, Python, R, VisualStudio, RStudio, Microsoft Powershell, various Python and R packages, Power BI, and a Jupyter Notebook Server. So there is a lot of things that allow you to dive into GIS-supported data science in a scalable cloud environment. In order to use the GeoAI DSVM you need to have an ArcGIS Pro license and Azure VM usage charges apply. An overview of the GeoAI DSVM can be found in the Microsoft Azure Marketplace. On Github, Esri offers an example of a pixel-level landcover classification using Deep Learning with Microsoft’s Cognitive Toolkit, that can be used in conjunction with the Geo AI DSVM.

Geo AI DSVM was a big part of Joseph Sirosh’s (Corporate Vice President in the AI Research group at Microsoft) keynote address:

 

Jupyter Notebooks

Throughout the conference, various data science and machine learning examples were highlighted, and often demonstrated with Jupyter Notebooks – basically an interactive Python environment in your browser that lends itself ideally for making data analysis workflows more transparent and reproducible through integration of code, documentation, and output. Jupyter Notebooks can also be used with the Python API for ArcGIS for, e.g., Portal administration, however, if you are so inclined. If you do data analysis in Jupyter using, e.g. arcpy, results are by default temporary but can be persisted onto a Portal or locally. Esri offers http://notebooks.esri.com for testing Jupyter Notebooks.

One example that was shown using Jupyter was the extraction of SAM sites from orthoimagery using a neural network:

A planned feature for ArcGIS Portal is the integration of Jupyter Notebooks. You will be able to share your Jupyter Notebooks with your colleagues on your ArcGIS Portal.

And Other Things Python

In other Python news, we found an emphasis on ArcGIS Enterprise and Online automation using Python, specifically the ArcGIS API for Python for communicating with a web GIS. Example tasks that can be done through this pythonic API were the creation of groups and user accounts, the assignment of accounts to groups, and of content to users, cloning a portal, re-assignment of content, creation of reports about content, as well as publishing new and pruning old content. The plenary session had an Automation with Python slot that highlights some of the key developments around these topics.

Secondly, Python in ArcGIS Pro was a big topic and also part of the plenary session. Some of the key things to know: ArcGIS Pro comes with Python version 3, rather than 2.7 like ArcGIS 10.x. Further, the Python installation is conda-based. (Ana)conda is a widely used Python package and virtual environment manager that should make the lives of Python developers easier. Thanks to the conda-based installation, many relevant Python packages are pre-installed, for example the whole SciPy stack (this includes pandas). There have been numerous other improvements, big and small, of the Python developer experience, for example for those of you who like to work in Microsoft VisualStudio.

If you want to know more about these topics, check out the videos and the above links: Automation with Python and  Python in ArcGIS Pro.

Exploratory Data Analysis with Insights for ArcGIS

Insights, the data exploration solution by Esri, was highlighted throughout the event (earlier versions of Insights have been shown in previous events). This tool allows to carry out data analysis using a drag-and-drop interface that lets the user build a collection of „cards“ that can contain maps, charts, or tables. Users can interact with different cards using the linked view paradigm where features in a card are highlighted based on a user interaction in another card.

ArcGIS Insights (source: Esri)

Insights further allows joining data dynamically (not sure to what data set size this stays performant) and the analysis that a user builds is represented in a graphical model that can be shared with other users. Since December 2017, Insights is newly available also in ArcGIS Online (previously it was part of ArcGIS Enterprise): To perform analysis in Insights for ArcGIS, users need to purchase a subscription, in addition to an ArcGIS Online Level 2 named user license. A Level 1 named user license for ArcGIS Online provides you view-only access to Insights.

 

Also on the Table

There was much, much more on the plate: improvements around the performance of the GeoEvent Server, the Spatiotemporal Big Data Store and the GeoAnalytics Server, for example, but also in deployment with Docker and Kubernetes, UX and UI, data in the Living Atlas, as well as IoT and real-time applications.

 

And Where Do We Go From Here?

In our opinion, it was rightly emphasised in the plenary session during the conference: the future lies in

  • connecting separate software systems,
  • expanding collaboration between individuals, teams, departments, and organizations,
  • integrating all kinds of data in common views, be they interactive plots and visualizations, feature layers, maps or web scenes,
  • and adding powerful exploration and analysis of data.

In the perspective of Esri, these ingredients enable a new scale in the trajectory of GIS (if you still want to call it that): GIS will turn into a system of systems.

However, this process doesn’t happen by itself but requires careful thinking and designing.

If any of these piqued your interest, please get in touch with us. We are happy to think along with you and assist in designing tomorrow’s workflows, systems and tools!

 

Part 1 of this review has been published last week.

 

2018 Esri Partner Conference and Developer Summit – Part 1

The timing worked superbly, like the best Swiss clockwork: A few days before winter made a comeback in Switzerland, I sat in a plane to Los Angeles. Nevermind that California also had slightly cooler temperatures than usual – it was definitely preferable over the polar cold air masses that firmly occupied Switzerland. Even the place names felt evocative: Santa Cruz, Big Sur, and San Francisco. For two weeks I would cruise California, before making my way back to L.A. and then Palm Springs in order to attend the 2018 Esri Partner Conference and Developer Summit together with my colleague, Nicole Sulzberger, in order to gather the most recent news for our clients and to network with Esri employees and partners from around the world. In what follows, we describe what we learned during the two Esri events: the latest news about developments at Esri.

The Science of Where

The Science of Where is Esri’s tagline since 2017. In the plenary session, Jack Dangermond, the president of Esri, made clear what it summarizes: The world is seeing many big challenges. Loss in biodiversity, competition for resources, increased mobility demands, demographic shifts, and climate change, to name a few. The science of where helps to address all of these and more. It is, in Esri’s understanding, the combination of the competence of geography (process knowledge, spatial thinking and reasoning) and the technology around GIS. Applying the science of where helps answering spatial questions with:

  • increased efficiency to save resources
  • better analysis to actually understand what is going on, and
  • better communication to foster good decisions

All this rings true for me as a geographer and in our team we agreed that this vision matches well with our own.

What Esri showed during the Partner Conference and Developer Summit can be linked very well to at least one, often several, of these three promises, for example:

  • increased efficiency around working with big data, on desktop or mobile, or administrating one’s geodata infrastructure,
  • better analysis capabilities within (e.g., ArcGIS Insights, GeoAnalytics Server) and around Esri’s core products (e.g., GeoAI DSVM, R-ArcGIS-Bridge, Jupyter Notebooks), and
  • better communication through effective visualization (e.g. on mobile using the ArcGIS Javascript API 4.x, using the AR or VR mode and their innovative user experience, or leveraging the computational and graphics performance of game engines for visualizing 3D content)

Select Highlights

ArcGIS API for JavaScript

The developments of the JavaScript API 4.x has been a big topic in this years Developer Summit. The WebApp Builder and the ArcGIS Online and ArcGIS Enterprise Map Viewer are both moving to the ArcGIS JavaScript API 4.x. There are, for example, new out-of-the-box responsive widgets and an enhanced search widget. Feature Layers now support loading large amounts of features for visualization and analysis with improved client-side Web GL-based rendering, improved Feature Service capabilities, and the possibility to build a Feature Layer from in-memory data (such as a CSV file with coordinates that is loaded into a map using drag-and-drop). Finally, in JavaScript API 4.x, the geometry engine is available locally, thus you can get faster responses for geometry operations. This enables us to implement locally (and thus with immediate response), for example, snapping, simple topology checks, interactively calculating areas when cutting polygons and much more.

 

Augmented and Virtual Reality

Augmented (AR) and Virtual Reality (VR) functionality has been built into the ArcGIS Runtime SDK. The AR mode gives a transparent background to a scene so that it can be shown on top of a device’s camera feed. The VR mode allows displaying a scene in stereo and an appropriate VR user interface. There is an Esri Labs ArcGIS 360 VR app for the Samsung Gear VR headset on Oculus that highlights the new VR capabilites of Esri software. Further, Esri showed their tabletop UX for planning: there, a 3D scene (from e.g. City Engine) is displayed on a virtual tabletop. Viewers can virtually gather around the table and interact with the model, e.g. selecting different planning scenarios for visualization. The viewers themselves can be in remote locations. Upon viewing the scene they can also see other viewers and what they are looking at. Finally, any viewer can teleport into the scene itself and look at the model from different in-scene vantage points.

The following video from the plenary sessions highlights some AR/VR capabilities of ArcGIS Runtime (jump to 4:00 for seeing first a VR, then an AR demo):

 

3D and Indoors GIS

Esri 3D Web Scenes will be consumable on mobile devices, using a responsive interface. Features from 3D scene layers are quickly streamed to the device. Users can use advanced measurement tools to, for example, measure plan surface areas in a 3D scene:

 

Some powerful 3D features in native apps such as interactive line-of-sight analysis have been shown in another plenary session, the video of which is available from Esri.

Further, 3D scenes support a new rendering mode that gives building edges a „sketch“ look. This is interesting, for example, for visualization of planned projects where you do not yet want to convey a very crisp and precise impression of a provisionally planned scenario.

Since the previous Partner Conference and Developer Summit, ArcGIS Indoors has matured further. This new suite of tools comprises ArcGIS Indoors Desktop (built on top of ArcGIS Pro if I’m not mistaken), the ArcGIS Indoors Web Viewer, and the ArcGIS Indoors Mobile App. They in turn support data preparation and map design, simple editing and dashboard functionality, and indoor-navigation using device sensors through the indoors positioning feed.

ArcGIS Indoors: Esri Campus Viewer (http://3dcampus.arcgis.com/EsriCampusViewer/app)

When you zoom out from your building(s) view, the transition into geographic space and navigation by GPS only should be seamless. The navigation functionality relies on an appropriate 3D network dataset (somewhat in contrast to our own pedestrian modeling tool Walkalytics).

Click through to Part 2 of this review.

 

Analytik in smarten Systemen

Die vier Analytiklevels smarter Systeme, nach Gartner (CC-BY-NC www.ebp.ch)

Begriffe wie Smart City, Smart Infrastructure und Smart Systems deuten darauf hin: Mit dem Internet der Dinge (Internet of Things, IoT), Industrie 4.0, Politik 4.0 und Verwaltung 4.0 beginnt eine neue Ära von Verfahren und Algorithmen mit Fokus auf heterogene Daten und neuartige Fragestellungen. Wodurch zeichnen sich jedoch diese «neuen» Analytikfunktionen aus?

Die Beratungsfirma Gartner hat ein Analytik-Reifegradmodell erarbeitet, das sich für die Beschreibung unterschiedlicher Analytiklevels eignet. Der Begriff «Reifegradmodell» enthält natürlich eine Wertung. Unserer Ansicht nach sind aber die weniger komplexen Analytiklevels nicht in jedem Fall weniger wertvoll als die komplexeren. Die komplexeren Analytiklevels werden durch die Anwendung spezieller Verfahren ermöglicht: Beispiele sind Simulation, Trendextrapolation, Machine Learning-Ansätze und Neuronale Netzwerke.

Die vier Analytiklevels smarter Systeme, nach Gartner (CC-BY-NC www.ebp.ch)
Die vier Analytiklevels smarter Systeme, nach Gartner (CC-BY-NC www.ebp.ch)

Folgende Analytiklevels können in intelligenten Systemen unterschieden werden:

Deskriptive Analytik (Descriptive Analytics)

Die deskriptive Analytik umfasst die Beschreibung von Zuständen und Ereignissen. Mit den Mitteln der deskriptiven Statistik und Informationsvisualisierung beantwortet sie die Frage: «Was ist wann / wo / wie geschehen?». Ein Beispiel von deskriptiver Analytik anhand eines Fahrzeugs wäre die statistisch-beschreibende Auswertung von Daten eines Fahrtenschreibers: Wie lange fuhr das Fahrzeug? Mit welcher Durchschnittsgeschwindigkeit?

Diagnostische Analytik (Diagnostic Analytics)

Die diagnostische Analytik geht über die deskriptive Analytik hinaus und fragt nach den Gründen (kausalen Zusammenhängen) hinter einem Zustand oder Ereignis. Sie beantwortet damit die Frage «Weshalb ist (…) geschehen?». Dazu nutzt sie kausalitätsaufspürende Verfahren. Statistische Korrelationsanalysen können dafür ein Ausgangspunkt sein – allerdings müssen Scheinkorrelationen (aufgrund von Mediatorvariablen bzw. confounding variables) ausgeschlossen werden können und der zeitliche Verlauf zwischen Ursache und Ereignis richtig sein. Im Fahrzeug-Beispiel gedacht könnte eine diagnostische Analyse der Frage nach den Gründen eines Motorschadens oder eines Unfalls nachgehen.

Prädiktive Analytik (Predictive Analytics)

Die prädiktive Analytik macht basierend auf Messungen oder Beobachtungen Vorhersagen zu zukünftigen Zuständen eines untersuchten Systems oder Ereignissen im System. Dadurch beantwortet Sie Fragen wie «Was wird wann / wo / wie geschehen?». Sie hilft damit direkt, Entwicklungen zu antizipieren und allenfalls entsprechende Massnahmen zu entwerfen. Ein einfaches Beispiel prädiktiver Analytik wäre ein System, dass Fahrzeuginsassen bei bevorstehendem Spurwechsel vor einer möglichen Kollision mit einem von hinten schnell nahenden anderen Fahrzeug warnt.

Präskriptive Analytik (Prescriptive Analytics)

Die präskriptive Analytik geht noch einen Schritt weiter als die prädiktive: Sie versucht, aus vorhergesehenen Zuständen bzw. Ereignissen direkt Handlungsanweisungen abzuleiten, um einen gewünschten Zielzustand des untersuchten Systems zu erreichen. Sie beantwortet also die Frage «Was muss ich wann / wo / wie tun, um den Systemzustand x zu erreichen?».

Bei der präskriptiven Analytik können zwei Untertypen unterschieden werden: Bei der Entscheidungsunterstützung formuliert die Analyse Empfehlungen, die dann von Menschen beurteilt und entweder zur Anwendung empfohlen oder verworfen werden. Bei der Entscheidungsautomatisierung ist auch das Anwenden der algorithmisch abgeleiteten Entscheidung dem System überlassen. Hier misst oder beobachtet ein smartes System also seine Umwelt, analysiert diese bezüglich von Menschen definierten Zielwerten und setzt automatisch Entscheidungen um. Diese Kategorie wird manchmal auch normative Analytik genannt.

Ein einfaches Beispiel für die Entscheidungsautomatisierung ist ein Spur- und Abstandsautomat in einem Fahrzeug, der zur Vermeidung von Kollisionen selbständig Lenk- und Bremsbefehle an die Fahrzeugsteuerung sendet. Ein Beispiel für Entscheidungsunterstützung wäre ein ähnliches System, bei dem aber «nur» Warnleuchten im Fahrzeugcockpit aufleuchten und die Entscheidung zu lenken oder zu bremsen weiterhin der Fahrerin oder dem Fahrer überlassen bleibt.

Welche Analytiklevels unterstützen Ihre Erhebungs- oder Messmethodik, Ihre Dateninfrastruktur, Ihre Softwareumgebung und Ihre Organisation? Welcher Analytiklevel ist für welche Ihrer Fragestellungen der richtige? Was ist der Nutzen und wie kann dieser möglichst effizient realisiert werden? Mit solchen Fragen dürfen Sie sich gerne an uns wenden.

Open Data-Erkenntnisse aus Deutschland

Auf dem Blog der Website wegweiser-kommune.de schildert Mario Wiedemann, Projektmanager im Programm LebensWerte Kommune der Bertelsmann Stiftung, seine Reise in fünf deutsche Städte, die sich Open Data, also dem Öffnen ihrer Datenbestände, verschrieben haben. Aus dem Geschilderten lassen sich auch für Schweizer Behörden (nicht nur auf der Ebene der Städte) interessante Erkenntnisse ableiten.

Die Open Data-Szene Deutschlands lebt: Im Juni hat unser Nachbar ein Open-Data-Gesetz auf Bundesebene in Kraft gesetzt (nicht ohne einige negative Punkte). Im August folgte der Beschluss eines ersten Nationalen Aktionsplans im Rahmen von Deutschlands Mitgliedschaft in der internationalen Initiative „Open Government Partnership“. Was geschieht aber in den Städten? Und was können wir daraus lernen? Meine Schlussfolgerungen aus dem Gelesenen:

Der Austausch zwischen Zivilgesellschaft und Behörden braucht Raum und Zeit (Bonn, Ulm)

Die Stadt Bonn verfügt über das BonnLab, in dem sich Interessengruppen rund um stadtbezogene Daten austauschen. Der regelmässige Kontakt zwischen Behörden und Open Data-Nutzenden hilft beiden Gruppen dabei, die Bedürfnisse des Gegenübers besser zu verstehen. Die Behörde fördert Open Data-Nutzende zum Beispiel mit der Vermittlung interessanter Kontakte. Mit einer solchen offenen Kultur kann ein für eine Stadt als Wirtschafts- und Wissensstandort wertvolles Open Data-Ökosystem entstehen.

Schönes Fundstück von Mario Wiedemann: Fazit von Open Data Bonn

Smart Cities müssen offen sein (Bonn)

In Smart Cities werden künftig vermehrt Daten gesammelt, aggregiert und verarbeitet werden. Damit dies nicht zu Daten- und Informationsmonopolen bei grossen Systemanbietern führt, sollten Smart Cities rechtzeitig entsprechende Schritte im Thema Data Governance (Datengovernance bzw. -hoheit) unternehmen. Nur so ist sichergestellt, dass auch die im Rahmen einer Smart City gesammelten Daten allen zugute kommen. Sven Hense von der Stadt Bonn nennt das oft zitierte Smart City-Beispiel Barcelona mal als eher negatives Exempel, das aktuell versucht, wieder mehr Kontrolle über seine Smart City-Daten zu erlangen.

Verheerend.

Smart Cities benötigen eine Basisinfrastruktur (Ulm, Jena)

Für eine erfolgreiche Umsetzung des Smart City-Gedankens benötigen Städte vor allen technischen Lösungen die passende Basisinfrastruktur. In meinem Verständnis gehören dazu unter anderem offene Daten, eine griffige Open Data-Regelung, ein etablierter Austausch mit der Zivilgesellschaft und eine funktionierende Community. Darauf lässt sich aufbauen: Die Verantwortlichen in Jena haben etwa festgestellt, dass Open Data sich bestens eignet als „Sprungbrett (…) für andere wichtige Themenbereiche der Digitalisierung einer Stadt“. Auf technischer Seite benötigen Smart Cities dann vor allem effiziente Datenkommunikationskanäle für Internet of Things-Anwendungen. Ein solcher ist LoRaWAN, das im Moment sowohl in Ulm als auch in Bonn im Aufbau ist. Auch in Zürich werden derzeit LoRaWAN-Netze konstruiert: ewz setzt LoRaWAN schon für Smart City-Pilotprojekte ein. Wir haben im Frühling 2016 darüber berichtet, dass wir einen LoRaWAN-Gateway von The Things Network an unserem Standort in Zürich Stadelhofen betreiben.

Open Data nützt auch der Verwaltung (Freiburg)

Am Beispiel der Stadt Freiburg in Deutschland lässt sich schön aufzeigen, dass Open Data auch der Verwaltung nützt: Hier wurde Open Data nicht für sich alleine sondern als Resultat eines modernen Datenmanagements gedacht. Im Rahmen einer Neugestaltung des städtischen Datenmanagements konnten so gleichzeitig die Voraussetzungen geschaffen werden, um Open Data mit möglichst wenig Zusatzaufwand anbieten zu können. Von den so geöffneten Daten profitiert in den meisten Fällen schliesslich auch die Verwaltung: das Datenangebot unterschiedlicher Abteilungen wird systematisch inventarisiert, gut dokumentiert, sichtbar, durchsuchbar und bekannter gemacht und dadurch vor allem auch für Mitarbeitende der Verwaltung selbst einfacher zu nutzen – nicht zu sprechen von demjenigen Nutzen, den Externe damit generieren und der der Verwaltung auch zugute kommt. Eine integrale Sicht auf das städtische Datenmanagement lohnt sich also, um den Gewinn durch Open Data zu maximieren (und nicht zuletzt auch, um die Kosten fair zu betrachten). Die integrale Sicht Freiburgs geht sogar noch weiter: die Mitarbeitenden der Verwaltung werden eigens in der Nutzung der neu zugänglich(er)en Daten geschult. Meiner Meinung nach: in der heutigen Zeit gut investiertes Geld.

Silo: Eine nicht mehr zeitgemässe Form der Datenhaltung

Open Data ist viel wertvoller als «nur» das Öffnen von Daten (Freiburg)

Im Idealfall ziehen alle Abteilungen einer Verwaltung an einem Strang bezüglich dem Öffnen von Daten. Dann kann sich ein wertvoller Kulturwandel einstellen, wie Mario Wiedemann beschreibt: „Plötzlich wird vielen klar: Daten müssen vor den Bürgerinnen und Bürgern nicht wie ein Schatz gehütet werden und die Zusammenarbeit mit Kolleginnen und Kollegen aus anderen Bereichen schafft einen Mehrwert.“

Behörden benötigen eine griffige Open Data-Strategie (Jena)

Jena hat bereits 2014 eine Open Data-Strategie beschlossen, die die Öffnung aller Daten zum Ziel hat ausser jener, die „dem unmittelbaren Schutz personenbezogener Daten oder sonstigem gesetzlichen Schutzbedarf unterliegen“. Eine konsequente Open Data-Strategie sollte auf den Gedanken des generellen Öffnens von Datenbeständen abzielen. Die saubere Definition legitimer Ausnahmen vom Öffnungszwang gehört natürlich auch dazu. Diese Definition sollte aber abschliessend und klar sein, damit eine Behörde auf deren Basis sauber argumentieren kann – pro oder kontra Öffnung. Und: natürlich muss die Strategie alle Beteiligten mitnehmen auf den Open Data- und schliesslich den Digitalisierungsweg.

Plötzlich merkt man, dass man zusammen in einem Boot sitzt.

 

Den Blogpost als Einstiegspunkt für Mario Wiedemanns Schilderungen finden Sie hier: Eine Reise in die Open Data-Städte.

Satellitendaten für zeitnahe Informationen im Katastrophenfall

Satelliten sind heutzutage eine wichtige Quelle für zeitnahe Informationen und Daten. Satelliten kommen speziell für schlecht zugängliche oder sehr ausgedehnte Gebiete zum Einsatz. Dank moderner Plattformen für die Datendistribution sind Satellitendaten heute relativ einfach zu beziehen und für eigene Auswertungen in Management-Informationssystemen oder Geoinformationssystemen einsetzbar.

Am Mittwoch, dem 23. August 2017, wurde das Val Bondasca und das Dorf Bondo im bündnerischen Bergell von einem massiven Bergsturz und Murgang betroffen. Im Val Bondasca sind gemäss Schätzungen bis zu vier Millionen Kubikmeter Gestein vom Piz Cengalo ins Tal gedonnert (Video von swissinfo):

Dank der Satellitenplattform Sentinel-2 können Fachleute das Ausmass der Zerstörung ermitteln. Sentinel-2 wurde von der ESA als Teil des Copernicus-Programms der Europäischen Union entwickelt. Sentinel-2A wurde im Juni 2015 ins Weltall geschossen, Sentinel-2B folgte im März 2017. Die Schweiz hat durch die Teilnahme bei der ESA an der Entwicklung von Copernicus mitgewirkt (die Entscheidung über die weitere Beteiligung an Copernicus über ein entsprechendes Abkommen ist noch nicht gefallen).

Sentinel-2 verfügt über eine hohe zeitliche Auflösung, d.h. dasselbe Gebiet wird relativ oft (alle paar Tage) vom Satelliten überflogen und ‚fotografiert‘. Dank dieser hohen Wiederkehrrate waren relativ bald – am 26. August 2017 – am Vortag aufgenommene Daten für das betroffene Gebiet verfügbar. [Update: Bei einer Aktualisierung am 1.9.2017 habe ich das Echtfarben- und Falschfarben-Nahinfrarotbild mit prä-operativen Daten von Sentinel-2B aktualisiert. Diese Daten sind im Gegensatz zu jenen von Sentinel-2A nur Level 1-Produkte, d.h. es wurde unter anderem noch keine Atmosphärenkorrektur und Geländekorrektur angewendet. Für die visuelle Beurteilung sind diese Bilder dennoch geeignet. Zudem weisen sie einen geringeren Bewölkungsgrad auf als die älteren Bilder.] Für die Visualisierung des Bergsturzes haben wir Daten von Sentinel-2A über den Copernicus Open Access Hub bezogen und aufbereitet. Die Verarbeitung dieser Satellitendaten ist heute relativ einfach möglich und es lassen sich aus ihnen in Nahechtzeit relevante räumliche Informationen ziehen. Zur Demonstration haben wir drei Informationsprodukte für vor und nach dem Bergsturz generiert:

Echtfarbenbild

Das Echtfarbenbild zeigt eine natürlich eingefärbte Darstellung des Gebiets. Das Geröll, das nach dem Bergsturz im Val Bondasca verbleibt und das Geschiebe, das in Bondo aus dem Flussbett trat, sind gut sichtbar.

Echtfarbenbild des Bergsturzes von Gondo, Vorher–Nachher-Vergleich
Echtfarbenbild des Bergsturzes von Gondo, Vorher–Nachher-Vergleich. Klicken für bessere Qualität.

Falschfarben-Nahinfrarotbild

Das Falschfarbenbild stellt den (für das menschliche Auge eigentlich nicht sichtbaren) Nahinfrarot-Kanal zusammen mit dem Rot- und Grün-Kanal dar. In dieser Darstellung ist gesunde Vegetation stark rot eingefärbt, Wasser erscheint blau oder schwarz. Gut sichtbar ist hier die Trübung des kleinen Sees westlich von Castasegna

Falschfarben-Infrarotbild des Bergsturzes von Gondo, Vorher–Nachher-Vergleich
Falschfarben-Infrarotbild des Bergsturzes von Gondo, Vorher–Nachher-Vergleich. Klicken für bessere Qualität.

NDVI-Bild

Das NDVI-Bild (Normalized Difference Vegetation Index) ist eine spezielle Kombination des Nahinfrarot-Kanals mit dem Rot-Kanal, die ebenfalls die Unterscheidung von Vegetation und anderen Flächen betont. Auch diese Darstellung zeigt die massive Überdeckung von Vegetation durch Geröll und Schutt im Val Bondasca.

NDVI-Bild des Bergsturzes von Gondo, Vorher–Nachher-Vergleich
NDVI-Bild des Bergsturzes von Gondo, Vorher–Nachher-Vergleich. Klicken für bessere Qualität.

 

EBP ist Mitglied der Gesellschaft Schweizer Erdbeobachtungsdienstleister (SED). Wir erarbeiten seit 1995 massgeschneiderte Lösungen im Bereich Erdbeobachtung, Datenanalysen, IT-Beratung und Softwareentwicklungen.

 

e-geo-Interview mit Ralph Straumann: «Data Literacy ist eine grosse Herausforderung»

Mit dem letzten Newsletter schloss das Impulsprogramm e-geo.ch Anfang November 2016 seine Tätigkeiten ab. Ralph Straumann, Projektleiter in unserem Tätigkeitsfeld Systemberatung + Analytik wurde in diesem letzten, dem 28. Newsletter von e-geo.ch neben anderen GIS-Exponentinnen und -Exponenten interviewt. Das Interview dreht sich rund um unsere innovativen Themen: Data Science, die Zukunft von GIS und die digitale Transformation.

e-geo.ch und die NGDI. Bildquelle: e-geo.ch
e-geo.ch und die NGDI. Bildquelle: e-geo.ch

Personen in der Geoinformationsbranche ist e-geo.ch ein Begriff. Für alle anderen paraphrasiere ich aus der Newsletter-Einleitung von Christian Kaul: e-geo.ch war seit 2003 das Programm zur Förderung des Aufbaus einer Nationalen Geodaten-Infrastruktur (NGDI). Die Trägerorganisationen von e-geo.ch waren der Bund, die Kantone und die SOGI. Mit der neuen Geoinformationsgesetzgebung auf Stufe Bund (GeoIG) wurde 2008 ein grosser Meilenstein erreicht. Ab 2011 rückten dann Umsetzungsfragen zwischen Bund und Kantonen in den Fokus. Im Austausch zwischen den Trägerorganisationen zeigte sich dann ab Januar 2015, dass e-geo.ch zwar viel erreicht hat aber für die Umsetzung ein neuer Rahmen gesucht werden soll.

Der letzte e-geo-Newsletter bietet einen Rückblick in die „Pionierzeit“ und auf verschiedene Highlights des Impulsprogramms. Er zeigt aber auch aktuelle Herausforderungen der Geoinformation und fragt: Was kommt danach? Verschiedene Fachleute geben ihre Einschätzungen ab zu spannenden Visionen und Trends der Branche. Der Text aus dem Interview mit Ralph Straumann:

«Data Literacy ist eine grosse Herausforderung»

Das BAKOM nennt in einer Studie vier grosse Trends, die auch für die Geoinformation relevant sind, nämlich Information, Cloud, Mobile und Social. Wir alle produzieren immer mehr Daten, schon allein, weil wir mit dem Smartphone herumlaufen. Wir nutzen aber auch immer mehr Informationen in der einen oder anderen Form. Das wird ermöglicht durch die Cloud und ihre skalierbare Rechnerleistung. «Mobile» ist ein Trend, weil immer mehr Internetnutzung über das Handy läuft, und «Social» steht für die Netzwerke, wo man sich miteinander austauscht. Diese vier Trends gelten natürlich nicht nur für GIS, aber an ihnen kann man recht viel fest machen, was im Moment passiert.

Niederschwelligere Angebote

Weiter stelle ich fest, dass unser Feld sich öffnet. Es gibt neue Werkzeuge, die das Arbeiten mit Geodaten viel weniger exklusiv machen. Früher hatte man die grossen, teuren GIS-Systeme. Dazu gibt es heute Alternativen, kommerzielle und freie. Diese Entwicklung wird unter anderem vorangetrieben durch den Datenjournalismus, der in den letzten Jahren aufgekommen ist und auch häufig mit Karten zu tun hat. Aus dieser Richtung kommen viele neue Herangehensweisen von Leuten, die nicht so in den Paradigmen drin sind wie wir GIS-Leute. Das finde ich spannend, und das meine ich, wenn ich von «Mainstreaming» und «Consumerisation» spreche.

Geomorphometrie: Valleyness im Tessin (Straumann, 2010)

Komplexe Datenwissenschaft

Als Trend sehe ich auch die «Data Science», die Datenwissenschaft, die seit ein paar Jahren immer mehr in den Vordergrund tritt und in der wir bei EBP auch aktiv sind. Das Ziel der «Data Science» ist, mit den umfangreich anfallenden Daten Prozesse und Strukturen zu optimieren. Ein klassisches Beispiel ist Amazon: Wenn ich dort Bücher bestellt habe, sagt mir Amazon, welche Bücher mir auch noch gefallen könnten. Dieses Empfehlungssystem ist eine einfache Anwendung, aber es gibt auch noch andere Beispiele, wo das viel weiter getrieben wird, auch im Zusammenhang mit Geodaten.

Trajektorien in Zürich von lokalen und auswärtigen Flickr-Nutzerinnen und -Nutzern (Straumann, Çöltekin & Andrienko, 2014)
Trajektorien in Zürich von lokalen und auswärtigen Flickr-Nutzerinnen und -Nutzern (Straumann, Çöltekin & Andrienko, 2014)

Weniger einfache Tätigkeiten

Diese Trends haben für unsere Branche natürlich Konsequenzen, indem einfache GIS-Arbeiten in Zukunft vielleicht weniger gefragt sein werden. Vor fünf Jahren konnte es durchaus sein, dass ein Kunde zu uns kam mit einer Datenbank, in der die Adressen seiner Kunden hinterlegt waren und die er auf einer Karte sehen wollte. Solche einfachen Auswertungen kann es zwar immer noch geben, aber die Funktionalität dafür ist je länger je mehr in gängigen Desktop-Programmen eingebaut, so dass die Leute das selber machen können.

Aber die Kundenstandorte nicht nur zu kartieren sondern zu analysieren, zum Beispiel bezüglich der Frage, wo ein neuer Standort eröffnet werden soll und wie sich dieser auf das Betriebsergebnis oder die Versorgung auswirkt – das sind nach wie vor spannende Fragestellungen, die wir mit «Location Intelligence» beantworten können.

Es ergeben sich aber gerade noch weitere neue Fragen: Wir beraten unsere Kunden zum Beispiel zu den aktuellen Entwicklungen rund um das Internet of Things, Bots, Echtzeitdaten und Smart Cities bzw. Smart Infrastructure. Für diese Themen braucht es Fachwissen und spezielle Kompetenzen.

«Data Literacy» als Bürger(innen)pflicht

Ein besonderes Anliegen ist mir persönlich die «Data Literacy», das heisst die Befähigung von Nicht-Fachleuten, Daten und darauf aufbauende Analysen richtig «lesen» und interpretieren zu können – ganz besonders, wenn auf dieser Grundlage geschäftliche oder politische Entscheidungen getroffen werden. In unserer direkten Demokratie stimmen wir zudem über Fragen ab, die immer öfter ein gewisses Verständnis für Datenanalyse voraus setzen. Wir als Gesellschaft müssen also lernen, diese Dinge zu verstehen, damit umzugehen und manches auch kritisch zu hinterfragen.

Sie können das im e-geo-Newsletter erschienene Interview mit Ralph Straumann hier als PDF beziehen oder hier die gesamte Publikation herunterladen.

Vielen Dank an Swisstopo und Claudia Fahlbusch von escribo für die Erlaubnis zur Publikation dieses Texts auf unserem Blog.

Win-win: Schliessen des Open Data-Feedback-Loops

Parkplatzdaten der Stadt Zürich waren für fünf Tage öffentlich. Nun sind sie nicht mehr verfügbar. Was ist geschehen?

Parkplatzdaten: Teil der Smart City-Basisinfrastruktur

Am 9. November hat die Stadt Zürich einen Datensatz des Tiefbau- und Entsorgungsdepartements  mit den Positionen sämtlicher öffentlich zugänglicher Parkfelder veröffentlicht, mitsamt ergänzenden Attributen zur Art des Parkfelds und der maximal zulässigen Parkzeit. Dieser Datensatz ist aus verschiedenen Gründen interessant und seine Veröffentlichung unbedingt richtig: Es gibt immer wieder politische Diskussion um die Parkraum-Versorgung der Innenstadt und von verschiedenen Quartieren. Mit Daten zu diesem Thema können diese Diskussionen versachlicht werden. Andererseits nahm gestern der Projektleiter der Smart City-Strategie der Stadt Zürich seine Arbeit auf. Die Parkfelder der Stadt sind noch nicht mit smarter Technologie ausgerüstet, die es erlauben würde, die Belegung zu registrieren. Es ist aber klar, dass dies eine lohnende Stossrichtung im Rahmen der Smart City-Strategie wäre, um zum Beispiel den Suchverkehr und somit Lärm, Umweltbeeinträchtigungen und vergeudete Zeit zu minimieren. Die Publikation der Parkplatzdaten kann vor diesem Hintergrund auch als ein kleiner Baustein an der Basisinfrastruktur der Stadt gelesen werden. Diese besteht bekanntlich nicht nur aus Strassen und Tramgleisen sondern immer mehr auch aus Daten und Services.

Many eyes

Der Datensatz wurde auch von den Medien aufgenommen. Das Tiefbauamt der Stadt Zürich veröffentlichte eine auf den publizierten Daten beruhende Analyse und die Stadt stellte eine 3D-Visualisierung des Parkplatzangebots zur Verfügung.

Soweit so gut. Gestern Abend dann erregte dieser Tweet von @opendatazurich und ein weiterer aus dem Umfeld von @opendatazurich meine Aufmerksamkeit:

Tweet zu den fehlerhaften Parkplatzdaten von @opendatazurich

Was war geschehen? Die Veröffentlichung der Daten führte dazu, dass plötzlich sehr viel mehr Augenpaare darauf geschaut haben. Leute mit Lokalkenntnissen – etwa rund um die eigene Wohnung oder in der Umgebung des Arbeitsorts – haben sich die Daten genau angeschaut und sind auf Unstimmigkeiten gestossen.

Die Reaktion

Die Situation und die Reaktion der Stadtverwaltung sind im Beitrag von Tele Züri gut zusammengefasst (2:32 Minuten). Im Beitrag werden lediglich zwei Unstimmigkeiten genannt, einmal im Zusammenhang mit einer sich dynamisch entwickelnden Baustellensituation, einmal im Zusammenhang mit einem nur privat und nicht öffentlich zugänglichen Parkareal. Diese Unstimmigkeiten haben dazu geführt, dass die Stadtverwaltung die Parkplatzdaten zur Prüfung und Überarbeitung offline genommen hat.

Erkenntnisse

Einige Erkenntnisse, die sich aus diesem Vorkommnis ableiten lassen:

  • Praktisch jeder Datensatz weist Mängel auf. Das Potenzial für Fehler und Ungenauigkeiten steigt unter anderem mit dem Umfang der Daten und mit der Dynamik eines Phänomens. Zu letzterem: Zum Beispiel wird ein Datensatz der Baustellen der Schweiz sehr viel fehleranfälliger sein als ein Datensatz der Flughafenpisten. Beides – grosser Umfang und potenziell hohe Dynamik – sind beim Parkplatzdatensatz der Stadt Zürich gegeben.
  • Wenn ein Datensatz veröffentlicht wird, vervielfacht sich die Zahl der Augenpaare, die diesen Datensatz sichten von in der Regel ein paar wenigen städtischen Mitarbeitenden zu einigen Dutzend bis einigen hundert oder auch mal einigen tausend Personen.
  • Es ist unumgänglich, dass eine grössere Anzahl von Personen eher Fehler oder Auffälligkeiten in den Daten findet als eine relativ kleine Gruppe auch sehr gut ausgebildeter Personen. Diese Wahrscheinlichkeit steigt dadurch noch mehr, dass die grosse Gruppe zusammengenommen über annähernd flächendeckende Lokalkenntnisse und auch ‚Lokalinteressen‘ verfügt, die der kleinen Gruppe von städtischen Mitarbeitenden (richtigerweise) abgehen.
  • Niemand macht gerne Fehler. Organisationen und Personen sind beim Auftreten eines Fehlers gleich versucht, die fehlerhafte Aussage zurückzunehmen und zu berichtigen. Vor diesem Hintergrund ist die Reaktion der Stadt Zürich verständlich, auch wenn ich sie bedauerlich finde (dazu gleich mehr).

Manche dieser Punkte lassen die Chancen und Risiken von Crowdsourcing für die öffentliche Verwaltung anklingen, die wir in diesem Blog bereits im Jahr 2012 diskutiert haben. Crowdsourcing (also das Übertragen von Arbeiten an eine Gruppe von Leuten) ist in vielerlei Hinsicht bezüglich Open Government Data (OGD) die andere Seite der Medaille:

Diese Punkte zu Crowdsourcing skizzieren denn auch einen anderen Weg zum Umgang mit den fehlerhaften Parkplatzdaten.

Ein anderer Weg

Ich freue mich darauf, wenn das Tiefbau- und Entsorgungsdepartement die Parkplatzdaten überprüft hat und diese dann wieder der Öffentlichkeit zur Verfügung stellen wird. Dennoch wünsche ich mir für den nächsten Vorfall eine andere Reaktion. Und es ist meines Erachtens wahrscheinlich, dass wieder einmal etwas Ähnliches passiert, denn wo Menschen arbeiten, passieren Fehler. Ich schlage den folgenden 6-Punkte-Plan vor für erfolgreiche OGD-Feedback-Mechanismen:

  1. Die Stadt lässt die fehlerbehafteten Daten aufgeschaltet. Sie versieht diese an den Orten, wo sie einsehbar sind, mit einem Disclaimer, der genau den aktuellen Kenntnisstand erklärt.
  2. Über das über die Jahre hinweg aufgebaute Community-Management erreicht die Stadt die typischen Nutzerinnen und Nutzer der Daten und kann diese direkt ansprechen. In der Community-Kultur sind allen Akteuren die Rechte und Pflichten rund um Open Data bekannt. Weist die Stadt also auf die Fehler in den Daten hin, trägt die Community diesem Umstand in ihren Aktivitäten Rechnung.
  3. Die Stadtverwaltung lädt als nächstes die Community ein, zusammen die Daten zu verbessern. Das OGD-Portal der Stadtverwaltung hält für diese Aufgabe Funktionen und Schnittstellen bereit. Die verwaltungsinternen Abläufe sind ebenfalls bereits geregelt.
  4. Die Community ist sich der Schwierigkeit der Pflege von Daten sehr wohl bewusst. Die Stadt hat dank Community Management via @opendatazurich viel Goodwill aufgebaut. Die Community wird folglich keinesfalls etwa hämisch auf die Fehler der Verwaltung zeigen, sondern sich mit Enthusiasmus dafür einsetzen, die Daten schnellstmöglich zu verbessern. Stadtverwaltung und Community arbeiten Hand in Hand. Die Community entwirft Werkzeuge und setzt freiwillige Arbeitsstunden ein zur Verbesserung der Daten. Geübte OpenStreetMap-Mapperinnen und -Mapper könnten hier zum Beispiel eine gewichtige Rolle spielen.
  5. Der Stadt kommen die Lokalkenntnisse engagierter Datenspezialistinnen und -spezialisten zugute, sie behält aber die Hoheit darüber, welche Korrekturen in die Daten einfliessen.
  6. Die Haltung der Community und die Zusammenarbeit zwischen ihr und der Verwaltung steuert die Tonalität in den Medien und der Öffentlichkeit. Das Potenzial von Open Government Data unter Einbezug der Öffentlichkeit wird augenscheinlich.

2013 habe ich im Rahmen des europäischen Forschungsprogramms ENERGIC an der Universität Zürich einen Vortrag gehalten, der einige dieser Gedanken bereits vorwegnahm. Ich habe damals (aus der Sichtweise von Crowdsourcing bzw. Volunteered Geographic Information/VGI) insbesondere auf den sich aufdrängenden Kreislauf zwischen Open Government Data und Crowdsoucring hingewiesen:

Das Schliessen dieses Kreislaufs muss ein Fokus unserer Anstrengungen im Open Data-Bereich in der Schweiz sein.

Was fehlt?

Wie kommen Open Data-Anbieter auf diesen vielversprechenderen Weg? Ich sehe im Beispiel von Zürich im Moment drei Punkte, die es noch umzusetzen gilt:

  • Es braucht auch in der innovativen Stadt Zürich vermutlich da und dort noch ein Umdenken, mehr Mut und Vertrauen sowie etwas mehr Data Literacy, also Kenntnisse über Charakteristika von Daten und über die Prozesse rund um Daten, vor allem bezüglich des Open-Ökosystems.
  • Das OGD-Portal https://data.stadt-zuerich.ch muss um einfach zu nutzende Feedback-Möglichkeiten erweitert werden, die der Öffentlichkeit das Melden von Fehlern bzw. das Einsenden von Korrekturen sowohl auf Layer-Ebene als auch auf Einzelobjekt-Ebene ermöglichen.
  • Die Stadtverwaltung muss solche Meldungen durch die zuständige Stelle einfach weiterverarbeiten können inklusive, auf Wunsch, Rückmeldung an die meldende Person (Issue Tracking-System). Die erfolgreiche App Züri wie Neu verfügt bereits über diese Mechanismen, allerdings mit einem Fokus auf anfassbare Stadtinfrastruktur, nicht auf Daten.

Diese Änderung bringen die Stadt Zürich näher zu einem innovativen OGD-Crowdsourcing-Ökosystem mit allen ökonomischen und gesellschaftlichen Vorteilen, die dieses mit sich bringt. Packen wir’s an!

 


Deklaration: Ich bearbeite aktuell mit der Stadt Zürich ein Projekt im Bereich Open Data. Dieser Text reflektiert meine persönlichen Ansichten.

Die nächste Evolution von GIS

… so hiess mein Artikel und Vortrag für den Track Innovation und Trends am GEOSummit 2016. Worum ging’s? Die Geodatenangebote der Kantone und des Bundes stehen, Services und zum Teil Datendownloads sind bereit und Behörden wie auch Private nutzen GIS auf dem Desktop, online und mobil on-the-go in raumrelevanten Fragen. In meinem Beitrag wollte ich aber mal ganz bewusst über das „Tagesgeschäft“ hinaus blicken und einige Veränderungen einfangen, die wir wegen ihrer Subtilität und vor lauter Routine oft nicht recht wahrnehmen.

Dabei habe ich mich zu einem guten Teil auf „weiche“ Faktoren konzentriert wie zum Beispiel Veränderungen am Umfeld, in dem GIS genutzt wird. Natürlich laufen nebenbei alle bekannten technologischen Umwälzungen: Drohnen, Augmented und Virtual Reality, Cloud Computing, Wearables, Nearables, autonome Systeme und Bots, Sensor Networks und Smart Infrastructure, etc. etc. Manche von diesen kommen am Rande auch vor in meinem Beitrag (und wir können uns gerne hier oder andernorts mal über die technologische Seite austauschen); die technischen Aspekte stehen bei meinen Betrachtungen aber nicht im Zentrum.

Die Folien meines Vortrags können Sie hier anschauen:

Und bei Interesse finden Sie hier den Volltext meines GEOSummit-Abstracts:

In vielen Bereichen unseres Lebens nutzen wir komplexe Infrastrukturen und Dienstleistungen. Beispielsweise bringt uns fünf Minuten nach Ankunft des Zugs ein Bus an unsere Destination. Wir sind mit Wasser, Strom, Gas oder Fernwärme versorgt. Abwasser und Abfall werden zuverlässig weggeführt. Die Regale in den Geschäften sind stets gefüllt und das nötige Ersatzteil wird zuverlässig in die Garage geliefert.

Basis für dieses gute Funktionieren unserer Infrastruktur – und unseres gesellschaftlichen, wirtschaftlichen und politischen Lebens – sind die sorgfältige Planung, Steuerung, und Pflege der involvierten Anlagen und Prozesse. Dafür sind Informationen unabdingbare Grundlage. So wie im letzten Jahrhundert die Entdeckung und Nutzung des Erdöls die Industriegesellschaft befeuert hat, sind Informationen wichtigster Grundstoff unserer Wissensgesellschaft.

Erzeugung und Verwendung von Informationen sind Veränderungen unterworfen, welche auch Auswirkungen auf die Geoinformationsbranche haben. In seinen Überlegungen zur Wissensgesellschaft identifiziert das Bundesamt für Kommunikation vier Haupttrends: Mobile, Social, Cloud und Information (Abb. 1).

Abb. 1: Die Haupttrends „Mobile“, „Social“, „Cloud“ und – im Zentrum – „Information“ sowie die involvierten Akteure (eigene Darstellung)

Von diesen Trends ausgehend: Was kommt auf uns zu?

Verändertes Umfeld

In der Wissensgesellschaft nimmt die Informationsnutzung in Verwaltung und Politik aber auch in der Zivilgesellschaft weiter zu. Hinter letzter stehen zum Teil neue Gruppen von Nutzenden von Geoinformation, welche sich im Zug der aufgezeigten Entwicklungen formiert haben: schon seit einiger Zeit finden Geodaten unter anderem im Datenjournalismus (data-driven journalism) immer häufiger Verwendung. Daneben hat die Open-Data-Bewegung neue Nutzende geschaffen, welche oft nicht den typischen Disziplinen entstammen. Nicht zu unterschätzen ist ferner die Breitenwirkung der BGDI mit der map.geo.admin-API und den teilweise geöffneten Datenbeständen des Bundes.

Die Bedürfnisse an unsere Branche entwickeln sich dadurch weiter: zum Beispiel umfassende und allgemein verständliche Dokumentation von Daten, schnelle Kommunikation auf Augenhöhe, einfache Nutzung (oder zumindest Sichtung) von Geoinformationen in Portalen aber auch die Bereitstellung offener Services, APIs und Daten (wo möglich in Echtzeit). Dadurch, dass bisher eher unterrepräsentierte Akteure auftreten, werden etablierte, aber vielleicht auch überholte Praktiken vermehrt in Frage gestellt werden. Für die Anbieter von Geoinformationen eröffnet sich die Chance, den Elan dieser neuen Nutzergruppen z.B. in die Produktentwicklung oder Qualitätsverbesserungen einfliessen zu lassen.

Consumerization und Mainstreaming

GIS wird vermehrt zu einer allgemein eingesetzten Technologie bzw. Methode werden: „GIS as a utility“. Dies ist bereits sichtbar in der fortschreitenden (leichten) GIS-Befähigung von Office-Software. Für einfache Aufgaben wie das Abbilden von Filialen auf einer Karte oder die Geocodierung eines Kundenstamms wird in Zukunft nicht mehr auf GIS-Fachleute zurückgegriffen werden müssen. Dies ist die Reifung von GIS: Der Begriff „GIS“ verschmilzt zum Teil mit anderen Themen und Disziplinen. Und: nicht überall wo GIS drin ist, steht „GIS“ drauf.

Die oben aufgezeigten Trends befähigen eine grosse Gruppe von Personen Daten – oft: Geodaten – selbst zu erheben, aus verschiedenen Quellen zu nutzen und zusammenzuziehen, aufzubereiten und weiterzuverbreiten. Dazu trägt auch die Verfügbarkeit von freier Software bei. Wie weit die Consumerization gehen wird, ist noch schwer abzuschätzen.

Neue Komplexität: IoT und smarte Systeme

Allerdings bringen technologische Impulse wie das Internet of Things (IoT) und smarte Infrastruktur, das partizipative Internet aber auch Trends wie Quantified Self sowie Virtual und Augmented Reality neue Komplexität mit sich: die bereits heute unübersichtliche Datenmenge wird sich noch weiter vergrössern. Datenströme werden wichtiger werden als Datensätze. Unternehmen und Behörden (z.B. Smart Cities) müssen durch Filtern und in Kombination von Datenströmen die richtigen Erkenntnisse gewinnen.

Dies bringt neue Herausforderungen in der Verarbeitung und Analyse von Daten, aber eben auch in der Entwicklung von künftigen Geschäftsmodellen. Hier werden Geoinformationsfachleute immer noch gefragt sein, sich aber auch zum Beispiel mit ‚Spatial Data Scientists‘ messen – oder sich zu solchen entwickeln.

LoRaWAN: IoT Network for the Future?

If you follow someone from #TeamEBP on Twitter, you may have noticed that last week we installed a LoRaWAN gateway of The Things Network in our office building. And like some of my colleagues you may have wondered (or wonder now): What is this all about?

Is EBP now into selling parrots (of course we could call our parrot Polly, not Lora)? Or are we supporting an alternative Zurich radio station? Good guesses. But it is of course neither of those two: LoRaWAN stands for Long Range Wide Area Network, a technology for low power wireless telecommunication networks. LoRaWAN gateways are intended to be used by battery operated sensors and other low power devices, nowadays better known as the Internet of Things (IoT), to transfer their data to the internet.

While mobile and WiFi networks drain your mobile phone battery quickly with increasing data transfer rates, LoRa takes the opposite approach. Only very little data can be sent over the network to minimize power consumption. Take for example the optimizing of garbage collection by installing sensors on waste bins, a solution that is already more widespread than I expected. You would certainly use batteries, maybe combined with energy harvesting, rather than connect every garbage container throughout a city to the power grid.

450px-HVogel-FrauHolle

Have you ever noticed the amazing anticipation of IoT ideas in „Frau Holle„? Bread calling out: „Oh, take me out. Take me out, or I’ll burn. I’ve been thoroughly baked for a long time.“ (Image source: Public domain).

LoRaWAN Gateways serve as transparent bridges for the end-to-end encrypted communication between sensors and devices out in the field and central network servers (you can read more about the technology here). One big advantage of LoRa is that you only need a few of these gateways to cover a whole city.

While commercial companies are working on LoRa networks (e.g. Swisscom or Digimondo), the afore-mentioned The Things Network (that now EBP is a part of) is an interesting open initiative. With The Things Network, an enthusiastic community is building LoRa networks in cities all around the world. These networks are free and open to use for everybody. At EBP, we immediately felt favourably towards that idea and are excited to share some of our company’s bandwidth with the community behind The Things Network.

The Things Network Zurich coverage map with the EBP gateway
The Things Network Zurich coverage map with the EBP gateway

As an additional benefit, we thus expand our playground to experiment with IoT and new networking technologies. Our order for additional hardware to build some LoRa test devices is out and we are looking forward to do some soldering. So stay tuned for more LoRa news here. Or indeed, join the revolution yourself!