Analytik in smarten Systemen

Die vier Analytiklevels smarter Systeme, nach Gartner (CC-BY-NC www.ebp.ch)

Begriffe wie Smart City, Smart Infrastructure und Smart Systems deuten darauf hin: Mit dem Internet der Dinge (Internet of Things, IoT), Industrie 4.0, Politik 4.0 und Verwaltung 4.0 beginnt eine neue Ära von Verfahren und Algorithmen mit Fokus auf heterogene Daten und neuartige Fragestellungen. Wodurch zeichnen sich jedoch diese «neuen» Analytikfunktionen aus?

Die Beratungsfirma Gartner hat ein Analytik-Reifegradmodell erarbeitet, das sich für die Beschreibung unterschiedlicher Analytiklevels eignet. Der Begriff «Reifegradmodell» enthält natürlich eine Wertung. Unserer Ansicht nach sind aber die weniger komplexen Analytiklevels nicht in jedem Fall weniger wertvoll als die komplexeren. Die komplexeren Analytiklevels werden durch die Anwendung spezieller Verfahren ermöglicht: Beispiele sind Simulation, Trendextrapolation, Machine Learning-Ansätze und Neuronale Netzwerke.

Die vier Analytiklevels smarter Systeme, nach Gartner (CC-BY-NC www.ebp.ch)
Die vier Analytiklevels smarter Systeme, nach Gartner (CC-BY-NC www.ebp.ch)

Folgende Analytiklevels können in intelligenten Systemen unterschieden werden:

Deskriptive Analytik (Descriptive Analytics)

Die deskriptive Analytik umfasst die Beschreibung von Zuständen und Ereignissen. Mit den Mitteln der deskriptiven Statistik und Informationsvisualisierung beantwortet sie die Frage: «Was ist wann / wo / wie geschehen?». Ein Beispiel von deskriptiver Analytik anhand eines Fahrzeugs wäre die statistisch-beschreibende Auswertung von Daten eines Fahrtenschreibers: Wie lange fuhr das Fahrzeug? Mit welcher Durchschnittsgeschwindigkeit?

Diagnostische Analytik (Diagnostic Analytics)

Die diagnostische Analytik geht über die deskriptive Analytik hinaus und fragt nach den Gründen (kausalen Zusammenhängen) hinter einem Zustand oder Ereignis. Sie beantwortet damit die Frage «Weshalb ist (…) geschehen?». Dazu nutzt sie kausalitätsaufspürende Verfahren. Statistische Korrelationsanalysen können dafür ein Ausgangspunkt sein – allerdings müssen Scheinkorrelationen (aufgrund von Mediatorvariablen bzw. confounding variables) ausgeschlossen werden können und der zeitliche Verlauf zwischen Ursache und Ereignis richtig sein. Im Fahrzeug-Beispiel gedacht könnte eine diagnostische Analyse der Frage nach den Gründen eines Motorschadens oder eines Unfalls nachgehen.

Prädiktive Analytik (Predictive Analytics)

Die prädiktive Analytik macht basierend auf Messungen oder Beobachtungen Vorhersagen zu zukünftigen Zuständen eines untersuchten Systems oder Ereignissen im System. Dadurch beantwortet Sie Fragen wie «Was wird wann / wo / wie geschehen?». Sie hilft damit direkt, Entwicklungen zu antizipieren und allenfalls entsprechende Massnahmen zu entwerfen. Ein einfaches Beispiel prädiktiver Analytik wäre ein System, dass Fahrzeuginsassen bei bevorstehendem Spurwechsel vor einer möglichen Kollision mit einem von hinten schnell nahenden anderen Fahrzeug warnt.

Präskriptive Analytik (Prescriptive Analytics)

Die präskriptive Analytik geht noch einen Schritt weiter als die prädiktive: Sie versucht, aus vorhergesehenen Zuständen bzw. Ereignissen direkt Handlungsanweisungen abzuleiten, um einen gewünschten Zielzustand des untersuchten Systems zu erreichen. Sie beantwortet also die Frage «Was muss ich wann / wo / wie tun, um den Systemzustand x zu erreichen?».

Bei der präskriptiven Analytik können zwei Untertypen unterschieden werden: Bei der Entscheidungsunterstützung formuliert die Analyse Empfehlungen, die dann von Menschen beurteilt und entweder zur Anwendung empfohlen oder verworfen werden. Bei der Entscheidungsautomatisierung ist auch das Anwenden der algorithmisch abgeleiteten Entscheidung dem System überlassen. Hier misst oder beobachtet ein smartes System also seine Umwelt, analysiert diese bezüglich von Menschen definierten Zielwerten und setzt automatisch Entscheidungen um. Diese Kategorie wird manchmal auch normative Analytik genannt.

Ein einfaches Beispiel für die Entscheidungsautomatisierung ist ein Spur- und Abstandsautomat in einem Fahrzeug, der zur Vermeidung von Kollisionen selbständig Lenk- und Bremsbefehle an die Fahrzeugsteuerung sendet. Ein Beispiel für Entscheidungsunterstützung wäre ein ähnliches System, bei dem aber «nur» Warnleuchten im Fahrzeugcockpit aufleuchten und die Entscheidung zu lenken oder zu bremsen weiterhin der Fahrerin oder dem Fahrer überlassen bleibt.

Welche Analytiklevels unterstützen Ihre Erhebungs- oder Messmethodik, Ihre Dateninfrastruktur, Ihre Softwareumgebung und Ihre Organisation? Welcher Analytiklevel ist für welche Ihrer Fragestellungen der richtige? Was ist der Nutzen und wie kann dieser möglichst effizient realisiert werden? Mit solchen Fragen dürfen Sie sich gerne an uns wenden.

Open Data-Erkenntnisse aus Deutschland

Auf dem Blog der Website wegweiser-kommune.de schildert Mario Wiedemann, Projektmanager im Programm LebensWerte Kommune der Bertelsmann Stiftung, seine Reise in fünf deutsche Städte, die sich Open Data, also dem Öffnen ihrer Datenbestände, verschrieben haben. Aus dem Geschilderten lassen sich auch für Schweizer Behörden (nicht nur auf der Ebene der Städte) interessante Erkenntnisse ableiten.

Die Open Data-Szene Deutschlands lebt: Im Juni hat unser Nachbar ein Open-Data-Gesetz auf Bundesebene in Kraft gesetzt (nicht ohne einige negative Punkte). Im August folgte der Beschluss eines ersten Nationalen Aktionsplans im Rahmen von Deutschlands Mitgliedschaft in der internationalen Initiative „Open Government Partnership“. Was geschieht aber in den Städten? Und was können wir daraus lernen? Meine Schlussfolgerungen aus dem Gelesenen:

Der Austausch zwischen Zivilgesellschaft und Behörden braucht Raum und Zeit (Bonn, Ulm)

Die Stadt Bonn verfügt über das BonnLab, in dem sich Interessengruppen rund um stadtbezogene Daten austauschen. Der regelmässige Kontakt zwischen Behörden und Open Data-Nutzenden hilft beiden Gruppen dabei, die Bedürfnisse des Gegenübers besser zu verstehen. Die Behörde fördert Open Data-Nutzende zum Beispiel mit der Vermittlung interessanter Kontakte. Mit einer solchen offenen Kultur kann ein für eine Stadt als Wirtschafts- und Wissensstandort wertvolles Open Data-Ökosystem entstehen.

Schönes Fundstück von Mario Wiedemann: Fazit von Open Data Bonn

Smart Cities müssen offen sein (Bonn)

In Smart Cities werden künftig vermehrt Daten gesammelt, aggregiert und verarbeitet werden. Damit dies nicht zu Daten- und Informationsmonopolen bei grossen Systemanbietern führt, sollten Smart Cities rechtzeitig entsprechende Schritte im Thema Data Governance (Datengovernance bzw. -hoheit) unternehmen. Nur so ist sichergestellt, dass auch die im Rahmen einer Smart City gesammelten Daten allen zugute kommen. Sven Hense von der Stadt Bonn nennt das oft zitierte Smart City-Beispiel Barcelona mal als eher negatives Exempel, das aktuell versucht, wieder mehr Kontrolle über seine Smart City-Daten zu erlangen.

Verheerend.

Smart Cities benötigen eine Basisinfrastruktur (Ulm, Jena)

Für eine erfolgreiche Umsetzung des Smart City-Gedankens benötigen Städte vor allen technischen Lösungen die passende Basisinfrastruktur. In meinem Verständnis gehören dazu unter anderem offene Daten, eine griffige Open Data-Regelung, ein etablierter Austausch mit der Zivilgesellschaft und eine funktionierende Community. Darauf lässt sich aufbauen: Die Verantwortlichen in Jena haben etwa festgestellt, dass Open Data sich bestens eignet als „Sprungbrett (…) für andere wichtige Themenbereiche der Digitalisierung einer Stadt“. Auf technischer Seite benötigen Smart Cities dann vor allem effiziente Datenkommunikationskanäle für Internet of Things-Anwendungen. Ein solcher ist LoRaWAN, das im Moment sowohl in Ulm als auch in Bonn im Aufbau ist. Auch in Zürich werden derzeit LoRaWAN-Netze konstruiert: ewz setzt LoRaWAN schon für Smart City-Pilotprojekte ein. Wir haben im Frühling 2016 darüber berichtet, dass wir einen LoRaWAN-Gateway von The Things Network an unserem Standort in Zürich Stadelhofen betreiben.

Open Data nützt auch der Verwaltung (Freiburg)

Am Beispiel der Stadt Freiburg in Deutschland lässt sich schön aufzeigen, dass Open Data auch der Verwaltung nützt: Hier wurde Open Data nicht für sich alleine sondern als Resultat eines modernen Datenmanagements gedacht. Im Rahmen einer Neugestaltung des städtischen Datenmanagements konnten so gleichzeitig die Voraussetzungen geschaffen werden, um Open Data mit möglichst wenig Zusatzaufwand anbieten zu können. Von den so geöffneten Daten profitiert in den meisten Fällen schliesslich auch die Verwaltung: das Datenangebot unterschiedlicher Abteilungen wird systematisch inventarisiert, gut dokumentiert, sichtbar, durchsuchbar und bekannter gemacht und dadurch vor allem auch für Mitarbeitende der Verwaltung selbst einfacher zu nutzen – nicht zu sprechen von demjenigen Nutzen, den Externe damit generieren und der der Verwaltung auch zugute kommt. Eine integrale Sicht auf das städtische Datenmanagement lohnt sich also, um den Gewinn durch Open Data zu maximieren (und nicht zuletzt auch, um die Kosten fair zu betrachten). Die integrale Sicht Freiburgs geht sogar noch weiter: die Mitarbeitenden der Verwaltung werden eigens in der Nutzung der neu zugänglich(er)en Daten geschult. Meiner Meinung nach: in der heutigen Zeit gut investiertes Geld.

Silo: Eine nicht mehr zeitgemässe Form der Datenhaltung

Open Data ist viel wertvoller als «nur» das Öffnen von Daten (Freiburg)

Im Idealfall ziehen alle Abteilungen einer Verwaltung an einem Strang bezüglich dem Öffnen von Daten. Dann kann sich ein wertvoller Kulturwandel einstellen, wie Mario Wiedemann beschreibt: „Plötzlich wird vielen klar: Daten müssen vor den Bürgerinnen und Bürgern nicht wie ein Schatz gehütet werden und die Zusammenarbeit mit Kolleginnen und Kollegen aus anderen Bereichen schafft einen Mehrwert.“

Behörden benötigen eine griffige Open Data-Strategie (Jena)

Jena hat bereits 2014 eine Open Data-Strategie beschlossen, die die Öffnung aller Daten zum Ziel hat ausser jener, die „dem unmittelbaren Schutz personenbezogener Daten oder sonstigem gesetzlichen Schutzbedarf unterliegen“. Eine konsequente Open Data-Strategie sollte auf den Gedanken des generellen Öffnens von Datenbeständen abzielen. Die saubere Definition legitimer Ausnahmen vom Öffnungszwang gehört natürlich auch dazu. Diese Definition sollte aber abschliessend und klar sein, damit eine Behörde auf deren Basis sauber argumentieren kann – pro oder kontra Öffnung. Und: natürlich muss die Strategie alle Beteiligten mitnehmen auf den Open Data- und schliesslich den Digitalisierungsweg.

Plötzlich merkt man, dass man zusammen in einem Boot sitzt.

 

Den Blogpost als Einstiegspunkt für Mario Wiedemanns Schilderungen finden Sie hier: Eine Reise in die Open Data-Städte.

Augmented Reality und GIS – 8 Jahre später

Genau heute vor 8 Jahren habe ich einen Blogpost zum Thema „Augmented Reality und GIS” geschrieben. Damals hatte Apple die iOS Version 3.1 veröffentlicht, die unter Anderem neue API Funktionalitäten für die Kamera enthielt. Damit wurde es möglich, eigene Grafikelemente in die Kameraview einzublenden. EBP hat dann im Herbst 2009 zusammen mit der ETH die mobile Applikation SwissPeaks entwickelt, die dann auch einige Installationen verzeichnen konnte. Wir haben für die App einen Geodatenservice auf Basis des Bergsichtkatasters aufgebaut, der nur die wirklich sichtbaren Bergspitzen einblendet.

Der Hype um Augmented Reality (oder kurz AR) hat sich damals schnell beruhigt, SwissPeaks ist mittlerweile auch nicht mehr im AppStore vertreten. Unternehmen wie Layar oder Wikitude haben weiterhin versucht, das Thema AR zu pushen, trotzdem wurde es etwas still um diese Technologie, da sie noch nicht ausgereift war.

Im Sommer 2016 kam das Smartphone-Spiel Pokémon Go auf den Markt und mit einem Mal war Augmented Reality wieder in den Schlagzeilen und wurde zu einem Massenphänomen. Und es geht wohl weiter: Microsoft baut an einer speziellen Brille für Entwickler und Unternehmen, während Apple mit iOS 11 die Technologie auf einen Schlag für Millionen von Geräten nutzbar macht: Das Framework ARKit ermöglicht jedem neueren iPhone oder iPad, horizontale Ebenen in der Umgebung zu erkennen und und durch ein sehr zuverlässiges Tracking virtuelle Objekte in die Livebild der Kamera zu platzieren. Erste interessante Apps sind beispielsweise AR Airplanes oder MeasureKit. IKEA hat bereits eine ARKit basierte App angekündigt. Google hat in der Zwischenzeit auf ARKit reagiert und veröffentlichte vor kurzem auf Basis ihres Projekts Tango das Framework ARCore für Android Geräte.

Das Thema AR scheint also wieder an Fahrt aufzunehmen. Damit komme ich zurück zu zwei Thesen, die ich vor 8 Jahren so oder so ähnlich formulierte:

  • Räumliche Daten sind die Datengrundlage jeder AR-Applikation: Qualitativ gute Geodaten sind wichtiger denn je.
  • Mit AR im Smartphone können wir Geodaten in einer neuen Perspektive erfahren. Alleine in der Schweiz sind seit ein paar Tagen Millionen von Geräten in der Lage, diese neue Technologie nutzen.

Mein Arbeitskollege Vasile Coțovanu hat ARKit bereits in seiner Swiss Public Transport App eingebaut und stellt in einer ersten Version die Haltestellen im Umkreis um den EBP-Standort an der Mühlebachstrasse in Zürich dar:

Wir von EBP werden das Thema auf alle Fälle weiter entwickeln und an dieser Stelle von unseren Erkenntnissen berichten.

Wenn Sie sich schon jetzt wissen wollen, wie Sie Augmented Reality gewinnbringend für ihre Bedürfnisse einsetzen können, nehmen Sie doch einfach mit uns Kontakt auf.

 

Satellitendaten für zeitnahe Informationen im Katastrophenfall

Satelliten sind heutzutage eine wichtige Quelle für zeitnahe Informationen und Daten. Satelliten kommen speziell für schlecht zugängliche oder sehr ausgedehnte Gebiete zum Einsatz. Dank moderner Plattformen für die Datendistribution sind Satellitendaten heute relativ einfach zu beziehen und für eigene Auswertungen in Management-Informationssystemen oder Geoinformationssystemen einsetzbar.

Am Mittwoch, dem 23. August 2017, wurde das Val Bondasca und das Dorf Bondo im bündnerischen Bergell von einem massiven Bergsturz und Murgang betroffen. Im Val Bondasca sind gemäss Schätzungen bis zu vier Millionen Kubikmeter Gestein vom Piz Cengalo ins Tal gedonnert (Video von swissinfo):

Dank der Satellitenplattform Sentinel-2 können Fachleute das Ausmass der Zerstörung ermitteln. Sentinel-2 wurde von der ESA als Teil des Copernicus-Programms der Europäischen Union entwickelt. Sentinel-2A wurde im Juni 2015 ins Weltall geschossen, Sentinel-2B folgte im März 2017. Die Schweiz hat durch die Teilnahme bei der ESA an der Entwicklung von Copernicus mitgewirkt (die Entscheidung über die weitere Beteiligung an Copernicus über ein entsprechendes Abkommen ist noch nicht gefallen).

Sentinel-2 verfügt über eine hohe zeitliche Auflösung, d.h. dasselbe Gebiet wird relativ oft (alle paar Tage) vom Satelliten überflogen und ‚fotografiert‘. Dank dieser hohen Wiederkehrrate waren relativ bald – am 26. August 2017 – am Vortag aufgenommene Daten für das betroffene Gebiet verfügbar. [Update: Bei einer Aktualisierung am 1.9.2017 habe ich das Echtfarben- und Falschfarben-Nahinfrarotbild mit prä-operativen Daten von Sentinel-2B aktualisiert. Diese Daten sind im Gegensatz zu jenen von Sentinel-2A nur Level 1-Produkte, d.h. es wurde unter anderem noch keine Atmosphärenkorrektur und Geländekorrektur angewendet. Für die visuelle Beurteilung sind diese Bilder dennoch geeignet. Zudem weisen sie einen geringeren Bewölkungsgrad auf als die älteren Bilder.] Für die Visualisierung des Bergsturzes haben wir Daten von Sentinel-2A über den Copernicus Open Access Hub bezogen und aufbereitet. Die Verarbeitung dieser Satellitendaten ist heute relativ einfach möglich und es lassen sich aus ihnen in Nahechtzeit relevante räumliche Informationen ziehen. Zur Demonstration haben wir drei Informationsprodukte für vor und nach dem Bergsturz generiert:

Echtfarbenbild

Das Echtfarbenbild zeigt eine natürlich eingefärbte Darstellung des Gebiets. Das Geröll, das nach dem Bergsturz im Val Bondasca verbleibt und das Geschiebe, das in Bondo aus dem Flussbett trat, sind gut sichtbar.

Echtfarbenbild des Bergsturzes von Gondo, Vorher–Nachher-Vergleich
Echtfarbenbild des Bergsturzes von Gondo, Vorher–Nachher-Vergleich. Klicken für bessere Qualität.

Falschfarben-Nahinfrarotbild

Das Falschfarbenbild stellt den (für das menschliche Auge eigentlich nicht sichtbaren) Nahinfrarot-Kanal zusammen mit dem Rot- und Grün-Kanal dar. In dieser Darstellung ist gesunde Vegetation stark rot eingefärbt, Wasser erscheint blau oder schwarz. Gut sichtbar ist hier die Trübung des kleinen Sees westlich von Castasegna

Falschfarben-Infrarotbild des Bergsturzes von Gondo, Vorher–Nachher-Vergleich
Falschfarben-Infrarotbild des Bergsturzes von Gondo, Vorher–Nachher-Vergleich. Klicken für bessere Qualität.

NDVI-Bild

Das NDVI-Bild (Normalized Difference Vegetation Index) ist eine spezielle Kombination des Nahinfrarot-Kanals mit dem Rot-Kanal, die ebenfalls die Unterscheidung von Vegetation und anderen Flächen betont. Auch diese Darstellung zeigt die massive Überdeckung von Vegetation durch Geröll und Schutt im Val Bondasca.

NDVI-Bild des Bergsturzes von Gondo, Vorher–Nachher-Vergleich
NDVI-Bild des Bergsturzes von Gondo, Vorher–Nachher-Vergleich. Klicken für bessere Qualität.

 

EBP ist Mitglied der Gesellschaft Schweizer Erdbeobachtungsdienstleister (SED). Wir erarbeiten seit 1995 massgeschneiderte Lösungen im Bereich Erdbeobachtung, Datenanalysen, IT-Beratung und Softwareentwicklungen.

 

2017 Esri Partner Conference and Developer Summit

From Swiss late winter to Southern California spring: My colleague Alex Graf and I attended the 2017 Esri Partner Conference and Developer Summit in Palm Springs two weeks ago. These events are always a great opportunity to get the latest information on Esri software and strategy as well as spend a week in an inspiring ‚geo-rich‘ environment. In this post, we summarize some highlights from the conference.

The motto of the Partner Conference and the Developer Summit was Esri’s new claim: „The Science of Where“. Yet what exactly is the „Science of Where“? In a nutshell: It uses location and technology to collect, analyze, visualize and share data and information to solve relevant problems. Or in Jack Dangermond’s words: „[…] The Science of Where is, quite simply, what we do.“ That „we“ includes us as geographers, data scientists, developers, and, of course, users of the ArcGIS platform. From that point of view I really like the slogan. Unfortunately (but understandably) Esri has trademarked it, so this won’t become an inclusive rallying cry for e.g. #gistribe.

The big trends

The big trends in IT are of course also very relevant for GIS, and some were covered in depth at the Developer Summit: Distributed (GI) systems, real-time data streams, big data and the Internet of Things (a bit less than the other ones). Since a couple of years, Esri has been claiming to provide a distributed platform for GIS. While in the beginning this was more of a marketing claim than a working solution, we now welcome a phase where the claim becomes more and more credible. With ArcGIS 10.5, portal-to-portal collaboration is possible, for example, which allows you to connect different GI systems and share data across organizations.

Esri has also made a huge effort to enable their technology to work with ever bigger data, particularly data being transferred in real-time data streams. One outcome of this effort is the new spatio-temporal big data-store. The data store is not only capable of a much higher write-throughput (according to Esri about 50 times more events per second can be processed compared to a classical geodatabase); it can also be scaled across multiple machines in order to increase capacity. Esri also introduced their new offering for analytics: the GeoAnalytics server. It is intended for distributed analysis of massive vector and tabular data including temporal information. It should also be easily scalable and allow you to shorten the processing time of some of your analyses massively. Last but not least, visualization is also improved to work smoothly with big data (check out this tweet for an example).

All these improvements in technology will support the shift from simple GIS apps for displaying and querying spatial data to more advanced solutions that support advanced exploration, finding patterns and making predictions.

Say goodbye to old friends (or foes, frenemies)

The technological advancement has of course implications for Esri’s product portfolio: Esri believes that using ArcGIS Server as a standalone software and accessing services via REST will be a less and less common practice. They expect that the typical user (if such thing exists) will rather use services via Portal for ArcGIS. Consequently, Esri has bundled ArcGIS Server together with Portal for ArcGIS,  ArcGIS Data Store and the ArcGIS Web Adaptor and gave this package the new product name ArcGIS Enterprise.

Moving the focus from server to desktop, another oldie you should start saying Goodbye to is the ArcMap/ArcCatalog combo. ArcGIS Pro is now not only the future but should also really become the present. If you haven’t already started working with it, you should definitely do that now! There will be another release for ArcMap, but that will be purely bugfixes. All new development goes exclusively into Pro. More importantly, feature equivalency will be „more or less“ achieved this year – note though: some ArcMap/ArcCatalog functionality might never be included in Pro. Just keep an instance of ArcMap available somewhere for that odd task that you can’t do in Pro, but use Pro for everything else. And there are of course more and more cool things that you could never do in ArcMap, for example creating vector tiles, now also in 3D!

Some other cool stuff

Speaking of 3D: It was really one of the big topics at the Developer Summit (like every year to be honest – 3D provides really cool demos, doesn’t it? See this story map for an example). 3D is available across the Esri platform and all SDKs now support the same 3D capabilities. This means that you soon can use 3D scenes offline on a mobile phone! – and the performance during the demo looked exciting.

In 2016, Esri announced Insights which has now been released. It’s a browser-based tool for exploratory analysis of spatial and non-spatial data. It has similarities to business intelligence (BI) tools (cough, Tableau, cough, qlik, cough), but definitely with a stronger focus on geospatial analysis. Somewhat surprisingly, Esri stated that they don’t see themselves in competition with other BI tools. In any case, it will be interesting to see how Insights will establish itself in the market and where and to what ends it will be used (keep in mind that you’ll need an ArcGIS Enterprise installation to use Insights). For now the app works with vector and tabular data only. Support for raster data is announced for fall 2017.

Another newcomer is the ArcGIS API for Python. This API is much more powerful than the existing arcpy module and lets you script and automate all kinds of tasks across the Esri platform. Esri branded it (tongue-in-cheek) as the „return of AML“. This should delight at least one of my colleagues at EBP. There is also a completely new language called Arcade. Arcade is designed to formulate expressions (think for example, labeling) in a consistent way across the platform, something that was not possible with the options available now.

To finish off this post, let’s take an exciting look into the future: Watch this video of Esri’s HoloMap, a prototype app for Microsoft’s HoloLens:

Geländeanalysen 2.0

Oberflächenanalysen sind für viele verschiedene Einsatzgebiete interessant. Je nach Verwendungszweck kann man den Wert einer Analyse deutlich verbessern, wenn man einige Punkten Beachtung schenkt.

Mit Geoinformationssysteme können bekanntlich Vektor- und Rasterdaten analysiert werden. Letzere verwenden wir oft für die Modellierung des Geländes mit digitalen Höhenmodellen (DHM). Mit den Methoden der sogenannten Geomorphometrie und einem DHM können wir Geländeformen quantitativ beschreiben.

Anwendungen für Geländeanalysen

Analysen von Geländeformen sind für unsere Kundinnen und Kunden für verschiedene Einsatzzwecke nützlich. Beispielsweise lassen sich damit Aussagen machen zur:

  • Lagegüte von Land, Grundstücken und Gebäuden: exponiert versus ‚versteckt‘, Südhang versus Nordhang, Seesicht, Bergsicht, in einer Mulde, in einem Geländeeinschnitt, relativ ‚hoch‘ oder ‚tief gelegen‘, …
  • Ausprägung von physikalischen Prozessen wie Naturgefahren (Sturzgefahren, Lawinen, etc.), Schneedecke bzw. Schneeschmelze, Erosion, Versickerung, …
  • Eignung für den Abbau oder die Ablagerung von Material: Kiesgruben, Sandgruben, Mulden, Deponien, …
  • idealen Planung von Infrastruktur, so dass diese möglichst nicht das Landschaftsbild stört. Beispiele sind Strassen, Stromleitungen oder Bauten.

Die Auflösung bestimmt, was wir finden

Das Problem fast aller Analysen von Geländeformen mit Geoinformationssystemen besteht darin, dass die Auflösung (also die Zellengrösse) des verwendeten DHM direkt die Auflösung der Analyse bestimmt und damit auch, was wir in unserer Untersuchung überhaupt finden können. Dies aus folgendem Grund: Bei der Berechnung von Grössen wie Hangneigung und Wölbungen (Kurvaturen) für einen bestimmten Ort untersuchen die meisten Geoinformationssysteme die 9 nächsten Rasterzellen im DHM (manchmal auch nur 4!). Anschliessend wird in diesem 3×3-Ausschnitt des DHMs (gelb-grün) eine mathematische Oberfläche (türkis) eingepasst:

Anpassen einer Oberfläche an DHM-Rasterzellen (Quelle: Esri)

Für die Berechnung von Kurvaturen wird eine gewölbte Oberfläche verwendet. Für die Berechnung der Hangneigung kann die Oberfläche je nach verwendetem Algorithmus auch plan sein.

Wenn wir Hangneigung und Kurvaturen auf diese klassische Art berechnen, erfassen wir nur jene Geländeformen, die ungefähr im Skalenbereich von 3×3 DHM-Rasterzellen liegen. Wenn wir für unsere Berechnungen swissALTI3D mit 2 Metern Auflösung verwenden, finden wir also Formen von ungefähr 6 Metern Grösse. Verwenden wir DHM25, beschreiben wir Geländeformen von ungefähr 75 Metern Auflösung.

Aber es gibt einen Ausweg

Dass wir uns von der DHM-Auflösung die Resultate der Analyse diktieren lassen, ist unhaltbar. Die Auflösung des DHM zu mindern, ist aber aus diversen Gründen auch keine Lösung. Stattdessen setzen wir bei EBP für knifflige Fragestellungen Spezialsoftware ein, die es uns erlaubt, Geländeformen auf mehreren Skalenebenen zu analysieren. Statt nur eine 3×3-Umgebung zu verwenden, können wir beliebig grosse Umgebungen (zum Beispiel 5×5, 11×11, 21×21) definieren, die dann für die Berechnung von zum Beispiel Hangneigung und Kurvaturen benutzt werden. Zudem erlaubt uns das Tool deutlich mehr und aussagekräftigere Parameter zu berechnen als Standard-Geoinformationssysteme.

Es folgen einige Beispiele zur Veranschaulichung. Wo nicht anders beschrieben, sind die folgenden Resultate gemittelte Werte von 3×3-, 5×5-, 7×7-, 9×9- und 11×11-Umgebungen. Damit lassen sich also Geländeformen von circa 75 bis circa 275 Metern Grösse identifizieren:

Maximalkurvatur, über 3×3 bis 11×11 Rasterzellen berechnet. Dieser Parameter betont Grate (Formen, die zumindest in eine Richtung stark konvex sind) in violett und Mulden oder Trichter (Formen, die in alle Richtungen betrachtet konkav sind) in grün.
Minimalkurvatur, über 3×3 bis 11×11 Rasterzellen berechnet. Dieser Parameter betont Geländeeinschnitte im Skalenbereich 75-225 Meter (Formen, die zumindest in eine Richtung stark konkav sind) in grün und Kuppen oder Gipfel (Formen, die in alle Richtungen betrachtet stark konvex sind) in braun.
Longitudinalkurvatur, über 3×3 bis 11×11 Rasterzellen berechnet. Dieser Parameter betont Hangfüsse und Täler im Skalenbereich 75-225 Meter (Formen, die in Richtung der Fall- bzw. Fliesslinie konkav sind) in blau und obere Hangenden oder Grate (Formen, die in Fliessrichtung betrachtet konvex sind) in rot.
Wiederum Darstellung der Longitudinalkurvatur, hier aber über 3×3 bis 21×21 Rasterzellen berechnet (statt „nur“ bis 11×11 Rasterzellen). Man sieht, wie diese Analyse im Vergleich zur vorherigen grössere Geländeformen betont.

Mit den richtigen Werkzeugen können aus DHM und anderen Oberflächendaten sehr viel mehr Erkenntnisse gezogen werden als mit den weitum bekannten Standard-Tools. Sollten Sie im Zusammenhang mit Oberflächen mal auf knifflige Fragen stossen, dürfen Sie sich natürlich gerne unverbindlich bei uns melden.

 

Modernes Wissensmanagement

In unserer scheinbar immer schnelleren Wissensgesellschaft wird die Aufnahme von Information, Lernen und das Umsetzen von Wissen immer wichtiger. Zu diesem Thema lese ich manchmal Beiträge über die Personal Knowledge Mastery (PKM)-Konzepte von Harold Jarche. In diesem Blogpost möchte ich kurz auf Wissensmanagement generell und als Beispiel auf das PKM-Konzept eingehen.

Wieso Wissensmanagement?

Wissensmanagement bezeichnet die positive Beeinflussung der Wissensbasis einer Person oder einer Organisation. Im Fall einer Person spricht man auch vom „persönlichen Wissensmanagement“, im zweiten Fall vom „organisatorischen Wissensmanagement“.

Wissen soll nicht in Karteikästchen verschwinden

Wissen ist zunehmend ein wichtiger Produktionsfaktor. Das organisatorische Wissensmanagement kümmert sich deshalb darum, das individuelle Wissen, das in einer Firma, Behörde, Verwaltung oder Verein bei den einzelnen Personen vorhanden ist, nachhaltig in der Organisation zu verankern. Dabei wird oft zwischen explizitem und implizitem Wissen unterschieden – die unterschiedlich angegangen werden müssen:

  • Explizites Wissen ist niedergeschrieben bzw. kann niedergeschrieben werden, beispielsweise in Handbüchern oder Handlungsanweisungen. Hier muss Wissensmanagement geeignete Prozesse und Verantwortlichkeiten definieren und Gefässe finden für das Festhalten von Wissen (people-to-document), um so zum Beispiel Gatekeeping (dass eine Information nur bei einer Person vorhanden ist und diese bei Bedarf stets danach gefragt werden muss) möglichst zu minimieren.
  • Implizites Wissen ist Wissen, das nicht (richtig) verbal vermittelt werden kann (auch: tacit knowledge, also stilles Wissen). Gute Beispiele sind das Wissen, wie man velofährt oder wie man Schuhe schnürt. Die Methoden für explizites Wissen können bei implizitem Wissen nicht greifen. Hier geht es stattdessen häufig darum, die richtigen Massnahmen zu finden, um zwischenmenschliche Lernprozesse zu fördern (people-to-people).

Grundlegender Baustein: Persönliches Wissensmanagement

Das persönliche Wissensmanagement steht unterhalb der systemischen Sicht der Organisation. Es ist aber natürlich notwendige Voraussetzung für gelungenes organisatorisches Wissensmanagement. Besonders klar wird dies gerade anhand des bereits erwähnten PKM-Konzepts von Harold Jarche. Er definiert PKM als „a set of processes (…) to help each of us make sense of our world and work more effectively.“

Ein wichtiger Baustein dieses Konzepts ist das Framework Seek > Sense > Share:

Seeking is finding things out and keeping up to date. Building a network of colleagues is helpful in this regard. It not only allows us to “pull” information, but also have it “pushed” to us by trusted sources. Good curators are valued members of knowledge networks.

Sensing is how we personalize information and use it. Sensing includes reflection and putting into practice what we have learned. Often it requires experimentation, as we learn best by doing.

Sharing includes exchanging resources, ideas, and experiences with our networks as well as collaborating with our colleagues.

Betrachten wir persönliches Wissensmanagement durch diese Brille, ist es keine rein individuelle Aufgabe: Für Seeking benötigen wir gute soziale Netzwerke (reale und virtuelle) – also Netzwerke, die beim Lernen für Aufgaben unterstützen. Aus einem gut kuratierten Netzwerk kann eine Person wertvolle Informationen selber extrahieren (Pull-Prinzip) aber auch erhalten, etwa wenn ein Partner im Netzwerk die Person auf etwas aufmerksam macht, das für diese relevant ist (Push-Prinzip). Gutes persönliches Wissensmanagement braucht also gute soziale Vernetzung.

Sensing umfasst die Verinnerlichung, Reflexion und Anwendung von neu erschlossenem Wissen. Dieser Prozess benötigt Zeit, Freiräume und Gelegenheiten, das Wissen anzuwenden. Auch Sensing kann neben der individuellen Ebene eine soziale Dimension haben: Reflexion und Beüben neu erworbenen Wissens können zum Beispiel im Team geschehen.

Sharing bezeichnet die Weitergabe und den Austausch von Ressourcen rund um Wissen und bildet den Abschluss des Frameworks. Auch beim Sharing ist die Einbettung des Wissensmanagements und des Lernens in soziale Strukturen wieder wichtig. Hier wird Wissen im Austausch mit anderen gefestigt, und man lernt neue Sichtweisen, Ideen und Ressourcen kennen.

Hin zur intelligenten Organisation

Gemäss Harold Jarche sind die Schritte Seeking, Sensing und Sharing besonders in innovativen interdisziplinären Settings (wie zum Beispiel EBP eines ist) besonders wichtig:

The multiple pieces of information that we capture and share can increase the frequency of serendipitous connections, especially across organizations and disciplines where real innovation happens.

Aus diesen Betrachtungen lassen sich zum Beispiel entlang der folgenden Fragen Handlungsempfehlungen für intelligente Organisationen oder solche, die es werden wollen, erarbeiten (hier mit einem technischen Fokus):

  • Wie kann eine Organisation das organisatorische und das persönliche Wissensmanagement gewinnbringend miteinander verknüpfen? Wie kann eine Organisation das persönliche Wissensmanagement der Mitarbeiterinnen und Mitarbeiter fördern und so die Grundvoraussetzungen für ein effizientes und effektives Organisations-Wissensmanagement legen?
  • Welche Tools gibt es, die beim organisatorischen und persönlichen Wissensmanagement (z.B. mit dem Modell Seeking, Sensing, Sharing) unterstützen können? Wäre zum Beispiel Slack für meine Organisation gut geeignet? Weshalb nicht bzw. weshalb? Für welche Anwendungen, Informationen und Rollen in der Organisation?
  • Wie setze ich diese Tools passend zum jeweiligen Wissen und Kontext ein? Welches Wissen kann ich Zeitschriften, Fachtagungen oder Expertengesprächen entnehmen? Welche anderen Kanäle sind für meine Organisation, meine Aufgabe, mein Fachgebiet relevant?
  • Welches Wissen und welche Erfahrungen teile ich beispielsweise in einem Enterprise Social Network wie Yammer? Worüber schreibe ich einen Artikel in der internen Zeitschrift oder im internen Wiki? Was teile ich mit einer Fachgruppe auf LinkedIn, Xing oder einem anderen virtuellen sozialen Netzwerk? Worüber spreche ich mit Kolleginnen und Kollegen im Rahmen eines Erfahrungsaustauschs?

Allesamt spannende Fragen, die sich in unserer Zeit alle Organisation stellen sollten. Falls Sie sich für diese Themen interessieren, unterstützen wir Sie gerne.

e-geo-Interview mit Ralph Straumann: «Data Literacy ist eine grosse Herausforderung»

Mit dem letzten Newsletter schloss das Impulsprogramm e-geo.ch Anfang November 2016 seine Tätigkeiten ab. Ralph Straumann, Projektleiter in unserem Tätigkeitsfeld Systemberatung + Analytik wurde in diesem letzten, dem 28. Newsletter von e-geo.ch neben anderen GIS-Exponentinnen und -Exponenten interviewt. Das Interview dreht sich rund um unsere innovativen Themen: Data Science, die Zukunft von GIS und die digitale Transformation.

e-geo.ch und die NGDI. Bildquelle: e-geo.ch
e-geo.ch und die NGDI. Bildquelle: e-geo.ch

Personen in der Geoinformationsbranche ist e-geo.ch ein Begriff. Für alle anderen paraphrasiere ich aus der Newsletter-Einleitung von Christian Kaul: e-geo.ch war seit 2003 das Programm zur Förderung des Aufbaus einer Nationalen Geodaten-Infrastruktur (NGDI). Die Trägerorganisationen von e-geo.ch waren der Bund, die Kantone und die SOGI. Mit der neuen Geoinformationsgesetzgebung auf Stufe Bund (GeoIG) wurde 2008 ein grosser Meilenstein erreicht. Ab 2011 rückten dann Umsetzungsfragen zwischen Bund und Kantonen in den Fokus. Im Austausch zwischen den Trägerorganisationen zeigte sich dann ab Januar 2015, dass e-geo.ch zwar viel erreicht hat aber für die Umsetzung ein neuer Rahmen gesucht werden soll.

Der letzte e-geo-Newsletter bietet einen Rückblick in die „Pionierzeit“ und auf verschiedene Highlights des Impulsprogramms. Er zeigt aber auch aktuelle Herausforderungen der Geoinformation und fragt: Was kommt danach? Verschiedene Fachleute geben ihre Einschätzungen ab zu spannenden Visionen und Trends der Branche. Der Text aus dem Interview mit Ralph Straumann:

«Data Literacy ist eine grosse Herausforderung»

Das BAKOM nennt in einer Studie vier grosse Trends, die auch für die Geoinformation relevant sind, nämlich Information, Cloud, Mobile und Social. Wir alle produzieren immer mehr Daten, schon allein, weil wir mit dem Smartphone herumlaufen. Wir nutzen aber auch immer mehr Informationen in der einen oder anderen Form. Das wird ermöglicht durch die Cloud und ihre skalierbare Rechnerleistung. «Mobile» ist ein Trend, weil immer mehr Internetnutzung über das Handy läuft, und «Social» steht für die Netzwerke, wo man sich miteinander austauscht. Diese vier Trends gelten natürlich nicht nur für GIS, aber an ihnen kann man recht viel fest machen, was im Moment passiert.

Niederschwelligere Angebote

Weiter stelle ich fest, dass unser Feld sich öffnet. Es gibt neue Werkzeuge, die das Arbeiten mit Geodaten viel weniger exklusiv machen. Früher hatte man die grossen, teuren GIS-Systeme. Dazu gibt es heute Alternativen, kommerzielle und freie. Diese Entwicklung wird unter anderem vorangetrieben durch den Datenjournalismus, der in den letzten Jahren aufgekommen ist und auch häufig mit Karten zu tun hat. Aus dieser Richtung kommen viele neue Herangehensweisen von Leuten, die nicht so in den Paradigmen drin sind wie wir GIS-Leute. Das finde ich spannend, und das meine ich, wenn ich von «Mainstreaming» und «Consumerisation» spreche.

Geomorphometrie: Valleyness im Tessin (Straumann, 2010)

Komplexe Datenwissenschaft

Als Trend sehe ich auch die «Data Science», die Datenwissenschaft, die seit ein paar Jahren immer mehr in den Vordergrund tritt und in der wir bei EBP auch aktiv sind. Das Ziel der «Data Science» ist, mit den umfangreich anfallenden Daten Prozesse und Strukturen zu optimieren. Ein klassisches Beispiel ist Amazon: Wenn ich dort Bücher bestellt habe, sagt mir Amazon, welche Bücher mir auch noch gefallen könnten. Dieses Empfehlungssystem ist eine einfache Anwendung, aber es gibt auch noch andere Beispiele, wo das viel weiter getrieben wird, auch im Zusammenhang mit Geodaten.

Trajektorien in Zürich von lokalen und auswärtigen Flickr-Nutzerinnen und -Nutzern (Straumann, Çöltekin & Andrienko, 2014)
Trajektorien in Zürich von lokalen und auswärtigen Flickr-Nutzerinnen und -Nutzern (Straumann, Çöltekin & Andrienko, 2014)

Weniger einfache Tätigkeiten

Diese Trends haben für unsere Branche natürlich Konsequenzen, indem einfache GIS-Arbeiten in Zukunft vielleicht weniger gefragt sein werden. Vor fünf Jahren konnte es durchaus sein, dass ein Kunde zu uns kam mit einer Datenbank, in der die Adressen seiner Kunden hinterlegt waren und die er auf einer Karte sehen wollte. Solche einfachen Auswertungen kann es zwar immer noch geben, aber die Funktionalität dafür ist je länger je mehr in gängigen Desktop-Programmen eingebaut, so dass die Leute das selber machen können.

Aber die Kundenstandorte nicht nur zu kartieren sondern zu analysieren, zum Beispiel bezüglich der Frage, wo ein neuer Standort eröffnet werden soll und wie sich dieser auf das Betriebsergebnis oder die Versorgung auswirkt – das sind nach wie vor spannende Fragestellungen, die wir mit «Location Intelligence» beantworten können.

Es ergeben sich aber gerade noch weitere neue Fragen: Wir beraten unsere Kunden zum Beispiel zu den aktuellen Entwicklungen rund um das Internet of Things, Bots, Echtzeitdaten und Smart Cities bzw. Smart Infrastructure. Für diese Themen braucht es Fachwissen und spezielle Kompetenzen.

«Data Literacy» als Bürger(innen)pflicht

Ein besonderes Anliegen ist mir persönlich die «Data Literacy», das heisst die Befähigung von Nicht-Fachleuten, Daten und darauf aufbauende Analysen richtig «lesen» und interpretieren zu können – ganz besonders, wenn auf dieser Grundlage geschäftliche oder politische Entscheidungen getroffen werden. In unserer direkten Demokratie stimmen wir zudem über Fragen ab, die immer öfter ein gewisses Verständnis für Datenanalyse voraus setzen. Wir als Gesellschaft müssen also lernen, diese Dinge zu verstehen, damit umzugehen und manches auch kritisch zu hinterfragen.

Sie können das im e-geo-Newsletter erschienene Interview mit Ralph Straumann hier als PDF beziehen oder hier die gesamte Publikation herunterladen.

Vielen Dank an Swisstopo und Claudia Fahlbusch von escribo für die Erlaubnis zur Publikation dieses Texts auf unserem Blog.

Rückblick auf den GIS Day 2016

Richi Meyer, Christoph Graf und ich durften am Mittwoch EBP am GISDay an der HSR in Rapperswil vertreten. Der Anlass startete mit einem tollen Drohnenvideo, das in Rapperswil und Zürich gefilmt worden ist. Was sonst noch besprochen wurde, können Sie im folgenden Text nachlesen.


Quelle: FiftyFiftyFilm

Peter Jäger (Esri Schweiz) begrüsst die GISDay-Besucherinnen und Besucher
Peter Jäger (Esri Schweiz) begrüsst die GISDay-Besucherinnen und -Besucher

Der GISDay startete mit einer Begrüssung durch Herrmann Mettler, dem Rektor der Gastgeberin HSR. Herr Mettler tönte die schon auf Twitter kurz gesichtete künftige Partnerschaft zwischen Esri und der HSR an (mehr dazu weiter unten). Es folgte die kurze Begrüssung durch Peter Jäger von Esri Schweiz und dann starteten die Vorträge:

Martin Rumo: Entwicklung von Analysetools im Leistungssport

Martin Rumo vom Bundesamt für Sport (BASPO) begann seinen Vortrag mit einem Rückblick auf ein Stück (Sport-)Technologiegeschichte: die kabellose Übertragung von EKG-Daten. Aus dieser Idee entstand in Finnland vor Jahrzehnten die heute noch bekannte Firma Polar. Befeuert durch Innovationen der Mikrotechnologie werden Sensoren und Übertragungstechnik im Vergleich mit diesem frühen Produkt immer kompakter. Dies eröffnet neue Möglichkeiten für die Sporttechnologie und das BASPO.

martin-rumo-baspo
Datenanalyse im Sport. Bildquelle: EHSM.

Coaches mit der Messung von Leistungsparametern im Feld unterstützen

Konzeptionell folgt der Einsatz von Sporttechnologie diesem groben Ablauf:

Signal vom Sensor  →  Verarbeitungsschritt: Ereignisdetektion  →
Ereignisdaten  →  Verarbeitungsschritt: Aggregieren  →
Key Performance Indicators KPIs  →  Verarbeitungsschritt: Visualisierung  →
Critical Success Factors CSFs

Um die einzelnen Verarbeitungsschritte umzusetzen und die notwendige Hardware zu testen, kooperiert die Eidgenössische Hochschule für Sport in Magglingen mit dem Zentrum der Berner Fachhochschule (BFH) für Technologien für Sport und Medizin. Die Forschungsaktivitäten folgen stets dem folgenden Ablauf: 1) Die Hochschule verarbeitet Erkenntnisse der Grundlagenforschung, 2) prüft deren Resultate hinsichtlich ihrer Relevanz für den Leistungssport, 3) führt anschliessend Pilotstudien durch und 4) entwickelt dann in einigen Fällen eine neue Dienstleistung für Sportlerinnen und Sportler bzw. für deren Coaches.

Nutzendenfreundlichkeit!

Damit die fertigen Dienstleistungen auch (gerne) genutzt werden, gilt es bei der Entwicklung die Coaches bei ihren Bedürfnissen mit hoher Nutzendenfreundlichkeit abzuholen. Die besteht dabei aus Relevanz, Bedienung und Funktion. Um sie zu gewährleisten, muss Martin Rumo mit den Coaches eine gemeinsame Sprache finden, in der die Coaches ihr Erfahrungswissen und ihre Bedürfnisse formulieren können. Die zu entwickelnden Produkte müssen dann die Lücke zwischen den Erfolgsfaktoren (CSFs) (d.h. der Sicht der Coaches; zum Beispiel „Pressing“im Fussball) und den Schlüsselindikatoren (KPIs) der Data Scientists schliessen können. Gute Kommunikationsfähigkeiten auf beiden Seiten sind dafür die wichtigste Voraussetzung.

Weiterführende Informationen und Beispiele aus unserer Tätigkeit:

Dariush Daftarian: ABM bei Senozon

Woher kommt der Firmenname Senozon? Dariush Daftarian erklärt: Senozon ist die Umkehrung von „No Zones“ und damit eigentlich die Kürzestfassung des Ansatzes von Senozon. Statt wie klassische Verkehrsmodelle auf Verkehrszonen zur Modellierung von Verkehrsproduktion und Verkehrsnachfrage abzustellen, verfolgt Senozon einen Ansatz zur agentenbasierten Modellierung (ABM), wie sie im zugrundeliegenden Tool MATSim implementiert ist.

Annahmen und Modellierungsansatz

MATSim nimmt dazu Infrastrukturdaten (Gebäuderegister, Betriebszählung, Fahrpläne, etc.) und Personendaten (STATPOP, STATENT). Diese Daten werden zusammengezogen in einem Modell, das die Mobilisierung aller Personen modelliert. In der Schweiz werden zur Ableitung von Entscheidungs- bzw. Verhaltensweisen dieser simulierten Personen die Daten des Mikrozensus des Mobilitätsverhaltens benutzt. Resultat ist eine Abschätzung des Mobilitätsverhaltens jeder simulierten Person bzw. jedes Agenten im Modell. Diese Agenten werden dann auf die Mobilitätsinfratstruktur „losgelassen“. Maschinelle ÖV-Fahrgastzählungen, Checkout-Daten von Retailpartnern von Senozon und Strassenverkehrszählungen werden dazu benutzt, das Modell zu kalibrieren und anschliessend die Modellresultate zu validieren.

Fragen zum Datenschutz

Aktuell führt Senozon ein Pilotprojekt mit einer deutschen Telekomfirma durch. Laut Dariush Daftarian ist das Senozon-Modell in diesem Umfeld besonders interessant, weil die Summe der Agenten eine synthetische Bevölkerung darstellen und nicht genau echten Personen entsprechen. Probleme des Datenschutzes stellten sich deshalb weniger als bei den Analysen von Mobilfunkdaten der Telekomfirmen, die sich auf echte Individuen beziehen und deshalb datenschützerisch heikel seien.

Mobiltätsprodukte

Bankomaten-Whitespot-Analyse von Senozon für Credit Suisse.
Bankomaten-Whitespot-Analyse von Senozon für Credit Suisse.

Zum Abschluss stellt Dariush Daftarian Senozon einige Leuchtturm-Projekte vor. Senozon setzt sein Modell für verschiedene Dienstleistungen ein: zum Beispiel Standortanalysen, Standortsuchen und Analysen von CRM-Daten (Datenanreicherung). Nutzen lassen sich die unterschiedlichen Produkte via Datenauszüge, die Web App von Senozon oder eine kundenspezifische Modellierung. Die Fallbeispiele zu Standortentscheidungen von Dunkin Donuts, den Bürostandorts eines Schweizer Telekomanbieters und den Bankomatstandorten der Credit Suisse illustrierten das Gesagte anschaulich.

Weiterführende Informationen und Beispiele aus unserer Tätigkeit:

 

Peter Heinzmann: Fussballspieler-Tracking

Fussballspiel-Auswertung. Bildquelle: cnlab

Peter Heinzmann von der HSR und der Firma cnlab begann seinen Vortrag wie Martin Rumo auch mit einem kurzen Rückblick, in seinem Fall auf die Technologie für das Verfolgen von Fussballspielern in Bewegtbildern, und einem kurzen Abriss über den Einsatz von GPS-Daten im Sport. Bereits 2011 katapultierten Einladungen zu Galatasaray und Fenerbahce zu einer Demo eines Trackingsystems Peter Heinzmann in die Fussball-Szene. Die Trainerstäbe dieser beiden Mannschaften zeigten sich vom System gleich beeindrucht. Es folgten Aufträge für andere europäische Vereine. Neben dem Fussball beschäftigen Peter Heinzmann Datenanalysen und Simulationen von Velorennen wie der Züri Metzgete und der Tour de Suisse.

Verschiedene Auswertungsmöglichkeiten

Selbst Consumer-GPS-Tracker erwiesen sich schon 2011 als hinreichend genau für verschiedene Auswertungen im Fussball: Bei der taktischen Auswertung können Spielerpositionen inklusive History visuell dargestellt werden. Weiter können verschiedene taktische Massnahmen eingeblendet werden, beispielsweise die sich dynamisch verändernde Verteidigungslinie. Weiter sind möglich: Heatmaps der „Aufenthaltsorte“ der Spieler durch das Spiel, relative Heatmaps oder eine Art „Einzugsgebiete“ der einzelnen Spieler im Verhältnis zueinander und Darstellungen des sich dynamisch verändernden Mannschaftsschwerpunkts.

Verbesserte Technologie und Daten im Zentrum

Heute setzen selbst Firmen, die in der frühen Phase der Sporttechnologie auf Videotracking setzten, zumindest auch Sensoren ein. Diese dürfen zwar in der Regel nicht während Spielen getragen werden, werden aber gerne im Training benutzt. Moderne Sensoren haben eine Vielzahl von Fähigkeiten: Positionsermittlung, Geschindigkeitsmessungen, Pulsmessungen und die Messung von Beschleunigungen in mehreren Achsen und mit 100 Messungen pro Sekunde! Die Vielzahl der Sensoren führt zu viel mehr Daten und Kombinationsmöglichkeiten. Damit können mittlerweile auch sehr wertvolle abstraktere Aussagen gemacht werden, etwa zum Passverhalten, zur Ermüdung eines Spielers oder der Verletzungsgefahr. Die Unmenge von Daten und darauf aufbauende Analysen erlauben es Funktionären auch, Abschätzungen des Transferwerts von Fussballspielern vorzunehmen. Überflüssig zu sagen, dass der Wert präziser Aussagen in diesem Umfeld sehr hoch ist!

Weiterführende Informationen und Beispiele aus unserer Tätigkeit:

Abschluss

Raumbezogene Entscheidungen sind und bleiben wichtig. Aus diesem Grund freuten sich Herrmann Mettler und Peter Jäger zum Abschluss des GIS Day-Plenums die künftige Partnerschaft zwischen Esri und HSR vorzustellen, unterstützt von einem schönen Drohnenvideo in Rapperswil und in Zürich (s. oben). Die HSR wird zum Esri Development Center mit dem Ziel der technologischen Zusammenarbeit, der einfacheren Geodatennutzung und der Stärkung der Didaktik in der Planungsausbildung.

Der gelungene Anlass wurde beim Apéro riche abgeschlossen, aber dieser lässt sich schlecht in Worte fassen 😉

Wir bedanken uns bei den Organisatoren und freuen uns, 2017 wieder beim GIS Day dabeizusein!

Win-win: Schliessen des Open Data-Feedback-Loops

Parkplatzdaten der Stadt Zürich waren für fünf Tage öffentlich. Nun sind sie nicht mehr verfügbar. Was ist geschehen?

Parkplatzdaten: Teil der Smart City-Basisinfrastruktur

Am 9. November hat die Stadt Zürich einen Datensatz des Tiefbau- und Entsorgungsdepartements  mit den Positionen sämtlicher öffentlich zugänglicher Parkfelder veröffentlicht, mitsamt ergänzenden Attributen zur Art des Parkfelds und der maximal zulässigen Parkzeit. Dieser Datensatz ist aus verschiedenen Gründen interessant und seine Veröffentlichung unbedingt richtig: Es gibt immer wieder politische Diskussion um die Parkraum-Versorgung der Innenstadt und von verschiedenen Quartieren. Mit Daten zu diesem Thema können diese Diskussionen versachlicht werden. Andererseits nahm gestern der Projektleiter der Smart City-Strategie der Stadt Zürich seine Arbeit auf. Die Parkfelder der Stadt sind noch nicht mit smarter Technologie ausgerüstet, die es erlauben würde, die Belegung zu registrieren. Es ist aber klar, dass dies eine lohnende Stossrichtung im Rahmen der Smart City-Strategie wäre, um zum Beispiel den Suchverkehr und somit Lärm, Umweltbeeinträchtigungen und vergeudete Zeit zu minimieren. Die Publikation der Parkplatzdaten kann vor diesem Hintergrund auch als ein kleiner Baustein an der Basisinfrastruktur der Stadt gelesen werden. Diese besteht bekanntlich nicht nur aus Strassen und Tramgleisen sondern immer mehr auch aus Daten und Services.

Many eyes

Der Datensatz wurde auch von den Medien aufgenommen. Das Tiefbauamt der Stadt Zürich veröffentlichte eine auf den publizierten Daten beruhende Analyse und die Stadt stellte eine 3D-Visualisierung des Parkplatzangebots zur Verfügung.

Soweit so gut. Gestern Abend dann erregte dieser Tweet von @opendatazurich und ein weiterer aus dem Umfeld von @opendatazurich meine Aufmerksamkeit:

Tweet zu den fehlerhaften Parkplatzdaten von @opendatazurich

Was war geschehen? Die Veröffentlichung der Daten führte dazu, dass plötzlich sehr viel mehr Augenpaare darauf geschaut haben. Leute mit Lokalkenntnissen – etwa rund um die eigene Wohnung oder in der Umgebung des Arbeitsorts – haben sich die Daten genau angeschaut und sind auf Unstimmigkeiten gestossen.

Die Reaktion

Die Situation und die Reaktion der Stadtverwaltung sind im Beitrag von Tele Züri gut zusammengefasst (2:32 Minuten). Im Beitrag werden lediglich zwei Unstimmigkeiten genannt, einmal im Zusammenhang mit einer sich dynamisch entwickelnden Baustellensituation, einmal im Zusammenhang mit einem nur privat und nicht öffentlich zugänglichen Parkareal. Diese Unstimmigkeiten haben dazu geführt, dass die Stadtverwaltung die Parkplatzdaten zur Prüfung und Überarbeitung offline genommen hat.

Erkenntnisse

Einige Erkenntnisse, die sich aus diesem Vorkommnis ableiten lassen:

  • Praktisch jeder Datensatz weist Mängel auf. Das Potenzial für Fehler und Ungenauigkeiten steigt unter anderem mit dem Umfang der Daten und mit der Dynamik eines Phänomens. Zu letzterem: Zum Beispiel wird ein Datensatz der Baustellen der Schweiz sehr viel fehleranfälliger sein als ein Datensatz der Flughafenpisten. Beides – grosser Umfang und potenziell hohe Dynamik – sind beim Parkplatzdatensatz der Stadt Zürich gegeben.
  • Wenn ein Datensatz veröffentlicht wird, vervielfacht sich die Zahl der Augenpaare, die diesen Datensatz sichten von in der Regel ein paar wenigen städtischen Mitarbeitenden zu einigen Dutzend bis einigen hundert oder auch mal einigen tausend Personen.
  • Es ist unumgänglich, dass eine grössere Anzahl von Personen eher Fehler oder Auffälligkeiten in den Daten findet als eine relativ kleine Gruppe auch sehr gut ausgebildeter Personen. Diese Wahrscheinlichkeit steigt dadurch noch mehr, dass die grosse Gruppe zusammengenommen über annähernd flächendeckende Lokalkenntnisse und auch ‚Lokalinteressen‘ verfügt, die der kleinen Gruppe von städtischen Mitarbeitenden (richtigerweise) abgehen.
  • Niemand macht gerne Fehler. Organisationen und Personen sind beim Auftreten eines Fehlers gleich versucht, die fehlerhafte Aussage zurückzunehmen und zu berichtigen. Vor diesem Hintergrund ist die Reaktion der Stadt Zürich verständlich, auch wenn ich sie bedauerlich finde (dazu gleich mehr).

Manche dieser Punkte lassen die Chancen und Risiken von Crowdsourcing für die öffentliche Verwaltung anklingen, die wir in diesem Blog bereits im Jahr 2012 diskutiert haben. Crowdsourcing (also das Übertragen von Arbeiten an eine Gruppe von Leuten) ist in vielerlei Hinsicht bezüglich Open Government Data (OGD) die andere Seite der Medaille:

Diese Punkte zu Crowdsourcing skizzieren denn auch einen anderen Weg zum Umgang mit den fehlerhaften Parkplatzdaten.

Ein anderer Weg

Ich freue mich darauf, wenn das Tiefbau- und Entsorgungsdepartement die Parkplatzdaten überprüft hat und diese dann wieder der Öffentlichkeit zur Verfügung stellen wird. Dennoch wünsche ich mir für den nächsten Vorfall eine andere Reaktion. Und es ist meines Erachtens wahrscheinlich, dass wieder einmal etwas Ähnliches passiert, denn wo Menschen arbeiten, passieren Fehler. Ich schlage den folgenden 6-Punkte-Plan vor für erfolgreiche OGD-Feedback-Mechanismen:

  1. Die Stadt lässt die fehlerbehafteten Daten aufgeschaltet. Sie versieht diese an den Orten, wo sie einsehbar sind, mit einem Disclaimer, der genau den aktuellen Kenntnisstand erklärt.
  2. Über das über die Jahre hinweg aufgebaute Community-Management erreicht die Stadt die typischen Nutzerinnen und Nutzer der Daten und kann diese direkt ansprechen. In der Community-Kultur sind allen Akteuren die Rechte und Pflichten rund um Open Data bekannt. Weist die Stadt also auf die Fehler in den Daten hin, trägt die Community diesem Umstand in ihren Aktivitäten Rechnung.
  3. Die Stadtverwaltung lädt als nächstes die Community ein, zusammen die Daten zu verbessern. Das OGD-Portal der Stadtverwaltung hält für diese Aufgabe Funktionen und Schnittstellen bereit. Die verwaltungsinternen Abläufe sind ebenfalls bereits geregelt.
  4. Die Community ist sich der Schwierigkeit der Pflege von Daten sehr wohl bewusst. Die Stadt hat dank Community Management via @opendatazurich viel Goodwill aufgebaut. Die Community wird folglich keinesfalls etwa hämisch auf die Fehler der Verwaltung zeigen, sondern sich mit Enthusiasmus dafür einsetzen, die Daten schnellstmöglich zu verbessern. Stadtverwaltung und Community arbeiten Hand in Hand. Die Community entwirft Werkzeuge und setzt freiwillige Arbeitsstunden ein zur Verbesserung der Daten. Geübte OpenStreetMap-Mapperinnen und -Mapper könnten hier zum Beispiel eine gewichtige Rolle spielen.
  5. Der Stadt kommen die Lokalkenntnisse engagierter Datenspezialistinnen und -spezialisten zugute, sie behält aber die Hoheit darüber, welche Korrekturen in die Daten einfliessen.
  6. Die Haltung der Community und die Zusammenarbeit zwischen ihr und der Verwaltung steuert die Tonalität in den Medien und der Öffentlichkeit. Das Potenzial von Open Government Data unter Einbezug der Öffentlichkeit wird augenscheinlich.

2013 habe ich im Rahmen des europäischen Forschungsprogramms ENERGIC an der Universität Zürich einen Vortrag gehalten, der einige dieser Gedanken bereits vorwegnahm. Ich habe damals (aus der Sichtweise von Crowdsourcing bzw. Volunteered Geographic Information/VGI) insbesondere auf den sich aufdrängenden Kreislauf zwischen Open Government Data und Crowdsoucring hingewiesen:

Das Schliessen dieses Kreislaufs muss ein Fokus unserer Anstrengungen im Open Data-Bereich in der Schweiz sein.

Was fehlt?

Wie kommen Open Data-Anbieter auf diesen vielversprechenderen Weg? Ich sehe im Beispiel von Zürich im Moment drei Punkte, die es noch umzusetzen gilt:

  • Es braucht auch in der innovativen Stadt Zürich vermutlich da und dort noch ein Umdenken, mehr Mut und Vertrauen sowie etwas mehr Data Literacy, also Kenntnisse über Charakteristika von Daten und über die Prozesse rund um Daten, vor allem bezüglich des Open-Ökosystems.
  • Das OGD-Portal https://data.stadt-zuerich.ch muss um einfach zu nutzende Feedback-Möglichkeiten erweitert werden, die der Öffentlichkeit das Melden von Fehlern bzw. das Einsenden von Korrekturen sowohl auf Layer-Ebene als auch auf Einzelobjekt-Ebene ermöglichen.
  • Die Stadtverwaltung muss solche Meldungen durch die zuständige Stelle einfach weiterverarbeiten können inklusive, auf Wunsch, Rückmeldung an die meldende Person (Issue Tracking-System). Die erfolgreiche App Züri wie Neu verfügt bereits über diese Mechanismen, allerdings mit einem Fokus auf anfassbare Stadtinfrastruktur, nicht auf Daten.

Diese Änderung bringen die Stadt Zürich näher zu einem innovativen OGD-Crowdsourcing-Ökosystem mit allen ökonomischen und gesellschaftlichen Vorteilen, die dieses mit sich bringt. Packen wir’s an!

 


Deklaration: Ich bearbeite aktuell mit der Stadt Zürich ein Projekt im Bereich Open Data. Dieser Text reflektiert meine persönlichen Ansichten.