GeoPython Konferenz 2018

Bereits zum dritten Mal öffnete die Fachhochschule Nordwestschweiz (FHNW) ihre Tore zur GeoPython-Konferenz. Während dreier Tage trafen sich vom 7. bis 9. Mai Geo-Interessierte aus aller Welt in Muttenz, um über die neuesten Trends und Packages rund um Python zu diskutieren. Da wir bei EBP Python oft auch für Datenanalysen und die Arbeit mit Geodaten einsetzten, war ich für EBP dabei und möchte Ihnen einen Überblick über die Veranstaltung geben.

Räumliche Analysen mit GeoPandas

Martin Christen eröffnete die Konferenz ganz unkonventionell (und sehr sympathisch) mit einer rein analogen Ansprache ohne PowerPoint, Beamer und Co. sowie dem Versprechen, dass die GeoPython 2019 im brandneuen FHNW–Standort stattfinden werde. Pünktlich zum Beginn der ersten Workshops  war auf technischer Seite alles wieder bereit und schon stand eine schwierige Entscheidung an: Soll es der Workshop zur Datenanalyse mit GeoPandas werden oder jener zur Erstellung von QGIS-Makros mit PyQGIS?

Ich habe mich für GeoPandas entschieden und diese Wahl keineswegs bereut: Joris Van den Bossche führte nachvollziehbar und verständlich mittels Jupyter Notebooks durch die Funktionalitäten von Shapely, Pandas und GeoPandas. Insbesondere Coderinnen und Coder, die bereits mit der Programmiersprache R gearbeitet haben, werden das hier verwendete GeoDataFrame-Konstrukt wiedererkennen und schätzen. Dieses erlaubt es beispielsweise, räumliche Operationen nicht nur auf einzelne Objekte, sondern gleich auf alle Elemente einer Matrix anzuwenden. Der Workshop behandelte neben den möglichen räumlichen Operationen auch die Visualisierung der Resultate und gab einen guten Überblick über die Möglichkeiten von GeoPandas.

Der GeoPandas Workshop war gespickt mit Übungen zum selbst Programmieren. Die Verzahnung von Theorie- und Code-Blöcken gehört definitiv zu den Hauptvorteilen von Jupyter-Notebooks. Quelle: GeoPython 2018

Nachbarschaftsmatrizen als räumliche Alternative

GeoPandas begegnete den Teilnehmenden dann auch wieder beim Data Science Workshop am Nachmittag. Im Fokus stand dabei allerdings ein anderes Thema, nämlich PySAL. Dieses Package stellt diverse Methoden zur statistischen Auswertung und räumlichen Analyse zur Verfügung. Für Letzteres nutzt PySAL, anders als GeoPandas, Nachbarschaftsmatrizen. Über solche Matrizen wird festgehalten, welche Art von räumlicher Beziehung besteht und wie stark sie ausgeprägt ist.

Beispielsweise lässt sich ausgehend von einem Punktdatensatz die Nachbarschaft mittels Berechnung der Thiessen-Polygone bestimmen, wobei die Distanz der Punkte untereinander auch gleich die Gewichtungsmatrix ergibt. Je nach gewähltem Kriterium resultieren dabei andere Nachbarschaften. Das Rook-Kriterium beispielsweise sieht vor, dass zwei Polygone sich mindestens eine Kante  teilen müssen, um als Nachbarn zu gelten (vgl. Rook’s Case in Rasteranalysen). Auf den Nachbarschaftsmatrizen lassen sich räumliche Analysen wie beispielsweise eine Kernel Density Estimation (KDE) sehr schnell und ressourcenschonend berechnen.

Um die Nachbarschaftsmatrix eines Punkt-Datensatzes zu erstellen, werden Thiessen Polygone gebildet (links). Rechts ist die Nachbarschaftsmatrix grafisch dargestellt. Quelle: Levi John Wolf und Serge Rey auf github.

Big Data leicht gemacht

Ein weiterer Schwerpunkt der GeoPython war Machine Learning. Anhand verschiedener Projekte wurde demonstriert, wozu neuronale Netze bereits fähig sind. Beispielsweise um Verspätungen im öffentlichen Verkehr vorherzusagen. Anhand der Echtzeitpositionen der Busse, dem Soll-Fahrplan und weiteren Variablen wie Wetter und Ferienkalender wurde ein Modell trainiert, das als Entscheidungsgrundlage für das Busunternehmen dienen soll. Damit sollen unter anderem die Kundeninformation verbessert oder Extrabusse bei Bedarf möglichst ökonomisch eingesetzt werden.

Ein anderes Projekt verwendete Machine Learning im klassischen Anwendungsfall der Bilderkennung, um zum Klettern geeignete Felswände in unbekannten Gebieten zu entdecken. Wie in den anderen Machine Learning Projekten wurde auch hier eine Kombination aus Pandas, TensorFlow und Keras eingesetzt. Das manuell erstellte Trainingsdatenset wurde in TensorFlow geladen, um den Klassifikator zu trainieren, der anschliessend Luftbildern einen «Klettergebiet» Score zugewiesen hat. Auch wenn der Referent noch keine Gelegenheit fand, sämtliche potenziellen Klettergebiete selbst zu «verifizieren», waren die bisherigen Ergebnisse bereits vielversprechend.

Einen sehr anschaulichen Beitrag zum Themenblock bildete der Vortrag von Google, bei dem die verschiedenen hauseigenen Machine Learning APIs vorgestellt wurden. Anstatt eigene Modelle zu trainieren, kann durch die APIs auf fixfertig trainierte und spezialisierte Modelle zurückgegriffen werden. Diese umfassen beispielsweise Textanalysen, bei denen sowohl der Inhalt als auch die Stimmungslage ausgewertet werden. Auch Google Translator basiert seit einiger Zeit auf einem neuronalen Netzwerk, was gegenüber dem früheren statistischen Modell eine deutliche Verbesserung beim Übersetzen von ganzen Sätzen gebracht habe. Ein besonderes Augenmerk legte der Referent auf die Vision API zur Bilderkennung. So demonstrierte er sehr eindrücklich dessen Fähigkeiten, indem er Fotos vom Eiffelturm in Paris und von dessen Replikat in Las Vegas auswerten liess. Dass der Eiffelturm als solches erkennt wurde, war zugegebenermassen nicht allzu überraschend. Dass aber das Replikat zuverlässig in Las Vegas verortet wurde, obwohl keine anderen baulichen Erkennungsmerkmale im Hintergrund zu sehen sind, war hingegen erstaunlich.

Dies ist nicht der Eiffeltum in Paris, sondern dessen Nachbildung beim Paris Hotel and Casino in Las Vegas. Kein Problem für Google Vision. Quelle: Laurent Picard auf Speaker Deck.

Wissensdurstige aus aller Welt

Dies war mein erster Besuch an der GeoPython. Was mich rückblickend am Meisten erstaunt hat, war, wie international diese Konferenz ist. Nicht nur die Vortragenden kamen aus aller Welt, auch das Publikum war geografisch bunt gemischt. Wie ich in persönlichen Gesprächen mit auswärtigen Teilnehmenden erfahren habe, kommt dies nicht von ungefähr: Im Vergleich zu anderen Python-Veranstaltungen schätzen sie vor allem die sachbezogenen Präsentationen und den Austausch mit gleichgesinnten Fachleuten (ein Faktor, der ja auch das GeoBeer attraktiv macht). So verwundert es dann auch nicht, dass die GeoPython sich ein solches Renommee erarbeitet hat – ziemlich beachtlich für eine erst dreijährige Veranstaltung!

Die GeoPython 2018 endete nach vielen lehrreichen Präsentationen und interessanten Gesprächen. Ich freue mich jedenfalls schon auf die GeoPython 2019.

SmartSuisse 2018

Am 11. und 12. April 2018 fand in Basel zum zweiten Mal die SmartSuisse-Konferenz statt. Ich habe zusammen mit meiner Kollegin Fabienne Perret (Geschäftsbereich Verkehr) und meinen Kollegen Kaspar Fischer (Raum- und Standortentwicklung) und Ralph Straumann (Informatik) teilgenommen. Das Thema Smart City wurde in parallelen Vortragstracks und mit einem grossen Ausstellungsbereich beleuchtet. An der Konferenz konnte man Details zu vielen (Pilot-)Projekten zu Smart City in Städten und Gemeinden erfahren.

Daten-Layer

Initial begrüsste Konferenz-Initiator Mike Vogt die Besucher. Er präsentierte dabei das SmartSuisse-Modell zu Smart City: mit Untergrund-Layer, Boden-Layer, Luft-Layer und – eben neu im Zentrum beim Thema Smart City – einem Daten-Layer, der sich in die klassische Ebenen-Sicht schiebt, die wir in unserem Fach so gut kennen. In den folgenden Stunden sollte es darum gehen, welche Daten in diesem Daten-Layer erfasst und transportiert werden sollen, wie dieser mit den anderen Layer über Prozesse gekoppelt werden soll und welche Informationen man daraus extrahieren kann.

SBB-Chef Andreas Meyer machte den Auftakt der Referate, indem er unter anderem das Projekt Wolf-Areal in Basel als das smarteste Areal der Schweiz vorstellte. Auf dem Gelände soll in den nächsten Jahren ein smartes Areal konzipiert und entwickelt werden. Er hob weiter verschiedene smarte Themenbereiche rund um die Bahn hervor: Smart Mobility (Mobilitätshubs), Smart Building (Arbeiten mit BIM), Smart Public Space (Design von Erlebnisflächen im Herzen von Städten im Dialog mit der Bevölkerung), Smart City („von isoliert zu vernetzt“, Smart City als Infrastruktur Management Platform bzw. City Information Model (CIM)). Er appellierte an die Schweiz, sich gegenüber den Entwicklungen in anderen Städten der Welt offen zu zeigen, um nicht von diesen überholt zu werden.

Zusammenarbeit und umsichtige Regulierung

Klar zum Ausdruck kam bei verschiedenen Vorträgen das Bedürfnis nach Kooperation zwischen verschiedenen Partnern aus Verwaltung, Wirtschaft und Bevölkerung. Dass die Lösungsentwicklung im Alleingang kaum zu bewerkstelligen ist, wurde beispielsweise im Vortrag von Claudia Pletscher von der Schweizerischen Post deutlich: Sie sah Herausforderungen im Bereich der Regulierung, die der Technologie hinterherhinke. Sie wies in diesem Zusammenhang auf den „Red Flag Act“ im England des 19. Jahrhunderts hin, der für die damals neuen Autos 31 Jahre lang die Maximalgeschwindigkeit auf 4 Meilen pro Stunde (2 MPH innerorts) drosselte und zudem erforderte, das zur Warnung jedem Fahrzeug jemand mit einer roten Flagge  vorangehen musste – nicht ganz unähnlich zu den Settings, in denen heute automatisierte Fahrzeuge erprobt werden. (Übrigens: Der Red Flag Act verhinderte eine stattliche Zahl tödlicher Unfälle nicht.)

Lebensqualität für alle: strategisch versus opportunistisch

In vielen Referaten wurde deutlich, dass die Lebensqualität der smarten Städte im Mittelpunkt steht, oder zumindest stehen sollte. Beispielsweise postulierte Helle Søholt von der dänischen Firma Gehl:

„A smart city is a livable city!“

Damit fand die Bevölkerung der künftigen smarten Städte (die in der Technologieperspektive des Schichtenmodells zwischen Untergrund-, Boden-, Daten- und Luft-Layer vergessen gegangen war) doch zurück auf die Hauptbühne. Dass es diesbezüglich und allgemein für Smart City-Themen in der Schweiz noch Potenzial gibt, wurde ebenfalls in mehreren Vorträgen erwähnt. Thilo Zelt von Roland Berger stellte in diesem Zusammenhang eine interessante Studie zu einem „Smart City Index“ vor. Allerdings fehle es in der Schweiz allgemein noch etwas an klaren Strategien für Smart Cities. Dieser Punkt wurde am zweiten Konferenztag am Treffen der IG Smart City nochmals klar, aber zum Teil etwas anders gewertet: Während manche Städte sich eine Smart Ciy-Strategie gegeben haben (z.B. kürzlich Basel) bzw. eine erarbeiten (z.B. Zürich), haben andere Städte (etwa Aarau) den klassischen Prozess auf den Kopf gestellt (bzw. vom Kopf auf die Füsse?) und direkt mit kleinen Pilotprojekten und Tests gestartet, aus denen sich später eine Strategie herauskristallisiert.

Mobilität: Mehr Intelligenz statt Beton

Das Thema Mobilität war ebenfalls prominent an der Konferenz, nicht zuletzt natürlich mit der Konferenz-in-der-Konferenz Automaticar. Dort referierte Fabienne Perret, Mitglied der Geschäftsleitung von EBP, zum Forschungsprojekt „Einsatz automatisierter Fahrzeuge im Alltag“, das wir zusammen mit diversen Schweizer Partnern zum Thema des automatisierten Fahrens erarbeiten. Daneben drehten sich viele der bezüglich Mobilität genannten Ideen und Konzepte um multi- und intermodale Mobilitätsformen, die mit Hilfe neuer Technologien einfacher nutzbar gemacht werden können. MaaS (Mobiliy as a Service) wurde natürlich zahlreich thematisiert, unter anderem in den Vorträgen von Jörg Astalosch (Italdesign), Sampo Hietanen (MaaS Global) sowie von Gerd Scheller und Martin Fehr (Siemens).

Auch Prof. Carl Ratti vom Massachusetts Institute of Technology (MIT) wies auf die fundamentalen Änderungen hin, die im Bereich Mobilität bevorstehen: In seinem Vortrag zu Senseable Cities zeigte er eindrückliche Ergebnisse der Mobilitätsforschung, unter anderem zum Verkehrsfluss an Kreuzungen. Ausserdem zeigte er auf, dass Infrastruktur heute nicht mehr für 100 Jahre gebaut werden sollte, sondern transformierbar sein sollte, da sich die Bedürfnisse an sie in Zukunft potenziell schnell ändern werden. Das erscheint uns aber zumindest vorerst noch ein hehrer Wunsch, zeigen doch unsere eigenen Forschungsarbeiten in diesem Bereich, wie träge heute viele Bestandteile des Verkehrssystems auf technologische Innovationen reagieren, man denke zum Beispiel an Schiffs- und Flugzeugflotten oder an gebaute Infrastruktur. Künftig wird hier der oben angesprochene Daten-Layer noch wichtiger werden – nämlich um die physische Infrastruktur optimal, sicher und nachhaltig zu nutzen.

Weitere Eindrücke von der SmartSuisse finden sich in den sozialen Medien.

Wir beraten Sie gerne in Fragen rund um den Daten-Layer smarter Städte und smarter Regionen, Datengovernance, nachhaltige Planung und Entwicklung sowie eine Vielzahl weiterer Themen. Wir freuen uns über Ihre unverbindliche Kontaktaufnahme.

 

2018 Esri Partner Conference and Developer Summit – Part 2

The timing worked superbly, like the best Swiss clockwork: A few days before winter made a comeback in Switzerland, I sat in a plane to Los Angeles. Nevermind that California also had slightly cooler temperatures than usual – it was definitely preferable over the polar cold air masses that firmly occupied Switzerland. Even the place names felt evocative: Santa Cruz, Big Sur, and San Francisco. For two weeks I would cruise California, before making my way back to L.A. and then Palm Springs in order to attend the 2018 Esri Partner Conference and Developer Summit together with my colleague, Nicole Sulzberger. In what follows, we describe what we learned during the two Esri events: the latest news about developments at Esri.

Part 1 of this review has been published last week.

The Science of Where

As described previously, The Science of Where is still Esri’s tagline. Esri aims to apply the science of where to help answering spatial questions with:

  • increased efficiency to save resources
  • better analysis to actually understand what is going on, and
  • better communication to foster good decisions

Many of the recent developments shown during the Partner Conference and the Developer Summit can be linked very well to at least one, often several, of these three promises.

 

Select Highlights (continued from Part 1)

Geo AI DSVM

The big news of Esri in terms of data analysis was quite a mouthful: Esri Geo AI Data Science Virtual Machine (DSVM) on Microsoft Azure. That’s „GeoAI DSVM“ for short.  What is behind this? Geo AI DSVM is a virtual machine in the Microsoft Azure cloud that combines ArcGIS Pro and a plethora of Microsoft data science toolkits. It’s part of Microsoft’s „AI for Earth“ project. The VM contains pre-configured installations of, for example, Python, R, VisualStudio, RStudio, Microsoft Powershell, various Python and R packages, Power BI, and a Jupyter Notebook Server. So there is a lot of things that allow you to dive into GIS-supported data science in a scalable cloud environment. In order to use the GeoAI DSVM you need to have an ArcGIS Pro license and Azure VM usage charges apply. An overview of the GeoAI DSVM can be found in the Microsoft Azure Marketplace. On Github, Esri offers an example of a pixel-level landcover classification using Deep Learning with Microsoft’s Cognitive Toolkit, that can be used in conjunction with the Geo AI DSVM.

Geo AI DSVM was a big part of Joseph Sirosh’s (Corporate Vice President in the AI Research group at Microsoft) keynote address:

 

Jupyter Notebooks

Throughout the conference, various data science and machine learning examples were highlighted, and often demonstrated with Jupyter Notebooks – basically an interactive Python environment in your browser that lends itself ideally for making data analysis workflows more transparent and reproducible through integration of code, documentation, and output. Jupyter Notebooks can also be used with the Python API for ArcGIS for, e.g., Portal administration, however, if you are so inclined. If you do data analysis in Jupyter using, e.g. arcpy, results are by default temporary but can be persisted onto a Portal or locally. Esri offers http://notebooks.esri.com for testing Jupyter Notebooks.

One example that was shown using Jupyter was the extraction of SAM sites from orthoimagery using a neural network:

A planned feature for ArcGIS Portal is the integration of Jupyter Notebooks. You will be able to share your Jupyter Notebooks with your colleagues on your ArcGIS Portal.

And Other Things Python

In other Python news, we found an emphasis on ArcGIS Enterprise and Online automation using Python, specifically the ArcGIS API for Python for communicating with a web GIS. Example tasks that can be done through this pythonic API were the creation of groups and user accounts, the assignment of accounts to groups, and of content to users, cloning a portal, re-assignment of content, creation of reports about content, as well as publishing new and pruning old content. The plenary session had an Automation with Python slot that highlights some of the key developments around these topics.

Secondly, Python in ArcGIS Pro was a big topic and also part of the plenary session. Some of the key things to know: ArcGIS Pro comes with Python version 3, rather than 2.7 like ArcGIS 10.x. Further, the Python installation is conda-based. (Ana)conda is a widely used Python package and virtual environment manager that should make the lives of Python developers easier. Thanks to the conda-based installation, many relevant Python packages are pre-installed, for example the whole SciPy stack (this includes pandas). There have been numerous other improvements, big and small, of the Python developer experience, for example for those of you who like to work in Microsoft VisualStudio.

If you want to know more about these topics, check out the videos and the above links: Automation with Python and  Python in ArcGIS Pro.

Exploratory Data Analysis with Insights for ArcGIS

Insights, the data exploration solution by Esri, was highlighted throughout the event (earlier versions of Insights have been shown in previous events). This tool allows to carry out data analysis using a drag-and-drop interface that lets the user build a collection of „cards“ that can contain maps, charts, or tables. Users can interact with different cards using the linked view paradigm where features in a card are highlighted based on a user interaction in another card.

ArcGIS Insights (source: Esri)

Insights further allows joining data dynamically (not sure to what data set size this stays performant) and the analysis that a user builds is represented in a graphical model that can be shared with other users. Since December 2017, Insights is newly available also in ArcGIS Online (previously it was part of ArcGIS Enterprise): To perform analysis in Insights for ArcGIS, users need to purchase a subscription, in addition to an ArcGIS Online Level 2 named user license. A Level 1 named user license for ArcGIS Online provides you view-only access to Insights.

 

Also on the Table

There was much, much more on the plate: improvements around the performance of the GeoEvent Server, the Spatiotemporal Big Data Store and the GeoAnalytics Server, for example, but also in deployment with Docker and Kubernetes, UX and UI, data in the Living Atlas, as well as IoT and real-time applications.

 

And Where Do We Go From Here?

In our opinion, it was rightly emphasised in the plenary session during the conference: the future lies in

  • connecting separate software systems,
  • expanding collaboration between individuals, teams, departments, and organizations,
  • integrating all kinds of data in common views, be they interactive plots and visualizations, feature layers, maps or web scenes,
  • and adding powerful exploration and analysis of data.

In the perspective of Esri, these ingredients enable a new scale in the trajectory of GIS (if you still want to call it that): GIS will turn into a system of systems.

However, this process doesn’t happen by itself but requires careful thinking and designing.

If any of these piqued your interest, please get in touch with us. We are happy to think along with you and assist in designing tomorrow’s workflows, systems and tools!

 

Part 1 of this review has been published last week.

 

2018 Esri Partner Conference and Developer Summit – Part 1

The timing worked superbly, like the best Swiss clockwork: A few days before winter made a comeback in Switzerland, I sat in a plane to Los Angeles. Nevermind that California also had slightly cooler temperatures than usual – it was definitely preferable over the polar cold air masses that firmly occupied Switzerland. Even the place names felt evocative: Santa Cruz, Big Sur, and San Francisco. For two weeks I would cruise California, before making my way back to L.A. and then Palm Springs in order to attend the 2018 Esri Partner Conference and Developer Summit together with my colleague, Nicole Sulzberger, in order to gather the most recent news for our clients and to network with Esri employees and partners from around the world. In what follows, we describe what we learned during the two Esri events: the latest news about developments at Esri.

The Science of Where

The Science of Where is Esri’s tagline since 2017. In the plenary session, Jack Dangermond, the president of Esri, made clear what it summarizes: The world is seeing many big challenges. Loss in biodiversity, competition for resources, increased mobility demands, demographic shifts, and climate change, to name a few. The science of where helps to address all of these and more. It is, in Esri’s understanding, the combination of the competence of geography (process knowledge, spatial thinking and reasoning) and the technology around GIS. Applying the science of where helps answering spatial questions with:

  • increased efficiency to save resources
  • better analysis to actually understand what is going on, and
  • better communication to foster good decisions

All this rings true for me as a geographer and in our team we agreed that this vision matches well with our own.

What Esri showed during the Partner Conference and Developer Summit can be linked very well to at least one, often several, of these three promises, for example:

  • increased efficiency around working with big data, on desktop or mobile, or administrating one’s geodata infrastructure,
  • better analysis capabilities within (e.g., ArcGIS Insights, GeoAnalytics Server) and around Esri’s core products (e.g., GeoAI DSVM, R-ArcGIS-Bridge, Jupyter Notebooks), and
  • better communication through effective visualization (e.g. on mobile using the ArcGIS Javascript API 4.x, using the AR or VR mode and their innovative user experience, or leveraging the computational and graphics performance of game engines for visualizing 3D content)

Select Highlights

ArcGIS API for JavaScript

The developments of the JavaScript API 4.x has been a big topic in this years Developer Summit. The WebApp Builder and the ArcGIS Online and ArcGIS Enterprise Map Viewer are both moving to the ArcGIS JavaScript API 4.x. There are, for example, new out-of-the-box responsive widgets and an enhanced search widget. Feature Layers now support loading large amounts of features for visualization and analysis with improved client-side Web GL-based rendering, improved Feature Service capabilities, and the possibility to build a Feature Layer from in-memory data (such as a CSV file with coordinates that is loaded into a map using drag-and-drop). Finally, in JavaScript API 4.x, the geometry engine is available locally, thus you can get faster responses for geometry operations. This enables us to implement locally (and thus with immediate response), for example, snapping, simple topology checks, interactively calculating areas when cutting polygons and much more.

 

Augmented and Virtual Reality

Augmented (AR) and Virtual Reality (VR) functionality has been built into the ArcGIS Runtime SDK. The AR mode gives a transparent background to a scene so that it can be shown on top of a device’s camera feed. The VR mode allows displaying a scene in stereo and an appropriate VR user interface. There is an Esri Labs ArcGIS 360 VR app for the Samsung Gear VR headset on Oculus that highlights the new VR capabilites of Esri software. Further, Esri showed their tabletop UX for planning: there, a 3D scene (from e.g. City Engine) is displayed on a virtual tabletop. Viewers can virtually gather around the table and interact with the model, e.g. selecting different planning scenarios for visualization. The viewers themselves can be in remote locations. Upon viewing the scene they can also see other viewers and what they are looking at. Finally, any viewer can teleport into the scene itself and look at the model from different in-scene vantage points.

The following video from the plenary sessions highlights some AR/VR capabilities of ArcGIS Runtime (jump to 4:00 for seeing first a VR, then an AR demo):

 

3D and Indoors GIS

Esri 3D Web Scenes will be consumable on mobile devices, using a responsive interface. Features from 3D scene layers are quickly streamed to the device. Users can use advanced measurement tools to, for example, measure plan surface areas in a 3D scene:

 

Some powerful 3D features in native apps such as interactive line-of-sight analysis have been shown in another plenary session, the video of which is available from Esri.

Further, 3D scenes support a new rendering mode that gives building edges a „sketch“ look. This is interesting, for example, for visualization of planned projects where you do not yet want to convey a very crisp and precise impression of a provisionally planned scenario.

Since the previous Partner Conference and Developer Summit, ArcGIS Indoors has matured further. This new suite of tools comprises ArcGIS Indoors Desktop (built on top of ArcGIS Pro if I’m not mistaken), the ArcGIS Indoors Web Viewer, and the ArcGIS Indoors Mobile App. They in turn support data preparation and map design, simple editing and dashboard functionality, and indoor-navigation using device sensors through the indoors positioning feed.

ArcGIS Indoors: Esri Campus Viewer (http://3dcampus.arcgis.com/EsriCampusViewer/app)

When you zoom out from your building(s) view, the transition into geographic space and navigation by GPS only should be seamless. The navigation functionality relies on an appropriate 3D network dataset (somewhat in contrast to our own pedestrian modeling tool Walkalytics).

Click through to Part 2 of this review.

 

2017 Esri Partner Conference and Developer Summit

From Swiss late winter to Southern California spring: My colleague Alex Graf and I attended the 2017 Esri Partner Conference and Developer Summit in Palm Springs two weeks ago. These events are always a great opportunity to get the latest information on Esri software and strategy as well as spend a week in an inspiring ‚geo-rich‘ environment. In this post, we summarize some highlights from the conference.

The motto of the Partner Conference and the Developer Summit was Esri’s new claim: „The Science of Where“. Yet what exactly is the „Science of Where“? In a nutshell: It uses location and technology to collect, analyze, visualize and share data and information to solve relevant problems. Or in Jack Dangermond’s words: „[…] The Science of Where is, quite simply, what we do.“ That „we“ includes us as geographers, data scientists, developers, and, of course, users of the ArcGIS platform. From that point of view I really like the slogan. Unfortunately (but understandably) Esri has trademarked it, so this won’t become an inclusive rallying cry for e.g. #gistribe.

The big trends

The big trends in IT are of course also very relevant for GIS, and some were covered in depth at the Developer Summit: Distributed (GI) systems, real-time data streams, big data and the Internet of Things (a bit less than the other ones). Since a couple of years, Esri has been claiming to provide a distributed platform for GIS. While in the beginning this was more of a marketing claim than a working solution, we now welcome a phase where the claim becomes more and more credible. With ArcGIS 10.5, portal-to-portal collaboration is possible, for example, which allows you to connect different GI systems and share data across organizations.

Esri has also made a huge effort to enable their technology to work with ever bigger data, particularly data being transferred in real-time data streams. One outcome of this effort is the new spatio-temporal big data-store. The data store is not only capable of a much higher write-throughput (according to Esri about 50 times more events per second can be processed compared to a classical geodatabase); it can also be scaled across multiple machines in order to increase capacity. Esri also introduced their new offering for analytics: the GeoAnalytics server. It is intended for distributed analysis of massive vector and tabular data including temporal information. It should also be easily scalable and allow you to shorten the processing time of some of your analyses massively. Last but not least, visualization is also improved to work smoothly with big data (check out this tweet for an example).

All these improvements in technology will support the shift from simple GIS apps for displaying and querying spatial data to more advanced solutions that support advanced exploration, finding patterns and making predictions.

Say goodbye to old friends (or foes, frenemies)

The technological advancement has of course implications for Esri’s product portfolio: Esri believes that using ArcGIS Server as a standalone software and accessing services via REST will be a less and less common practice. They expect that the typical user (if such thing exists) will rather use services via Portal for ArcGIS. Consequently, Esri has bundled ArcGIS Server together with Portal for ArcGIS,  ArcGIS Data Store and the ArcGIS Web Adaptor and gave this package the new product name ArcGIS Enterprise.

Moving the focus from server to desktop, another oldie you should start saying Goodbye to is the ArcMap/ArcCatalog combo. ArcGIS Pro is now not only the future but should also really become the present. If you haven’t already started working with it, you should definitely do that now! There will be another release for ArcMap, but that will be purely bugfixes. All new development goes exclusively into Pro. More importantly, feature equivalency will be „more or less“ achieved this year – note though: some ArcMap/ArcCatalog functionality might never be included in Pro. Just keep an instance of ArcMap available somewhere for that odd task that you can’t do in Pro, but use Pro for everything else. And there are of course more and more cool things that you could never do in ArcMap, for example creating vector tiles, now also in 3D!

Some other cool stuff

Speaking of 3D: It was really one of the big topics at the Developer Summit (like every year to be honest – 3D provides really cool demos, doesn’t it? See this story map for an example). 3D is available across the Esri platform and all SDKs now support the same 3D capabilities. This means that you soon can use 3D scenes offline on a mobile phone! – and the performance during the demo looked exciting.

In 2016, Esri announced Insights which has now been released. It’s a browser-based tool for exploratory analysis of spatial and non-spatial data. It has similarities to business intelligence (BI) tools (cough, Tableau, cough, qlik, cough), but definitely with a stronger focus on geospatial analysis. Somewhat surprisingly, Esri stated that they don’t see themselves in competition with other BI tools. In any case, it will be interesting to see how Insights will establish itself in the market and where and to what ends it will be used (keep in mind that you’ll need an ArcGIS Enterprise installation to use Insights). For now the app works with vector and tabular data only. Support for raster data is announced for fall 2017.

Another newcomer is the ArcGIS API for Python. This API is much more powerful than the existing arcpy module and lets you script and automate all kinds of tasks across the Esri platform. Esri branded it (tongue-in-cheek) as the „return of AML“. This should delight at least one of my colleagues at EBP. There is also a completely new language called Arcade. Arcade is designed to formulate expressions (think for example, labeling) in a consistent way across the platform, something that was not possible with the options available now.

To finish off this post, let’s take an exciting look into the future: Watch this video of Esri’s HoloMap, a prototype app for Microsoft’s HoloLens:

Rückblick auf den GIS Day 2016

Richi Meyer, Christoph Graf und ich durften am Mittwoch EBP am GISDay an der HSR in Rapperswil vertreten. Der Anlass startete mit einem tollen Drohnenvideo, das in Rapperswil und Zürich gefilmt worden ist. Was sonst noch besprochen wurde, können Sie im folgenden Text nachlesen.


Quelle: FiftyFiftyFilm

Peter Jäger (Esri Schweiz) begrüsst die GISDay-Besucherinnen und Besucher
Peter Jäger (Esri Schweiz) begrüsst die GISDay-Besucherinnen und -Besucher

Der GISDay startete mit einer Begrüssung durch Herrmann Mettler, dem Rektor der Gastgeberin HSR. Herr Mettler tönte die schon auf Twitter kurz gesichtete künftige Partnerschaft zwischen Esri und der HSR an (mehr dazu weiter unten). Es folgte die kurze Begrüssung durch Peter Jäger von Esri Schweiz und dann starteten die Vorträge:

Martin Rumo: Entwicklung von Analysetools im Leistungssport

Martin Rumo vom Bundesamt für Sport (BASPO) begann seinen Vortrag mit einem Rückblick auf ein Stück (Sport-)Technologiegeschichte: die kabellose Übertragung von EKG-Daten. Aus dieser Idee entstand in Finnland vor Jahrzehnten die heute noch bekannte Firma Polar. Befeuert durch Innovationen der Mikrotechnologie werden Sensoren und Übertragungstechnik im Vergleich mit diesem frühen Produkt immer kompakter. Dies eröffnet neue Möglichkeiten für die Sporttechnologie und das BASPO.

martin-rumo-baspo
Datenanalyse im Sport. Bildquelle: EHSM.

Coaches mit der Messung von Leistungsparametern im Feld unterstützen

Konzeptionell folgt der Einsatz von Sporttechnologie diesem groben Ablauf:

Signal vom Sensor  →  Verarbeitungsschritt: Ereignisdetektion  →
Ereignisdaten  →  Verarbeitungsschritt: Aggregieren  →
Key Performance Indicators KPIs  →  Verarbeitungsschritt: Visualisierung  →
Critical Success Factors CSFs

Um die einzelnen Verarbeitungsschritte umzusetzen und die notwendige Hardware zu testen, kooperiert die Eidgenössische Hochschule für Sport in Magglingen mit dem Zentrum der Berner Fachhochschule (BFH) für Technologien für Sport und Medizin. Die Forschungsaktivitäten folgen stets dem folgenden Ablauf: 1) Die Hochschule verarbeitet Erkenntnisse der Grundlagenforschung, 2) prüft deren Resultate hinsichtlich ihrer Relevanz für den Leistungssport, 3) führt anschliessend Pilotstudien durch und 4) entwickelt dann in einigen Fällen eine neue Dienstleistung für Sportlerinnen und Sportler bzw. für deren Coaches.

Nutzendenfreundlichkeit!

Damit die fertigen Dienstleistungen auch (gerne) genutzt werden, gilt es bei der Entwicklung die Coaches bei ihren Bedürfnissen mit hoher Nutzendenfreundlichkeit abzuholen. Die besteht dabei aus Relevanz, Bedienung und Funktion. Um sie zu gewährleisten, muss Martin Rumo mit den Coaches eine gemeinsame Sprache finden, in der die Coaches ihr Erfahrungswissen und ihre Bedürfnisse formulieren können. Die zu entwickelnden Produkte müssen dann die Lücke zwischen den Erfolgsfaktoren (CSFs) (d.h. der Sicht der Coaches; zum Beispiel „Pressing“im Fussball) und den Schlüsselindikatoren (KPIs) der Data Scientists schliessen können. Gute Kommunikationsfähigkeiten auf beiden Seiten sind dafür die wichtigste Voraussetzung.

Weiterführende Informationen und Beispiele aus unserer Tätigkeit:

Dariush Daftarian: ABM bei Senozon

Woher kommt der Firmenname Senozon? Dariush Daftarian erklärt: Senozon ist die Umkehrung von „No Zones“ und damit eigentlich die Kürzestfassung des Ansatzes von Senozon. Statt wie klassische Verkehrsmodelle auf Verkehrszonen zur Modellierung von Verkehrsproduktion und Verkehrsnachfrage abzustellen, verfolgt Senozon einen Ansatz zur agentenbasierten Modellierung (ABM), wie sie im zugrundeliegenden Tool MATSim implementiert ist.

Annahmen und Modellierungsansatz

MATSim nimmt dazu Infrastrukturdaten (Gebäuderegister, Betriebszählung, Fahrpläne, etc.) und Personendaten (STATPOP, STATENT). Diese Daten werden zusammengezogen in einem Modell, das die Mobilisierung aller Personen modelliert. In der Schweiz werden zur Ableitung von Entscheidungs- bzw. Verhaltensweisen dieser simulierten Personen die Daten des Mikrozensus des Mobilitätsverhaltens benutzt. Resultat ist eine Abschätzung des Mobilitätsverhaltens jeder simulierten Person bzw. jedes Agenten im Modell. Diese Agenten werden dann auf die Mobilitätsinfratstruktur „losgelassen“. Maschinelle ÖV-Fahrgastzählungen, Checkout-Daten von Retailpartnern von Senozon und Strassenverkehrszählungen werden dazu benutzt, das Modell zu kalibrieren und anschliessend die Modellresultate zu validieren.

Fragen zum Datenschutz

Aktuell führt Senozon ein Pilotprojekt mit einer deutschen Telekomfirma durch. Laut Dariush Daftarian ist das Senozon-Modell in diesem Umfeld besonders interessant, weil die Summe der Agenten eine synthetische Bevölkerung darstellen und nicht genau echten Personen entsprechen. Probleme des Datenschutzes stellten sich deshalb weniger als bei den Analysen von Mobilfunkdaten der Telekomfirmen, die sich auf echte Individuen beziehen und deshalb datenschützerisch heikel seien.

Mobiltätsprodukte

Bankomaten-Whitespot-Analyse von Senozon für Credit Suisse.
Bankomaten-Whitespot-Analyse von Senozon für Credit Suisse.

Zum Abschluss stellt Dariush Daftarian Senozon einige Leuchtturm-Projekte vor. Senozon setzt sein Modell für verschiedene Dienstleistungen ein: zum Beispiel Standortanalysen, Standortsuchen und Analysen von CRM-Daten (Datenanreicherung). Nutzen lassen sich die unterschiedlichen Produkte via Datenauszüge, die Web App von Senozon oder eine kundenspezifische Modellierung. Die Fallbeispiele zu Standortentscheidungen von Dunkin Donuts, den Bürostandorts eines Schweizer Telekomanbieters und den Bankomatstandorten der Credit Suisse illustrierten das Gesagte anschaulich.

Weiterführende Informationen und Beispiele aus unserer Tätigkeit:

 

Peter Heinzmann: Fussballspieler-Tracking

Fussballspiel-Auswertung. Bildquelle: cnlab

Peter Heinzmann von der HSR und der Firma cnlab begann seinen Vortrag wie Martin Rumo auch mit einem kurzen Rückblick, in seinem Fall auf die Technologie für das Verfolgen von Fussballspielern in Bewegtbildern, und einem kurzen Abriss über den Einsatz von GPS-Daten im Sport. Bereits 2011 katapultierten Einladungen zu Galatasaray und Fenerbahce zu einer Demo eines Trackingsystems Peter Heinzmann in die Fussball-Szene. Die Trainerstäbe dieser beiden Mannschaften zeigten sich vom System gleich beeindrucht. Es folgten Aufträge für andere europäische Vereine. Neben dem Fussball beschäftigen Peter Heinzmann Datenanalysen und Simulationen von Velorennen wie der Züri Metzgete und der Tour de Suisse.

Verschiedene Auswertungsmöglichkeiten

Selbst Consumer-GPS-Tracker erwiesen sich schon 2011 als hinreichend genau für verschiedene Auswertungen im Fussball: Bei der taktischen Auswertung können Spielerpositionen inklusive History visuell dargestellt werden. Weiter können verschiedene taktische Massnahmen eingeblendet werden, beispielsweise die sich dynamisch verändernde Verteidigungslinie. Weiter sind möglich: Heatmaps der „Aufenthaltsorte“ der Spieler durch das Spiel, relative Heatmaps oder eine Art „Einzugsgebiete“ der einzelnen Spieler im Verhältnis zueinander und Darstellungen des sich dynamisch verändernden Mannschaftsschwerpunkts.

Verbesserte Technologie und Daten im Zentrum

Heute setzen selbst Firmen, die in der frühen Phase der Sporttechnologie auf Videotracking setzten, zumindest auch Sensoren ein. Diese dürfen zwar in der Regel nicht während Spielen getragen werden, werden aber gerne im Training benutzt. Moderne Sensoren haben eine Vielzahl von Fähigkeiten: Positionsermittlung, Geschindigkeitsmessungen, Pulsmessungen und die Messung von Beschleunigungen in mehreren Achsen und mit 100 Messungen pro Sekunde! Die Vielzahl der Sensoren führt zu viel mehr Daten und Kombinationsmöglichkeiten. Damit können mittlerweile auch sehr wertvolle abstraktere Aussagen gemacht werden, etwa zum Passverhalten, zur Ermüdung eines Spielers oder der Verletzungsgefahr. Die Unmenge von Daten und darauf aufbauende Analysen erlauben es Funktionären auch, Abschätzungen des Transferwerts von Fussballspielern vorzunehmen. Überflüssig zu sagen, dass der Wert präziser Aussagen in diesem Umfeld sehr hoch ist!

Weiterführende Informationen und Beispiele aus unserer Tätigkeit:

Abschluss

Raumbezogene Entscheidungen sind und bleiben wichtig. Aus diesem Grund freuten sich Herrmann Mettler und Peter Jäger zum Abschluss des GIS Day-Plenums die künftige Partnerschaft zwischen Esri und HSR vorzustellen, unterstützt von einem schönen Drohnenvideo in Rapperswil und in Zürich (s. oben). Die HSR wird zum Esri Development Center mit dem Ziel der technologischen Zusammenarbeit, der einfacheren Geodatennutzung und der Stärkung der Didaktik in der Planungsausbildung.

Der gelungene Anlass wurde beim Apéro riche abgeschlossen, aber dieser lässt sich schlecht in Worte fassen 😉

Wir bedanken uns bei den Organisatoren und freuen uns, 2017 wieder beim GIS Day dabeizusein!

Patrouilles des Glaciers: Track Replay

Comparing Positions with Time Lag

As blogged earlier I spent a week at the race office of the Patrouille des Glaciers (PdG). During the race, each PdG team of three athletes was equipped with a GPS device that kept broadcasting its position to the race office. Furthermore this device was equipped with an emergency button able to send a distress message along with its current position to the race office.

We wanted to know whether this security feature could be used for replaying the tracks of the individual teams. Replaying race tracks becomes interesting when you can compare teams. A team might ask: Where did we lose or win with regard to our peers? The start of the PdG, however, was staggered, i.e., there are several starts with a time lag between the starts of half an hour to an hour. Thus, comparing teams that competed in different time slots necessitates that we include a time shift compensation.

Data Quality

Initially, we analyzed the data from the first race (Tuesday/Wednesday). The teams follow a well signaled track (red line in figure below). As you can see the team positions reveal some astonishing errors. We suppose these positional errors are due to limited „visibility“ of GPS satellites in the mountaineous terrain as well as multipath GPS signals that introduce an error in time-of-flight measurement.

ZermattTeteBlanche
Positional accuracy on the leg Zermatt – Tête Blanche (positions of 10 teams in different colors, following the red line)

The GPS device is supposed to send its position every 2 minutes. However, this was clearly not always the case: In the example below we observed a gap of 40 minutes between positions – visible in below map where the points are located far apart.

Verbier
Lacking data on the leg Pas du Chat – Verbier (positions of one team)

Data Preparation for Track Replay

For displaying race tracks, we decided to show only points that are within a buffer of 1,000 meters rather than projecting the points onto the track from a too great distance and hence pretending a better accuracy.

GPS cannot measure elevation as precisely as position. Therefore we substituted the GPS elevations by elevations from a terrain model.

We did not interpolate intermediate points where there are time gaps. Therefore, not all the teams will move smoothly.

Track Replay Application

At EBP we then developed a proof-of-concept application Track Replay for replaying the 2016 PdG tracks. In real-time mode you can replay the Tuesday/Wednesday race the way it took place, i.e. including offset race starts for different teams. In compare mode all teams start at the same time in Zermatt and Arolla, respectively. In this mode, you can compare selected teams by ticking their respective check boxes on the left. Putting the cursor on a dot on the elevation profile identifies the team and highlights its position on the map.

The team list on the left is ordered by (current) rank. In theory, at the end of the replay the list order should correspond to the official ranking list Z1 and A1 of race result. However, this is not quite the case because our ranking is based on the distance on the track at a given time and the distance is derived from the GPS position projected onto the track. Since the quality of these positions is often questionable, the projected positions are also affected.

PoC TrackReplay
Track Replay proof of concept by EBP.

Thus, our proof of concept shows the idea of a track replay supporting a comparative mode. However, the capture of the positions with the tracking devices used in PdG 2016 is not yet quite suitable for this application. The great news is: An exciting and promising technology by race result that combines timing and tracking using active transponders will be available soon!

Please note that Track Replay is in the prototype phase. For best results (e.g., in order to display the dots on the elevation profile) we recommend to use the Firefox web browser. Track Replay will be online for a couple of days only. For more details concerning the Patrouille des Glaciers please have a look at the official PdG web site.

Are you interested in getting to know more? Feel free to contact me.

Die nächste Evolution von GIS

… so hiess mein Artikel und Vortrag für den Track Innovation und Trends am GEOSummit 2016. Worum ging’s? Die Geodatenangebote der Kantone und des Bundes stehen, Services und zum Teil Datendownloads sind bereit und Behörden wie auch Private nutzen GIS auf dem Desktop, online und mobil on-the-go in raumrelevanten Fragen. In meinem Beitrag wollte ich aber mal ganz bewusst über das „Tagesgeschäft“ hinaus blicken und einige Veränderungen einfangen, die wir wegen ihrer Subtilität und vor lauter Routine oft nicht recht wahrnehmen.

Dabei habe ich mich zu einem guten Teil auf „weiche“ Faktoren konzentriert wie zum Beispiel Veränderungen am Umfeld, in dem GIS genutzt wird. Natürlich laufen nebenbei alle bekannten technologischen Umwälzungen: Drohnen, Augmented und Virtual Reality, Cloud Computing, Wearables, Nearables, autonome Systeme und Bots, Sensor Networks und Smart Infrastructure, etc. etc. Manche von diesen kommen am Rande auch vor in meinem Beitrag (und wir können uns gerne hier oder andernorts mal über die technologische Seite austauschen); die technischen Aspekte stehen bei meinen Betrachtungen aber nicht im Zentrum.

Die Folien meines Vortrags können Sie hier anschauen:

Und bei Interesse finden Sie hier den Volltext meines GEOSummit-Abstracts:

In vielen Bereichen unseres Lebens nutzen wir komplexe Infrastrukturen und Dienstleistungen. Beispielsweise bringt uns fünf Minuten nach Ankunft des Zugs ein Bus an unsere Destination. Wir sind mit Wasser, Strom, Gas oder Fernwärme versorgt. Abwasser und Abfall werden zuverlässig weggeführt. Die Regale in den Geschäften sind stets gefüllt und das nötige Ersatzteil wird zuverlässig in die Garage geliefert.

Basis für dieses gute Funktionieren unserer Infrastruktur – und unseres gesellschaftlichen, wirtschaftlichen und politischen Lebens – sind die sorgfältige Planung, Steuerung, und Pflege der involvierten Anlagen und Prozesse. Dafür sind Informationen unabdingbare Grundlage. So wie im letzten Jahrhundert die Entdeckung und Nutzung des Erdöls die Industriegesellschaft befeuert hat, sind Informationen wichtigster Grundstoff unserer Wissensgesellschaft.

Erzeugung und Verwendung von Informationen sind Veränderungen unterworfen, welche auch Auswirkungen auf die Geoinformationsbranche haben. In seinen Überlegungen zur Wissensgesellschaft identifiziert das Bundesamt für Kommunikation vier Haupttrends: Mobile, Social, Cloud und Information (Abb. 1).

Abb. 1: Die Haupttrends „Mobile“, „Social“, „Cloud“ und – im Zentrum – „Information“ sowie die involvierten Akteure (eigene Darstellung)

Von diesen Trends ausgehend: Was kommt auf uns zu?

Verändertes Umfeld

In der Wissensgesellschaft nimmt die Informationsnutzung in Verwaltung und Politik aber auch in der Zivilgesellschaft weiter zu. Hinter letzter stehen zum Teil neue Gruppen von Nutzenden von Geoinformation, welche sich im Zug der aufgezeigten Entwicklungen formiert haben: schon seit einiger Zeit finden Geodaten unter anderem im Datenjournalismus (data-driven journalism) immer häufiger Verwendung. Daneben hat die Open-Data-Bewegung neue Nutzende geschaffen, welche oft nicht den typischen Disziplinen entstammen. Nicht zu unterschätzen ist ferner die Breitenwirkung der BGDI mit der map.geo.admin-API und den teilweise geöffneten Datenbeständen des Bundes.

Die Bedürfnisse an unsere Branche entwickeln sich dadurch weiter: zum Beispiel umfassende und allgemein verständliche Dokumentation von Daten, schnelle Kommunikation auf Augenhöhe, einfache Nutzung (oder zumindest Sichtung) von Geoinformationen in Portalen aber auch die Bereitstellung offener Services, APIs und Daten (wo möglich in Echtzeit). Dadurch, dass bisher eher unterrepräsentierte Akteure auftreten, werden etablierte, aber vielleicht auch überholte Praktiken vermehrt in Frage gestellt werden. Für die Anbieter von Geoinformationen eröffnet sich die Chance, den Elan dieser neuen Nutzergruppen z.B. in die Produktentwicklung oder Qualitätsverbesserungen einfliessen zu lassen.

Consumerization und Mainstreaming

GIS wird vermehrt zu einer allgemein eingesetzten Technologie bzw. Methode werden: „GIS as a utility“. Dies ist bereits sichtbar in der fortschreitenden (leichten) GIS-Befähigung von Office-Software. Für einfache Aufgaben wie das Abbilden von Filialen auf einer Karte oder die Geocodierung eines Kundenstamms wird in Zukunft nicht mehr auf GIS-Fachleute zurückgegriffen werden müssen. Dies ist die Reifung von GIS: Der Begriff „GIS“ verschmilzt zum Teil mit anderen Themen und Disziplinen. Und: nicht überall wo GIS drin ist, steht „GIS“ drauf.

Die oben aufgezeigten Trends befähigen eine grosse Gruppe von Personen Daten – oft: Geodaten – selbst zu erheben, aus verschiedenen Quellen zu nutzen und zusammenzuziehen, aufzubereiten und weiterzuverbreiten. Dazu trägt auch die Verfügbarkeit von freier Software bei. Wie weit die Consumerization gehen wird, ist noch schwer abzuschätzen.

Neue Komplexität: IoT und smarte Systeme

Allerdings bringen technologische Impulse wie das Internet of Things (IoT) und smarte Infrastruktur, das partizipative Internet aber auch Trends wie Quantified Self sowie Virtual und Augmented Reality neue Komplexität mit sich: die bereits heute unübersichtliche Datenmenge wird sich noch weiter vergrössern. Datenströme werden wichtiger werden als Datensätze. Unternehmen und Behörden (z.B. Smart Cities) müssen durch Filtern und in Kombination von Datenströmen die richtigen Erkenntnisse gewinnen.

Dies bringt neue Herausforderungen in der Verarbeitung und Analyse von Daten, aber eben auch in der Entwicklung von künftigen Geschäftsmodellen. Hier werden Geoinformationsfachleute immer noch gefragt sein, sich aber auch zum Beispiel mit ‚Spatial Data Scientists‘ messen – oder sich zu solchen entwickeln.

Rückblick auf den GEOSummit 2016

Wir von EBP Informatik waren an der wichtigsten Schweizer GIS-Konferenz, dem GEOSummit 2016, zu Gast. Wir haben als Esri-Partner unsere Lösungen, Projekte und neusten Entwicklungen rund ums Thema Fussgängermobilität interessierten Besucherinnen und Besuchern präsentiert. Zudem haben Stephan Heuel und ich je einen Vortrag in der Session Innovation und Trends I gehalten. Hier möchten wir auf den GEOSummit 2016 zurückblicken, in Form einer reich bebilderten Twitter-basierten Review. Hier können Sie die Story auch in einem eigenen Fenster durchscrollen. Viel Spass!

Time Keeping at the Patrouille des Glaciers – A Look behind the Scenes

The Patrouille des Glaciers (PdG) is an international ski mountaineering race organised by the Swiss Armed Forces in which military and civilian teams compete. It is said to be the world’s toughest team competition. The very long race distance, the extreme route profile, the high altitude and the difficult alpine terrain with glaciers and couloir climbs are the main features of this unique competition.

As announced in November 2015 Ernst Basler + Partner is teaming with race result Swiss for time keeping this remarkable event. Let me give you a brief impression of what was going on behind the scenes regarding time keeping under the guidance of Hanno Maier, race result Swiss.

Sunday April 17 2016

The start lists are published. And all preparations for the race are completed:

  • The time keeping hardware for the teams (personalized start numbers for chest, thigh and helmet and active transponders for more than 5’000 competitors) is configured, packed and ready to be used.
  • The active decoding systems from race result are checked. The timepieces and the corresponding supports are packed in the race result van.
  • The very warm and ultra-thin outfits for the time keepers are branded with race result.
Our team: The time keepers and the three staff members of the race office.

Monday April 18 2016

The time keepers arrive at the race office at the casern in Sion. We distribute the decoding systems and the outfits. They receive their last instructions. They pack their mountaineering and climbing equipment together with the time keeping hardware heading off to the air base. They are supposed to be flown to their posts. However, the weather is not good enough for flying – waiting begins.

MatPosts
The time keepers get ready with their equipment.

In the meantime there are many mutations in the start list to be made, e.g., shifts in start time, replacements in teams. This job kept us busy until short before the start. (No problem for race result software!)

Back stage time keeping in the race office

Tuesday and Wednesday April 19/20 2016 – a looong double day

The weather cleared up. The time keepers and their equipment are flown into the Valais Alps. For us at the race office the crucial phase begins. Do we get signals from all the fourteen decoding systems? Great relief – the first station is online. We monitor its status and have the detection tested. At 12 AM half of the stations are operational. Two of them needed some extra care because of low transmission power. (Fortunately we could get a helicopter flight in time for flying in additional hardware!)  At 5 PM the time keeping network is complete and operational, milestone achieved.

Now we are waiting for the first start which is scheduled for Tuesday 10 PM: race result at the start of the 2016 PdG. Finally, 332 patrouilles crossed the starting line in Zermatt and another 389 in Arolla in several lots until 6 AM the next day.

Everything goes well. The first patrouilles reach Schönbiel, our first time post. The monitoring of the patrouilles goes on all night. So far so good.

The rankings are available live. At Wednesday 08:22:25 AM the first patrouille from Zermatt crosses the finish line in Verbier. At 1 PM we communicate the winners to the race committee. Around 4 PM the last patrouille (that made it to the finishing line) arrives in Verbier. We publish the final ranking list immediately afterwards top up-to-date. The interest in the results is quite remarkable: The page of the rankings has already 600’000 hits – and the race did just end.

Now, we are tired but very happy that the time keeping went perfectly well, without any noteworthy incidents. The race officer in charge congratulates us – everybody is happy! We mastered a technical, logistical and communicational challenge – the time keeping at the PdG. A big thank you to the team on the time posts and in the race office!

The second race is scheduled for Thursday April 22. The results will be available live.

Are you interested in getting to know more? Feel free to contact me.