Die nächste Evolution von GIS

… so hiess mein Artikel und Vortrag für den Track Innovation und Trends am GEOSummit 2016. Worum ging’s? Die Geodatenangebote der Kantone und des Bundes stehen, Services und zum Teil Datendownloads sind bereit und Behörden wie auch Private nutzen GIS auf dem Desktop, online und mobil on-the-go in raumrelevanten Fragen. In meinem Beitrag wollte ich aber mal ganz bewusst über das „Tagesgeschäft“ hinaus blicken und einige Veränderungen einfangen, die wir wegen ihrer Subtilität und vor lauter Routine oft nicht recht wahrnehmen.

Dabei habe ich mich zu einem guten Teil auf „weiche“ Faktoren konzentriert wie zum Beispiel Veränderungen am Umfeld, in dem GIS genutzt wird. Natürlich laufen nebenbei alle bekannten technologischen Umwälzungen: Drohnen, Augmented und Virtual Reality, Cloud Computing, Wearables, Nearables, autonome Systeme und Bots, Sensor Networks und Smart Infrastructure, etc. etc. Manche von diesen kommen am Rande auch vor in meinem Beitrag (und wir können uns gerne hier oder andernorts mal über die technologische Seite austauschen); die technischen Aspekte stehen bei meinen Betrachtungen aber nicht im Zentrum.

Die Folien meines Vortrags können Sie hier anschauen:

Und bei Interesse finden Sie hier den Volltext meines GEOSummit-Abstracts:

In vielen Bereichen unseres Lebens nutzen wir komplexe Infrastrukturen und Dienstleistungen. Beispielsweise bringt uns fünf Minuten nach Ankunft des Zugs ein Bus an unsere Destination. Wir sind mit Wasser, Strom, Gas oder Fernwärme versorgt. Abwasser und Abfall werden zuverlässig weggeführt. Die Regale in den Geschäften sind stets gefüllt und das nötige Ersatzteil wird zuverlässig in die Garage geliefert.

Basis für dieses gute Funktionieren unserer Infrastruktur – und unseres gesellschaftlichen, wirtschaftlichen und politischen Lebens – sind die sorgfältige Planung, Steuerung, und Pflege der involvierten Anlagen und Prozesse. Dafür sind Informationen unabdingbare Grundlage. So wie im letzten Jahrhundert die Entdeckung und Nutzung des Erdöls die Industriegesellschaft befeuert hat, sind Informationen wichtigster Grundstoff unserer Wissensgesellschaft.

Erzeugung und Verwendung von Informationen sind Veränderungen unterworfen, welche auch Auswirkungen auf die Geoinformationsbranche haben. In seinen Überlegungen zur Wissensgesellschaft identifiziert das Bundesamt für Kommunikation vier Haupttrends: Mobile, Social, Cloud und Information (Abb. 1).

Abb. 1: Die Haupttrends „Mobile“, „Social“, „Cloud“ und – im Zentrum – „Information“ sowie die involvierten Akteure (eigene Darstellung)

Von diesen Trends ausgehend: Was kommt auf uns zu?

Verändertes Umfeld

In der Wissensgesellschaft nimmt die Informationsnutzung in Verwaltung und Politik aber auch in der Zivilgesellschaft weiter zu. Hinter letzter stehen zum Teil neue Gruppen von Nutzenden von Geoinformation, welche sich im Zug der aufgezeigten Entwicklungen formiert haben: schon seit einiger Zeit finden Geodaten unter anderem im Datenjournalismus (data-driven journalism) immer häufiger Verwendung. Daneben hat die Open-Data-Bewegung neue Nutzende geschaffen, welche oft nicht den typischen Disziplinen entstammen. Nicht zu unterschätzen ist ferner die Breitenwirkung der BGDI mit der map.geo.admin-API und den teilweise geöffneten Datenbeständen des Bundes.

Die Bedürfnisse an unsere Branche entwickeln sich dadurch weiter: zum Beispiel umfassende und allgemein verständliche Dokumentation von Daten, schnelle Kommunikation auf Augenhöhe, einfache Nutzung (oder zumindest Sichtung) von Geoinformationen in Portalen aber auch die Bereitstellung offener Services, APIs und Daten (wo möglich in Echtzeit). Dadurch, dass bisher eher unterrepräsentierte Akteure auftreten, werden etablierte, aber vielleicht auch überholte Praktiken vermehrt in Frage gestellt werden. Für die Anbieter von Geoinformationen eröffnet sich die Chance, den Elan dieser neuen Nutzergruppen z.B. in die Produktentwicklung oder Qualitätsverbesserungen einfliessen zu lassen.

Consumerization und Mainstreaming

GIS wird vermehrt zu einer allgemein eingesetzten Technologie bzw. Methode werden: „GIS as a utility“. Dies ist bereits sichtbar in der fortschreitenden (leichten) GIS-Befähigung von Office-Software. Für einfache Aufgaben wie das Abbilden von Filialen auf einer Karte oder die Geocodierung eines Kundenstamms wird in Zukunft nicht mehr auf GIS-Fachleute zurückgegriffen werden müssen. Dies ist die Reifung von GIS: Der Begriff „GIS“ verschmilzt zum Teil mit anderen Themen und Disziplinen. Und: nicht überall wo GIS drin ist, steht „GIS“ drauf.

Die oben aufgezeigten Trends befähigen eine grosse Gruppe von Personen Daten – oft: Geodaten – selbst zu erheben, aus verschiedenen Quellen zu nutzen und zusammenzuziehen, aufzubereiten und weiterzuverbreiten. Dazu trägt auch die Verfügbarkeit von freier Software bei. Wie weit die Consumerization gehen wird, ist noch schwer abzuschätzen.

Neue Komplexität: IoT und smarte Systeme

Allerdings bringen technologische Impulse wie das Internet of Things (IoT) und smarte Infrastruktur, das partizipative Internet aber auch Trends wie Quantified Self sowie Virtual und Augmented Reality neue Komplexität mit sich: die bereits heute unübersichtliche Datenmenge wird sich noch weiter vergrössern. Datenströme werden wichtiger werden als Datensätze. Unternehmen und Behörden (z.B. Smart Cities) müssen durch Filtern und in Kombination von Datenströmen die richtigen Erkenntnisse gewinnen.

Dies bringt neue Herausforderungen in der Verarbeitung und Analyse von Daten, aber eben auch in der Entwicklung von künftigen Geschäftsmodellen. Hier werden Geoinformationsfachleute immer noch gefragt sein, sich aber auch zum Beispiel mit ‚Spatial Data Scientists‘ messen – oder sich zu solchen entwickeln.

LoRaWAN: IoT Network for the Future?

If you follow someone from #TeamEBP on Twitter, you may have noticed that last week we installed a LoRaWAN gateway of The Things Network in our office building. And like some of my colleagues you may have wondered (or wonder now): What is this all about?

Is EBP now into selling parrots (of course we could call our parrot Polly, not Lora)? Or are we supporting an alternative Zurich radio station? Good guesses. But it is of course neither of those two: LoRaWAN stands for Long Range Wide Area Network, a technology for low power wireless telecommunication networks. LoRaWAN gateways are intended to be used by battery operated sensors and other low power devices, nowadays better known as the Internet of Things (IoT), to transfer their data to the internet.

While mobile and WiFi networks drain your mobile phone battery quickly with increasing data transfer rates, LoRa takes the opposite approach. Only very little data can be sent over the network to minimize power consumption. Take for example the optimizing of garbage collection by installing sensors on waste bins, a solution that is already more widespread than I expected. You would certainly use batteries, maybe combined with energy harvesting, rather than connect every garbage container throughout a city to the power grid.

450px-HVogel-FrauHolle

Have you ever noticed the amazing anticipation of IoT ideas in „Frau Holle„? Bread calling out: „Oh, take me out. Take me out, or I’ll burn. I’ve been thoroughly baked for a long time.“ (Image source: Public domain).

LoRaWAN Gateways serve as transparent bridges for the end-to-end encrypted communication between sensors and devices out in the field and central network servers (you can read more about the technology here). One big advantage of LoRa is that you only need a few of these gateways to cover a whole city.

While commercial companies are working on LoRa networks (e.g. Swisscom or Digimondo), the afore-mentioned The Things Network (that now EBP is a part of) is an interesting open initiative. With The Things Network, an enthusiastic community is building LoRa networks in cities all around the world. These networks are free and open to use for everybody. At EBP, we immediately felt favourably towards that idea and are excited to share some of our company’s bandwidth with the community behind The Things Network.

The Things Network Zurich coverage map with the EBP gateway
The Things Network Zurich coverage map with the EBP gateway

As an additional benefit, we thus expand our playground to experiment with IoT and new networking technologies. Our order for additional hardware to build some LoRa test devices is out and we are looking forward to do some soldering. So stay tuned for more LoRa news here. Or indeed, join the revolution yourself!

Forget Apps – Bots Are the Future of Geo

Update 2016-12-01: We have a second version of our bot and a landing page at http://www.traindelaybot.ch. It now supports Facebook Messenger, Skype und Slack.

The title of this blog post may seem hyperbolic, but during the last few months there has been an increasing
buzz on personal assistants and bots
like Amazon’s Echo, Apple’s Siri or Facebook’s „M“ – the latter being a shopping assistant in Facebook’s Messenger app. Some people proclaim that we experience a new generation of user interfaces: The conversational UX where users interact with a system by „simply saying“ what they want. Last week, [Microsoft introduced developer frameworks for conversational bots](Microsoft introduced conversational frameworks) as a core part of their cloud strategy. And just yesterday, Facebook announced their Bot API for their Messenger.

When new concepts and trends in technology occur, it is a good idea to get first-hand practical experience before adding to that first rising slope in the hype cycle. So, during the last months I made some experiments that I now want to share with you.

Not yet an uprising, but the bots are slowly coming… photo: Francesco Mondada, Michael Bonani, CC-SA3.0, Source

„Forget Apps – Bots Are the Future of Geo“ weiterlesen

2016 Esri Partner Conference and Developer Summit

Traditionally two members of #TeamEBP visit Esri’s annually DevSummit in order to hear the latest from the world of ArcGIS – and beyond. This year, my colleague Sarah Schöni and I had the chance to fly to California. In this post, we’d like to summarize the highlights from our point of view:

  • The overall theme: „Web GIS is a System of Engagement“
  • The Keynote: Douglas Crockford
  • The State of Esri Technology
  • Python is now a first class citizen in Esri’s world
  • What else is new and cool? Insights and Vector Tiles!
  • One more thing…
Sarah and me with two friendly developers…
Sarah and I with two friendly developers…

The overall theme: „Web GIS is a System of Engagement“

Esri usually has an overall theme that they want to get across, such as mobile in 2011, online in 2012 or platform in 2014. This year’s theme „engagement“ is based on Geoffrey Moore’s paper on „Systems of Engagement and the Future of Enterprise IT“: In the past, organizations have built transactional tools and systems specifically designed for their business processes. The systems are mostly static, very accurate, mostly complete and tightly controlled – they are systems of records. With the advent of consumer IT, we’re moving closer to systems of engagement, where the focus is on interaction, collaboration, openness and immediate answers.

Esri has transferred Moore’s theory of systems of engagement to GIS: They use the term „Web GIS“ as a synonym for a geo-information system of engagement: In this sense, a Web GIS is built on distributed servers, web clients, several focussed apps and it provides an open, real-time environment for engagement in your organization. If you are interested, you can read Jack Dangermond’s post about Esri’s vision.

Slide for WebGIS as a System of Engagement
Slide for System of Engagement

The Keynote: Douglas Crockford

One highlight of a conference is the keynote and this year we were fortunate to be able to listen to Douglas Crockford who is one of the leading figures in the development of the JavaScript language. His keynote was both entertaining and insightful. Although my main programming language of choice is not JavaScript, I highly enjoyed his talk. You can re-watch the keynote here. One highlight was the comparison between the relationship of Java and JavaScript and the relationship of Star Trek and Star Wars:

java-js-startrek-starwars

Of course, JavaScript has to be Star Wars!

The State of the Esri Technology

It seems that Esri’s server technology has reached maturity. ArcGIS for Server consists of two core components: the backend (the actual ArcGIS server software) and the frontend (the so-called Portal for ArcGIS). The backend has been around for nearly a decade (anyone remembers 9.0?) and the frontend is basically a self-hosted version of ArcGIS Online.

Currently, Esri is in a transition phase for three important technology components, namely Desktop, Runtime and JavaScript API:

  • Desktop: ArcGIS Pro has been announced 2 years ago and is now in version 1.2. It is close to becoming mainstream, but Esri stresses that ArcMap – the long-running desktop solution – will continue to be developed and supported for the next 10 years. However, new features (like generation of vector tiles) are unlikely to be developed for the „old“ platform.
  • Runtime: For developing independent GIS applications, ArcGIS Engine was the go-to solution in Esri’s world. With ArcGIS Runtime and the announcement of the Quartz architecture, there is now a new architecture to depend on in the future. At the time of writing, there is no final release yet (though beta versions for mobile are available). It is expected that versions for iOS and Android will be released in the second quarter, while the other versions (.Net, Tamarin, Java, Qt) will be released in the Q3.
  • JavaScript API: The ArcGIS JavaScript API is currently in version 3. I always recommend developers to have a look at the sample code page to get a feel of what the API can do for them. There is a lot to explore, but one thing you might be missing in version 3 is 3D (no pun intended). Last month, we’ve already written on the upcoming version 4 which handles 2D and 3D equivalently and allows to easily switch between the two dimensions while writing the code. Additionally, the API calls are much simpler now – with the drawback that older code probably has to be rewritten. For this reason I think it is more than a change in version numbers, but actually a similar big transition as we experience with Desktop and Runtime. Again, I recommend to have a look at the sample pages for the beta version to get a feel of what can be done now and in the future. The nice Esri folks at the DevSummit told me that there will be a comparison page between the functionalities of the two API versions, so stay tuned for more info. Update 2016-05-09: The page is now available and very comperehensive.

My recommendation regarding the transition of the three Esri components mentioned above: For every new project, you now have to carefully choose between the old and the new technology. There is no general advice on what is best, because it depends on the requirements of your project. If in doubt, you may consider to ask us to help you out ;-).

Python is a first class citizen in the Esri world

Talking about migration: Python has been recommended as your first option for extending ArcGIS platform functionalities. One reason is that migrating Python code from ArcMap to ArcGIS Pro is much simpler than migrating .Net code, because the ArcPy library has not changed much (except arcpy.mapping and of course some necessary adaptions due to the shift from Python 2.x to Python 3.x). So, to quote an Esri staff member: „Use more Python and less ArcObjects“.

But there was a lot more on Python, like ArcGIS integration with the packaging manager Conda and the outlook that Jupyter notebooks (formerly known as IPython notebooks) will be part of the ArcGIS platform (probably late 2016, maybe early 2017). I’m quite excited about the Jupyter integration, because then you may edit, explore and share your ArcGIS Python sessions and even take advantage of the power of SciPy, pandas and other great Python modules. Unfortunately, there weren’t too many details available on this.

ipython-arcgis
A screenshot of an ArcGIS Jupyter notebook.

What else is new and cool? Insights and Vector Tiles!

Last, but not least, we want to talk about two new cool things that have been unveiled at this year’s DevSummit:

  • Insights for ArcGIS: This demonstration was the most impressive one and was much talked about during the conference: It is basically „GIS for Data Scientists“. Just have a look at the product page or watch the 8-minute video and you get a glimpse of how easy GIS can be: Just drag-n-drop a county outline on a map of points and you get an aggregated view. Or select a slice of a histogram and the corresponding features in the map as well as on a scatter plot are highlighted.
  • Vector Tiles: Vector tiles have been announced last year, but now you can generate them from ArcGIS Pro and publish them directly on your ArcGIS Portal. At least with vector tiles, the old saying „Raster is faster, but vector is corrector“ does not hold anymore: Publishing the entire world as vector tiles takes 8 hours on a desktop machine (with 16 GB RAM and SSD) and consumes about 13 GB of disk space. Compare this to weeks of processing and dozens of terabytes of disk space for traditional raster tiles. As Esri adopted the MapBox specification for vector tiles, the tiles should eventually be consumable by non-Esri clients (and also non-Esri tiles by ArcGIS clients). But these setups are apparently work in progress and may yield unexpected results at the moment.

One more thing

Where to go from here? I recommend to have a look at the presentation videos that are already published on Esri’s video portal, for example start with the ArcGIS platform overview.

But there is one more thing and a personal note: I would like to plug my lightning talk that I gave during the DevSummit. It was about a topic, that I am planning to expand on this blog in the future:

Bots!

Stay tuned…

GeoHipster interview with Ralph

Did you know that our very own Ralph Straumann is on the advisory board of the international GIS community website „GeoHipster“? And if you also want to become an advisor to an international community, you may have to start with producing brilliant maps: One of Ralph’s maps has been published last year in the 2015 GeoHipster calendar (check out the month of February).

Today, an interview about the story behind his map has been published on GeoHipster. If you are only remotely interested in maps and information visualization, I strongly urge you to read the short interview here.

Infoviz: Population of Swiss cities and cantons
Infoviz: Population of Swiss cities and cantons

By the way: GeoHipster published another calendar for 2016 with new maps submitted by the community. Check it out and order it here (spoiler: also this one will contain a map by Ralph).

 

Data Value and Expertise Value

These days, data and data scientists (and data engineers?) seem to rule the world. Companies are data-driven, problems are solved using data-driven methods and national intelligence agencies (arguably: also online retailers) extensively collect all the data they can get hold of.

The data-driven approach is formalised in the Jurney-Warden Data-Value Stack:

The Jurney-Warden Data-Value stack Source: https://www.safaribooksonline.com/library/view/agile-data-science/9781449326890/ch05.html
The Jurney-Warden Data-Value stack (source)

The data-value stack is to be read from the bottom up to the top. The idea of the stack suggests: the value of the data arises from raw data through various steps up the pyramid. The link to Maslow’s hierarchy of needs that the authors make implies that the upper levels of the pyramid build and rely upon the lower levels, i.e. you cannot effect actions without first collecting data at the records level, then cleaning and aggregating, exploring and inferring. In my opinion, this is a feasible approach and obviously the framework works well for some cases.

However: looking at the stack, the approach reminds me of a blind chicken which randomly picks and picks until it eventually finds a valuable corn to eat. More intelligent animals have some expertise to enhance the „random-pick“ – i.e., purely bottom-up – approach: Based on its experience, intelligence and/or guts, the intelligent chicken efficiently picks the most valuable food right from the start.

I admit, I know nothing about behavioural biology to support the claims in the previous paragraph. And yes, millions of blind chickens may help. But what I really want to say is: expertise matters, also in the data-driven world – we cannot yet proclaim the end of theory.

But how does expertise come into play in the above mentioned data-value stack? Its design principle is that higher levels depend on lower levels. I would propose a similarly shaped expertise-value stack, which aligns alongside the data-value stack. That stack would look as follows (on the left):

Expertise-Value stack (left) and Data-Value stack (right)
Expertise-Value stack (left) and Data-Value stack (right)

The expertise-value stack complements the steps in the data-value stack with the following levels of expertise:

  • Wisdom: Use your wisdom for strategic decisions.
  • Application of Interdisciplinary Knowledge: Use and combine your knowledge from different subject matter domains.
  • Application of Domain Knowledge: Apply your subject matter knowledge to the problem.
  • Information Collection: Conduct targeted collection and filtering of relevant information, like reports, opinions or results of relevant research.
  • Problem Comprehension: Before doing anything, make sure you understand the problem at hand from one or several perspectives: e.g. from the perspective of the user, provider or politician.

Obviously, the idea of domain experts collaborating with, and supporting, data scientists is not new. Indeed it has been noted that subject experts may make the difference. And this is why an interdisciplinary approach (edit 2016-02-23: i.e. leveraging both expertise-value and data-value) has advantages over a pure data driven approach. Unfortunately, the benefit of including subject experts does not come for free: It takes much time to talk to each other and you need to find good counterparts to succeed. But in the long run, this interaction will pay off.

If you are interested talking to Swiss data and information experts with an interdisciplinary approach, come and talk to the team at EBP. Contact me for details. (And thanks to Ralph for editing this post)

Jenseits von Standard-Darstellungen

Vielleicht haben Sie den Beitrag im Tagesanzeiger-Datenblog oder andernorts in der Presse bzw. online gesehen: Ich habe in meiner Funktion als Visiting Researcher mit Kollegen am Oxford Internet Institute kürzlich zwei Karten zum globalen Internetzugang publiziert:

Die Internet-Bevölkerung 2013 (Geonet Project, Oxford Internet Institute)
Die Internet-Bevölkerung 2013 (Geonet Project, Oxford Internet Institute)
Relativer Zuwachs der Bevölkerung mit Internet-Zugriff, 2009–2013 (Geonet Project, Oxford Internet Institute)

Mehr zum Thema der Karten können Sie in den folgenden zwei Blogbeiträgen (in Englisch) oder beim Tagesanzeiger lesen:

Hier möchte ich etwas mehr auf die Art der Visualisierung eingehen. Die Karten oben verzerren die Fläche jedes Landes so, dass sie proportional zur Anzahl Personen mit Internetzugang wird. Die Karten enthalten im südlichen Atlantik eine kleine unverzerrte Referenzkarte, welche es noch deutlicher macht, wie sehr zum Beispiel Europa online über- und Afrika unterrepräsentiert ist.

Es handelt es sich bei diesem Kartentyp um sogenannte Kartenanamorphosen oder -anamorphoten bzw. – einfacher in Englisch – um Cartograms. In diesem Fall sind es hexagonal cartograms, das heisst jedes Land ist aus einer Zahl kleiner Hexagone als Bausteine zusammengesetzt. Ich habe das Vorgehen hierzu schon andernorts detailliert erläutert, mittlerweile habe ich aber noch einige Optimierungen des Vorgehens umgesetzt. Um die Verzerrungen der Formen der Länder möglichst gering zu halten, ist einiges an Handarbeit erforderlich, die einem auch die gängigen Kartogramm-Algorithmen nicht abnehmen können.

Viele Personen fühlen sich von solchen Darstellungen unmittelbar angesprochen. Sie können bisweilen ziemlich plakativ wirken, etwa wenn die zugrundeliegende Grösse sehr ungleich verteilt ist. Ein Nachteil von solchen Darstellungen ist sicherlich, dass die Einschätzung von relativen Grössen keine genaue Einordnung erlaubt. Beispielsweise wäre zwar nicht unmöglich, aber sehr schwierig zu sagen, wieviele Menschen in Japan online sind oder – in dieser Darstellung der Schweizer Kantone und Städte – wieviele Personen im Kanton Graubünden leben. In beiden Fällen ist dies aber auch ganz klar nicht eines meiner Ziele.

Die automatisch berechenbaren Verzerrungen der Länder in den Darstellungen oben habe ich mit einer spezialisierten Software erstellt. Für die Umlegung auf die Hexagone, die Minimierung der Verzerrungen, das manuelle (!) Setzen der Labels und das gesamte endgültige Layout habe ich ArcGIS verwendet. Die fertigen Karten, so finde ich, sehen aber nicht mehr nach Standard-„GIS-Karten“ aus.

Mit diesem Post möchte ich dazu aufrufen, (geo)graphische Konventionen und ‚best practices‘ auch mal zu hinterfragen. Vielleicht lässt sich etwas besser als mit einer Choroplethen- oder Symbolkarte, womöglich noch mit einer Standardlegende, visualisieren. „Besser“ kann hier etwa heissen,

  • dass ein Fakt exakter kommuniziert werden kann oder
  • dass eine Darstellung Interesse weckt beim Publikum oder
  • dass eine Darstellung zu weiteren Fragen anregt oder
  • dass eine Darstellung ausgewählte Punkte vielleicht nicht exakt aber in ihren grossen Linien aufsehenerregend vermittelt.

Vielleicht möchten Sie ihre Darstellungen auch vom langweiligen Standard-Look befreien? –
Gerne berate ich Sie dabei.

 

Artikel: Die Zukunft von GIS ist smart und vernetzt

Vor kurzem hat in unserem Blog Ivo Leiss über die Evolution von GIS und GIS 5.0 berichtet. In GIS 5.0 werden das Internet der Dinge, Indoor-Navigation und Echtzeit-Informationssysteme Schlüsselelemente sein. GI-Systeme 5.0 werden smarter und vernetzter sein als die Systeme, die wir heute kennen. Dies zieht auch neue Infrastruktur-Bedürfnisse nach sich. Wie die einzelnen Elemente zusammenspielen, hat Ivo Leiss im oben verlinkten Blogpost anhand dieser Grafik erläutert (nach Porter und Heppelmann, abgeändert):

Wenn Sie sich wie wir für die Zukunft von Informationssystemen interessieren, empfehle ich Ihnen die Lektüre unseres Geomatik Schweiz-Artikels mit dem Titel „GIS 5.0 – Smart und vernetzt“ (pdf). Darin hat Ivo Leiss drei unserer Mitarbeitenden (u.a. mich) zum Thema interviewt. Die drei Interviewten nähern sich dem Thema aus drei unterschiedlichen Richtungen: Internet of Things, Erkenntnisgewinne aus Datenanalysen und Cloud-Technologien.

GIS 5.0 – Smart und vernetzt (pdf), erschienen in Geomatik Schweiz 5/2015.

Alle Wege führen zu Windows 10 – und Azure

Sprichwörtlich führen alle Wege nach Rom. Nach meinem gestrigen Besuch des Technology Outlooks von Microsoft Schweiz scheinen in Zukunft aber alle Wege zu Windows 10 zu führen. Oder in den Worten von Microsoft: „Wherever your code was born, you can bring it to Windows“. Welche dieser Wege Autobahnen und welche eher holprige Wanderpfade sind, wird sich zeigen.

clouds

Mit Windows 10 setzt Microsoft konsequent auf eine Plattform für alle Geräte: Überall läuft die gleiche Runtime, die Apps kommen für alle Geräte aus einem Store und werden mit Visual Studio entwickelt. Der gleiche Code läuft auf PCs, Tablets, Phones, Hololens oder auf einem Raspberry Pi 2. Spannend daran ist, dass mit Windows 10 ein adaptives User Interface zur Verfügung steht: Man entwickelt eine Benutzerschnittstelle, die sich dann automatisch ans jeweils angeschlossene Display anpassen soll. Wenn man sein Windows Phone also an einen Bildschrm anschliesst, sehen die Applikationen aus wie auf dem PC, statt einfach das Handy-Display zu skalieren. Um das zu testen, müsste man allerdings zuerst mal ein Telefon mit Windows haben…

Dieses Problem hat Microsoft ebenfalls erkannt. Um Windows Phones attraktiver zu machen und den Rückstand bei der Anzahl verfügbarer Apps zu verkleinern, bieten sie mit Windows 10 (einfache?) Möglichkeiten, Android- und iOS-Apps auf Windows 10 zu bringen. Für Android-Apps gibt es einen Emulator – der gleiche Code kann also weiterverwendet und mit spezifischen Windows-Funktionen ergänzt werden. Für iOS-Apps ist eine Neukompilierung des Objective C-Codes notwendig, was von Visual Studio unterstützt wird. Solche „Bridges“ zu Windows 10 gibt es übrigens auch für Win32- und Web-Applikationen. Die Wege führen nicht nur zu Windows, sondern auch wieder heraus: Beispielsweise durch die Integration von Xamarin in Visual Studio 2015, um Apps plattformübergreifend zu entwickeln. Oder durch den .NET Core 5 für Linux und Mac OS X.

Ein Stolperstein für diese schöne neue Welt könnten die unterschiedlichen Fähigkeiten der Geräte sein. Einerseits natürlich die Rechenleistung, andererseits die unterschiedlichen Bedienkonzepte und Spezialfähigkeiten – die Hololens unterscheidet sich doch stark von einem PC. Trotzdem ist Windows 10 sehr spannend und vielversprechend. Wir freuen uns jedenfalls auf die neuen Möglichkeiten.

Im zweiten Teil der Veranstaltung präsentierte Sascha Corti, Technical Evangelist von Microsoft Schweiz, die Verwendung von Microsoft-Lösungen für das „Internet of Things“ (IoT). Für uns bei Ernst Basler + Partner ist das natürlich speziell interessant, da auch wir bereits entsprechende Lösungen entwickeln.

Oft werden im Zusammenhang mit IoT abstrakte Ideen entwickelt oder grosse Luftschlösser gebaut – wie üblich, wenn ein Thema ganz oben auf dem Hype Cycle ist. Microsoft sieht das IoT aber pragmatisch: Schlussendlich geht es einfach darum, Informationen von Geräten über Netzwerke auf eine zentrale Plattform zu bringen. Dort analysiert und visualisiert man die Daten, um für sein Geschäft einen Mehrwert zu generieren und bessere Entscheidungen treffen zu können. Das alles ist mit vorhandener Technologie problemlos möglich. Idealerweise beginnt man deshalb mit Geräten und Daten, die bereits zur Verfügung stehen. Die daraus gewonnen Einsichten kann man anschliessend laufend durch zusätzliche Geräte, Messungen und Daten verbessern.

raspberry

Als ideale Plattform zur Analyse und Darstellung von IoT-Daten sieht Microsoft natürlich Azure. Tatsächlich steht hier out-of-the-box eine breite Palette von Möglichkeiten zur Verfügung, um typische IoT-Workflows abzubilden: Datenspeicher, Datenmanipulation, Analyse, Darstellung. Aus unserer eigenen Erfahrung können wir bestätigen, dass sich Lösungen damit sehr einfach umsetzen lassen. Ein weiteres Argument zur Nutzung der Cloud ist die Fähigkeit zur Verarbeitung unglaublich grosser Datenmengen: Eine Instanz eines Event Hubs kann bis zu 1 Gigabyte Daten pro Sekunde von 1 Million unterschiedlicher Quellen verarbeiten (insgesamt verarbeiten die Events Hubs momentan mehr als 60 Terabyte Daten pro Tag).

Zum ersten Mal live gesehen habe ich gestern Azure Machine Learning. Spontan fand ich das sehr eindrücklich – allerdings nicht ganz ungefährlich. Eindrücklich ist, wie einfach sich hier Analysen erstellen und durchführen lassen. In einer graphischen Oberfläche klickt man sich einen Workflow zusammen (ähnlich wie beispielsweise in FME), wählt eine geeignete Methode und trainiert diese. Ein Knopfdruck publiziert das trainierte Modell als Web-Service.

Warum kann das gefährlich sein? Es ist so einfach zu bedienen, dass man auch ohne Kenntnisse in Datenverarbeitung, Statistik und Machine Learning schnell zu Ergebnissen kommt. Die Frage ist bloss, ob es die richtigen Ergebnisse sind. Um zu geschäftlichem Mehrwert und besseren Entscheidungen zu gelangen, ist das allerdings zentral. Man sollte deshalb nicht nur wissen, wie man mit dem Werkzeug umgeht, sondern auch was man damit macht. Dazu gehört das Wissen über die verwendeten Daten genauso wie Kenntnisse der eingesetzten Methoden.

 

 

 

Projektbeispiele: Geodatenmodelle, Unfallanalysen und Geoinformationsstrategie

In der Serie „Projekte“ möchten wir Ihnen in unregelmässigem Rhythmus einige Highlights aus der Arbeit von Ernst Basler + Partner (EBP) vorstellen. Heute drehen sich die vorgestellten Projekte um die Themen minimale Geodatenmodelle, Analysen des Unfallgeschehens im Strassenverkehr und die Formulierung einer modernen Geoinformationsstrategie.

Minimale Geodatenmodelle in INTERLIS

Minimale Geodatenmodelle machen es einfacher, Geodaten zu nutzen und Datensätze unterschiedlicher Herkunft miteinander zu kombinieren. Minimale Geodatenmodelle sind auch ein wichtiger Beitrag für die Harmonisierung von Daten zwischen verschiedenen Akteuren.

Diese Ziele sind im Geoinformationsgesetz (GeoIG) der Schweiz verankert. EBP unterstützt diverse Stellen bei ASTRA, BAFU und BFS bei der Erarbeitung minimaler Geodatenmodelle in der Modellierungssprache INTERLIS.

→ mehr Informationen

 

Verkehrssicherheitsgewinne aus strukturierten Datenanalysen

Die Sicherheit im Strassenverkehr ist ein drängendes Thema. Die Schweizerische Vereinigung der Verkehrsingenieure und Verkehrsexperten (SVI) hat 2013 das Projekt „Verkehrssicherheitsgewinne aus Erkenntnissen aus Datapooling und strukturierten Datenanalysen (VeSPA)“ aufgelegt.

In Phase 1 bearbeitete EBP zusammen mit der PTV Transport Consult zwei Teilprojekte zu Wetter-Einflüssen und zu Infrastruktur-Einflüssen auf das Unfallgeschehen im Strassenverkehr.

Von den identifizierten Einflussfaktoren und Zusammenhängen mit dem Unfallgeschehen lassen sich Massnahmenansätze ableiten und deren Wirkung abschätzen. Ferner können auf Basis der Resultate Unfallmodelle als Hilfsmittel zur Entscheidungsfindung im Sicherheitsmanagement formuliert werden.

Seit Januar 2015 bearbeiten EBP und PTV Transport Consult Phase 2 des Forschungsprojekts VeSPA.

→ mehr Informationen

 

Geoinformations-Strategie für den Kanton Schwyz

Daten und Informationen werden in unserer Gesellschaft immer wichtiger. Geodaten kommt dabei spezielle Bedeutung zu, angetrieben von Trends wie mobilem Internet, Cloud-Infrastruktur, Augmented Reality, Self-Tracking und dem Internet of Things.

Im Zuge dieser Entwicklungen möchte sich der Kanton Schwyz eine zukunftsorientierte Geoinformationsstrategie erarbeiten. EBP hat den Kanton Schwyz im Strategieprozess unterstützt mit der Durchführung von Workshops, der Schärfung des Strategiebegriffs und der Definition der Bestandteile einer Strategie. Ferner hat EBP relevante gesellschaftliche und technologische Entwicklungen aufgezeigt, welche in der Strategie aufgegriffen werden sollten.

→ mehr Informationen