Internet of Things: Live Data Quality Assessment for a Sensor Network

TL;DR: We believe that connected devices and real-time data analytics are the next big things in GIS. Here is a live dashboard for a sensor network in 7 cities around the world.

Geoinformation systems have evolved quite rapidly in recent years and the future seems to be more exciting than ever: All major IT trends such as Internet of Things (IoT), big data or real-time systems are directly related to our professional domain: Smart devices are spatially located or even moving in time; big data and real-time systems almost always need locational analytics. This is why we got interested when we heard about the „Sense Your City Art Challenge„, a competition to make sense of a network of DIY sensors, which are spread over 7 cities in 3 continents. To be honest, our interest was not so much drawn to the „art“ aspect, at the end we are engineers and feel more at home with data and technology. And there is real-time sensor data available within the challenge: About 14 sensor nodes in every city deliver approximately 5 measurements every 10 second, such as temperature, humidity or air quality. The sensor is data freely available. When we looked at the numbers, we realized that data had some surprising properties, for example the temperature within varies quite a bit within one city.

Screenshot Story Map
Screenshot of our story map for Sense Your City.


Our goal: Live data quality assessment for a sensor network

So, we took the challenge a bit differently and more from an engineering perspective: How to implement a real-time quality assessment system for sensor data? As an example, we took the following questions, which need re-evaluated as new sensor data comes in:

  • Are there enough sensors that provide information about the sensors?
  • How much does the sensor measurements vary within a city?
  • How do the sensor measurements compare to external data?

Our solution: A live dashboard with real-time statistics 

My colleague Patrick Giedemann and I started late last week and developed a live dashboard with real-time statistics for the sensor network of seven cities. The dashboard is implemented with a story map containing one world view and seven views on city-level. The components of the views are:

  • A heatmap showing a condensed view of the analysis for each of the cities, labeled with numbers 2 to 8. For example, we want to show the visualize number of sensor values for each city within a time frame of 30 seconds. The darker the blue bucket, the more sensor signals we got. Light buckets indicate a low number og signals in the time frame.
  • Another heatmap, which calculates coefficient of variation for each city, again with a time frame of 30 seconds.
  • A gauge showing the number of sensor signals for a city and a linechart with the minimum, maximum and average temperature for a city.

We haven’t yet got around to show real weather data, although it is processed internally.

Some implementation details

For the technically inclined: Our implementation is based on Microsoft’s Azure, one of many cloud computing platforms available. Specifically, we used three main components: Event Hubs, Stream Analytics and WebSockets.

Graphic from Microsoft Azure documentation. We used Event Hubs, Stream Analytics and WebSockets instead of a data store.
  • We started building our solution using Azure Event Hubs, a highly scalable publish-subscribe infrastructue. It could take in millions of events per second, so we have room to grow with only 170’000 data points per hour. Every ten seconds, we pull the raw data from the official data sources and push the resulting data stream to an Azure Event Hub.
  • For the real-time analysis, we tried Azure Stream Analytics, a fully managed stream processing solution, which can take event hubs as an input source. With Stream Analytics, you can analyze incoming data within a certain time window and immediately push the result back to another event hub. For our example, Stream Analytics aggregates the raw signal data every 3 to 4 seconds and calculates  average value, minimum value, maximum value and standard deviation for 30 seconds within a city.
  • Finally, there is a server component, which transforms the event hub into WebSockets. With WebSockets, we can establish a direct connection between the data stream and a (modern) browser client.

What’s next?

Admittedly, this is a very early version of a live quality assessment system for real-time sensor data. However, it shows the potential: We can define a set of data quality indicators like number of active sensors or the variation coefficient. These indicators can be computed as the data streams into the system. Using Azure Stream Analytics, we could incorporate tens of thousands of sensors, instead of only hundred and we’d still have the same performance without changing a line of code.

Of course, there is room for improvements:

  • Ideally the sensor would push its data directly into the Azure EventHub instead of using a polling service as intermediate.
  • Exploiting historical data, like a comparison between the live data and date from a week ago.
  • Integrating more and different data sources for the data analysis.

Do you have any question? Send me an e-mail at or leave a comment.

Let there be light: Data visualization with SAP Lumira

GIS and Business Intelligence (BI) are buzzwords you hear together increasingly often (see also our articles on GISconnector, which we consider a low-cost, easy-entry BI solution). Inspired by this article from iX magazine I decided to have a look at the „self-service BI“ solution SAP Lumira. Lumira is an analysis and visualization tool and SAP offers a freely downloadable version. There is also a standard edition with more features that sets you back almost 1,000 $. The workflow in the application is simple: You import some data and prepare it, create visualizations and publish them.


Data Source for all visualizations: World Bank (© 2010 The World Bank Group)

In the free version you can use Excel Sheets, CSV data, copy data from the clipboard or connect to a SAP HANA One database. The full version also lets you access databases with SQL queries. For my trial I found an Excel table about global energy use provided by the World Bank (downloaded from After loading the data you can prepare it for the visualization: Filter, calculate new values or join different datasets together.

You can also create a so-called geographic hierarchy to visualize the data on a map. A geographic hierarchy is a kind of geocoding: Geographic placenames are matched with an internal database to add location to your data records. The good thing is, that it clearly identifies records that could not be automatically matched. It then offers you the possibility to select possible matches from a list. Unfortunately, you can only choose from this non-extendable list. For some reason it did not suggest Slovakia as match for Slovak Republic which would have left changing the country name in the input data as the only remaining option. Luckily, I had also country codes in my dataset which worked much better and are obviously better practice, if you have them available.



Now comes the really cool part: Drag and Drop visualization. Just select one of the many available charts, drop your measures and dimensions on the X and Y axes, apply some filters on the data and your diagram is ready. This is really comfortable (and I can tell, having recently spent hours producing some rather simple graphs with R and ggplot).

Apart from classic graphs you can also create maps. These are nice for a first impression, offering zooming, panning and mouseover information. But overall the maps are pretty basic with almost no options to influence the display. The full version offers the possibility to use ArcGIS Online maps which brings a broader range of functionality.
For my trial I tested only simple visualizations. But Lumira also offers some fancier variants e.g. heatmaps, network diagrams or tagclouds.

After creating visualizations to make your point, you can aggregate them into a report or a „board“. The nice thing is that the charts remain interactive. I haven’t yet tried all possibilities but you could probably do similar things as with storymaps.

The next step is to make your visualizations available for others. Unfortunately there is (at least in the free version) no option to export the graphics as PDF or image files. This would be useful in order to be able to include the graphics in reports and presentations.

One possible solution to this is to upload your board to the Lumira Cloud. That is very neat and you can then provide access to individual users or the whole world. proved to be an unexpected hassle and you can only enjoy my screenshots for the moment.

A few words about the data

For this little test I was more interested in the tool than in the data itself. Some things look quite interesting though. Whereas the per-capita energy consumption for most countries has increased between 1970 and 2005, Luxembourg shows a massive decrease. My first hypothesis for the cause of this unexpected outcome is the demise of the heavy industry, but I have not yet found a confirmation for this. Perhaps you, dear reader, know more?

GISconnector: The beginning of a beautiful friendship between ArcGIS and Excel

As of September 2014, we at Ernst Basler + Partner distribute the application GISconnector for Excel in Switzerland. GISconnector is a software created by Germany-based GI Geolabs. In this article, we highlight the new possibilities that arise through the close interconnection between ArcGIS and Excel. Contact us if you have any questions or if you’re interested in a demonstration in a screen sharing session.

Stephan Heuel of Ernst Basler + Partner and Matthias Abele of GI Geolabs after signing the partnership agreement.

But first things first: What does GISconnector offer to you? It combines the capabilities of ArcGIS Desktop and Microsoft Excel in a smart way. The best thing about it is that you can do all the attribute-related steps in your GIS workflow seamlessly in Excel. This way, you have the power of a full-fledged spreadsheet software at your fingertips, perfectly integrated within ArcGIS. As a result, working with attribute data is much easier and takes a lot less time. You can find a comprehensive list of GISconnector’s functionality here.


Working with GISconnector usually follows this pattern: I load a feature class (Geodatabase or Shapefile, whatever floats your boat) as a layer in ArcMap. Using GISconnector I can conveniently export the layer’s attribute data to Excel and create a connection between the two programs in the same process. From this moment on, I can easily swap selections, definition queries and filters between ArcGIS and Excel. The same applies to changes in attribute values and attribute names as well as adding attributes. A toolbar lets you control GISconnector both from within ArcMap and Excel.

GISconnector-Toolbar in Excel
GISconnector toolbar in Excel

Sending selections, data et cetera from one application to the other takes just one click. The image below shows a simple example of GISconnector in action: A feature class of Swiss cantons in ArcMap and the connected attribute table in Excel. I selected some of the southern cantons (marked with turquoise borders) in ArcMap and then sent this selection to Excel as a filter. Thus, Excel only shows the three rows related to the selected map features.

ArcMap und Excel, verbunden durch den GISconnector
ArcMap and Excel linked by GISconnector

Further, the connection between the two applications lets ArcGIS users access Excel’s advanced bag of tricks, ranging from complex functions and AutoFilters to conditional formatting and dynamically updated charts. I will write about such an example in an upcoming article.

Have we sparked your interest in the GISconnector?

Learn more about GISconnector’s functionality from the makers of the software.

Watch a demo video. This one shows how to transfer selections and filters:


Test the product free of cost.

Contact us if you have any questions or if you’re interested in a demonstration via screen sharing.

GISconnector: Der Beginn einer wunderbaren Freundschaft zwischen ArcGIS und Excel

Seit September 2014 sind wir von Ernst Basler + Partner Schweizer Vertriebspartner für den GISconnector for Excel . Der GISconnector ist eine Software der deutschen GI Geolabs. Im folgenden Artikel präsentieren wir die neuen Möglichkeiten, die sich durch das enge Verzahnen von ArcGIS und Excel ergeben. Kontaktieren Sie uns bei Fragen oder für eine unverbindliche Demonstration per Screensharing.

Stephan Heuel von Ernst Basler + Partner und Matthias Abele von GI Geolabs unterzeichnen den Vertrag über die Vertriebspartnerschaft

Doch zuerst: Was bietet der GISconnector? Er verbindet auf intelligente Weise die Fähigkeiten von Esri ArcGIS Desktop mit jenen von Microsoft Excel. Der Clou dabei ist: Alle Arbeitsschritte, welche die Attributdaten betreffen und welche normalerweise mit der Attributtabelle in ArcGIS ablaufen, können mit Excel erledigt werden. Damit hat man alle Möglichkeiten einer modernen Tabellenkalkulations-Software zur Verfügung, perfekt integriert in ArcGIS. Es ergibt sich eine signifikante Erleichterung der Arbeit mit Attributdaten und für die meisten von uns eine grosse Zeitersparnis. Hier findet man eine ausführliche Beschreibung der Funktionalität des GISconnectors.


Das Vorgehen mit dem GISconnector for Excel sieht grundsätzlich so aus: Ich lade eine Feature Klasse als Layer in ArcMap. Geodatabase oder Shapefile spielt dabei keine Rolle. Mit dem GISconnector kann ich die Attributdaten bequem ins Excel exportieren und mit der Excel-Datei eine Verbindung aufbauen. Von diesem Zeitpunkt an kann ich Selektionen, Definition Queries (Definitionsabfragen) und Filter von ArcGIS nach Excel und von Excel nach ArcGIS übertragen. Das gleiche gilt für Änderungen an den Attributwerten, die Anpassung von Attributnamen sowie die Erstellung zusätzlicher Attribute. Gesteuert wird der GISconnector sowohl in ArcMap als auch in Excel über eine Toolbar.

GISconnector-Toolbar in Excel
GISconnector-Toolbar in Excel

Die Übertragung von Selektionen, Daten etc. von einem Programm ins andere braucht jeweils nur einen Klick. Die folgende Abbildung zeigt als einfaches Beispiel eine Feature Klasse der Kantone in ArcMap und die damit verbundene Tabelle der Attribute in Excel. Die in der Karte blau umrandeten Kantone habe ich in ArcMap ausgewählt und die Selektion danach als Filter an Excel übertragen.

ArcMap und Excel, verbunden durch den GISconnector
ArcMap und Excel, verbunden durch den GISconnector

Die Verbindung der beiden Programme eröffnet der ArcGIS-Nutzerin und dem ArcGIS-Nutzer das gesamte Potenzial der Excel-Trickkiste: Von komplexen Formeln über Autofilter und bedingte Formatierung bis zu dynamischen Diagrammen. Von einem solchen Anwendungsbeispiel berichte ich im nächsten Artikel etwas ausführlicher.

Haben wir Ihr Interesse am GISconnector geweckt?

Informieren Sie sich auf der Website des Herstellers über den gesamten Funktionsumfang.

Schauen Sie sich Demo-Videos an, zum Beispiel das folgende mit grundlegenden Funktionen:


Beziehen Sie eine kostenlose Testversion.

Kontaktieren Sie uns bei Fragen oder für eine unverbindliche Demonstration per Screensharing.

Esri Maps for Office – ein erster Eindruck

Einfache Karten in Excel

Seit 2012 bietet Esri das Produkt Esri Maps for Office als Komponente von ArcGIS Online an. Damit lassen sich Excel-Tabellen mit geographischen Inhalten und Karten anreichern. Sie können zum Beispiel die Wohnorte Ihrer Kundinnen und Kunden auf der Karte darstellen und die Standorte Ihrer Filialen überlagern, um eine allfällige Abdeckungs-Lücke aufzuspüren. Bedingung für die Nutzung von Esri Maps for Office ist ein ArcGIS Online-Konto.

Die Installation von Esri Maps for Office geht sehr einfach vonstatten. Mit meinem ArcGIS Online-Konto kann ich schnell mit ersten Fingerübungen beginnen: Einmal in ArcGIS Online eingeloggt, kann ich den den neuen Excel-Menüpunkt namens Esri Maps austesten.

Esri Maps for Office fügt Excel ein neues Menü hinzu (Abbildung von Esri).
Esri Maps for Office fügt Excel ein neues Menü hinzu (Abbildung von Esri).

Ein Beispiel

Für mein Beispiel möchte ich Standortdaten verwenden. Online werde ich schnell fündig und kann die Liste mit Migros-Filialstandorten im CSV-Format herunterladen. Diese Daten beinhalten bereits räumliche Koordinaten (im WGS1984-System). Mit Esri Maps for Office wäre auch das Verorten der Standorte anhand ihrer Adressen möglich. Da ich die Koordinaten schon habe, lasse ich diesen Schritt für meine Erkundigungen aber aussen vor. Mit ein paar Klicks lade ich die CSV-Datei in ein leeres Excel-Tabellenblatt.

Meine in Excel eingebettete Beispielkarte: Alle Standorte von Migros in der Cluster- und Wärmebild-Darstellung vor einer Hintergrundkarte von Esri.

Dieses Tabellenblatt verwende ich mit der Funktion Karte einfügen und wähle noch einen dazu passenden Hintergrund aus (dieser wird von Esri zur Verfügung gestellt). Schwuppdiwupps erscheint die Karte mit allen Standorten in einem separaten kleinen Kartenfenster innerhalb von Excel. Nun stehen mir verschiedene Funktionen zur Verfügung, um das Layout zu verändern und mich in der Karte hin- und herzubewegen bzw. zu zoomen.

Weiter sind die Standorte in der Karte und im Excel-Tabellenblatt nun miteinander verknüpft: Ich kann Standorte in der Karte auswählen und die ausgewählten Einträge im Tabellenblatt anzeigen lassen. Natürlich funktioniert das auch umgekehrt.

Über eine Suchfunktion kann ich weitere Kartenebenen bzw. Layer einbinden, welche auf ArcGIS Online bereitgestellt worden sind. Das können Kartenebenen ihrer eigenen Organisation sein (welche Sie zum Beispiel von uns als Ihrem Geodaten-Dienstleister aufbereiten lassen können) oder auch öffentlich zugängliche. Interessant sind natürlich Kartenebenen, welche Ihrer Fragestellung entsprechen: zum Beispiel die Lage kinderreicher Quartiere, wenn Sie eine Kinderkrippe eröffnen möchten, oder die räumliche Verteilung von Bauzonen, Arbeitskräften, etc., wenn Sie den Aufbau eines neuen Fertigungsstandorts planen.

Darstellen und analysieren

Darstellerisch ist das massstabsabhängige Clustern von Standorten eine wichtige Funktion, wie wir es auch von Google Maps und anderen Webkarten gewohnt sind. Dadurch bleibt die Karte auch bei sehr hoher Dichte von Standorten gut lesbar (siehe das Beispiel oben: hinter allen runden Symbolen verbirgt sich die entsprechende Zahl von Migros-Standorten).

Eine alternative Darstellungsform bietet die Funktion Wärmebild hinzufügen (Heatmap in Englisch). Diese erzeugt anhand der räumlichen Dichte der Punkte einfach und schnell farbige Bereiche. Im obigen Beispiel habe ich ein Wärmebild über die Cluster gelegt – in der Regel würde man nur eines von beiden verwenden. Leider kann ich die Konfiguration des Wärmebildes bis auf die Farbgebung nicht weiter beeinflussen. Unklar bleiben mir als neugierigem Spezialist auch die Einstellungen und Parameter, welche zur Bildung der Dichte-Interpolation benutzt werden.

Weiterverwendung von Karten

Nachdem ich meine Karte(n) erstellt habe, kann ich diese einfach als Bild zum Beispiel in eine PowerPoint-Folie exportieren oder mittels Kopieren (copy-paste) in ein anderes Dokument übertragen.

Mein Fazit

Die Visualisierung von Standorten ist einfach und effizient. Es lassen sich schnell einfache Karten erstellen. Geht man einen Schritt weiter und führt die oben aufgeführten Analysen durch, müssen die Ergebnisse dann noch richtig interpretiert werden. Hier braucht es sicher etwas Fingerspitzengefühl und auch etwas Verständnis für räumliche Fragestellungen.

Aus grauen Excel-Tabellen können mit Esri Maps for Office interaktive Karten entstehen, welche ungeahnte Einblicke in Ihr Geschäft bzw. in Ihre Organisation offenbaren (Abbildung von Esri).
Aus grauen Excel-Tabellen können mit Esri Maps for Office interaktive Karten entstehen, welche ungeahnte Einblicke in Ihr Geschäft bzw. in Ihre Organisation offenbaren (Abbildung von Esri).

Insgesamt ermöglicht Esri Maps for Office das Aufspüren von räumlichen Mustern und Zusammenhängen, welche sonst in Excel-Tabellen versteckt sind.

Wirklich interessant wird Esri Maps for Office meiner Ansicht nach mit relevanten zusätzlichen Datensätzen, die mit Ihren eigenen Daten eingeblendet werden können (oben haben wir zum Beispiel Bauzonen und Arbeitskräfte angeführt). So können Sie sich mit einer Analyse in Excel schnell einen Überblick verschaffen und erste Anhaltspunkte für erfolgreiche Geschäftsstrategien gewinnen.

Haben Sie noch Fragen? Gerne dürfen Sie mich kontaktieren, um diese zu besprechen oder für eine 1:1-Demonstration von Esri Maps for Office.

Services or raw data? Invalidate your cache, stupid!

Imagine, you are dependent on Open Government Data and want to include them in your workflow. Do you prefer web services (like WFS or Esri’s Feature services) or do you want the raw data? On Twitter and offline, I had several discussions on this topic. In the following, I summarize my thoughts for future reference1.

What is Open Government Data anyway?

I like to think of the use of Open Government Data (or Open Data) as using layers of services2:


  • Raw data contains the actual measurements or atomic information. It is usually served as one block in a basic file format (CSV, Excel or even worse as unstructured PDF), may be zipped and delivered via websites, ftp or, shockingly, using traditional media such as DVD.
  • Individual features are usually served by an API, like WFS or a proprietary JSON API. The features may also be requested in bulk.
  • Aggregations or topics are based on the inidviual features and provide higher level abstractions, like a summary of the population of all cantons, based on raw population numbers.
  • Presentations may be reports, websites or even apps, which present the aggregated data in a form that is structured as a response to a problem.

It’s easy to see that raw data is the basis for all of the subsequent layers. If the raw data changes, so do the derived features, aggregations, presentations and possibly decision that has been informed by the data (products).

Consuming Open Data – It’s about invalidating your cache

In the long-term, one of the biggest challenges of Open Data is not to have the raw data publicly available, but to provide and consume up-to-date and high quality services based on the original data. As a consumer, you have to keep in mind that everything is a cache, as long as you are not the owner of the data. And arguably, handling caches is a hard thing to tackle3: You are in a dependency chain and you are not in control of the whole chain. Keep in mind that the uncontrollability of the dependency chain applies to both the provider and the consumer of third party data.

Keep Calm And Clear Cache
(Source: Flickr, nodespt, CC BY 2.0)

The Open Knowledge Foundation says: „Our Mission is a World of Frictionless Data“. In my opinion, the challenge of keeping up-to-date is one of the long-term frictions we have to overcome. By the way, other frictions are astutely described in Tyler Bell’s write-up on using 3rd party data.

Invalidating your cache means being responsible with data: If you use raw data for your services or apps, you have the responsibility to make sure your data is up-to-date for your service (or otherwise clearly mark the source and the compilation date of your content).

What should be offered, services or raw data?

But looking at this from the other end: what should the government provide? Raw data for sure. If it is part of their mission, they should also provide at least feature level and aggregation services. For example, geodata is used within many governmental processes. So, an agency has to provide services like maps or cadastral information in order to make sure others can fulfill their task, like issuing building permits. On the other hand, there are cases where services or apps are not part of the government’s mission and they should not build them (example: location analysis for real estate).

If the dataset is huge and not too many things change, data services are favorable instead of raw data downloads since it is easier to invalidate your local data cache using up-to-date data services. The turn-around from changes at the local government to changes within your workflow is generally faster than with raw data downloads (which may only be available every six month, if at all).

In Switzerland, the recently launched Open Data government portal is a great step towards frictionless data. It is a common landing point to get data that can be referenced using permalinks. However, most of the data is in Excel format with unstructured metadata (some of it zipped) or, even worse, in PDFs. And it’s still raw data.

The canton of Zurich experimentally started an approach towards services with its geodata: Currently, there are 8 WFS services, which can be accessed directly with common GIS tools, or in more popular formats like JSON with HSR’s GeoConverter.

Update 2014-04-03: On, there is now a WFS service category (currently from canton Zürich). If you look for service for the city of Zürich, there is a catalog with 90+ datasets and services in various formats.

Update 2016-09-29: Good news: The national open data platform has been released at Among other organizations, SBB and both the canton and city of Zürich have joined the national portal. And some organiozations provide their data even both as a download and as a service – great!

What can you do as an Open Data consumer?

As said above, both the provider and the consumer should act responsibly since they are both part of the unavoidable dependency chain. As a consumer of data, you can do lots of things, some of them are:

  • Provide exact attribution with exact reference and timestamp.
  • Make sure that you get notified when the original data changes.
  • Make sure your workflow keeps your product up-to-date, such as Mike Bostock’s data compilation approach.
  • As a community: Think of an ethos of data consumers, which reminds everyone in the dependency chain to act responsibly.

Did I miss something? Probably lots of things. Let me know by pinging me on Twitter: @ping13 or by commenting below.

  1. An earlier version of this article was published on my personal blog
  2. You might be reminded of the disputable DIKW pyramid: Wisdom > Knowledge > Information > Data
  3. There is a variant of the „two-hard-things“ saying, namely: There are two hard things in computer science: cache invalidation, naming things, and off-by-one errors (Source). 

Aus WebGIS wird GIS: Eigene Daten im Geoportal

Vor knapp 3 Jahren haben wir über das Geoportal und dessen Programmierschnittstelle berichtet. Seitdem hat sich einiges getan: Die Webkarten wurde komplett überarbeitet und auch die API ist seit einigen Tagen aktualisiert (und die alte API Version wird Mitte Jahr eingestellt!). Die neue Webapplikation bietet neben einer verbesserten Nutzerführung auch auf mobilen Geräten auch eine verbesserte Suche nach Daten und Themen. Ein neue Option ist jedoch etwas versteckt, aber höchst interessant: Drag’n’Drop.

Beispiel einer KMZ Datei auf (Steuerertrag Kanton Zürich).
Beispiel einer KMZ Datei auf (Steuerertrag Kanton Zürich). Die Datei wurde mit der Webapp send2geoadmin hochgeladen.

„Aus WebGIS wird GIS: Eigene Daten im Geoportal“ weiterlesen

GeoSEO – Findet man Ihre Geodaten mit Google?

Wir betreiben diesen Blog mittlerweile seit drei Jahren. Mehr oder weniger regelmässig veröffentlichen wir hier einige unserer Ideen und Analysen, die ausserhalb unseres eigentlichen Tagesgeschäfts sind. Unter Anderem haben wir im Jahr 2010 „auf die Schnelle“ einen Blogpost über Geländeprofile geschrieben und eine dazu passende statische Webapplikation veröffentlicht. Heute ist unser Traffic auf durchschnittlich 200 bis 400 Pageviews pro Tag angestiegen.


Aber wie kommen die Leute auf Ganz einfach: 80%-90% entdecken uns über die Internetsuche nach einem „Höhenprofil“ oder „Geländeprofil“. So etwas nennt man wohl zufällige Suchmaschinenoptimierung oder „accidental search engine optimization (SEO)“.

Mit dieser Beobachtung und dem Artikel von Brian Timoney haben wir uns die Frage gestellt: Wieviele Internetnutzende kommen über Google (et al) direkt zu einer Karte der Schweizer Geoportale, die auch ihrem Suchbegriff entspricht? Wenn ich beispielsweise nach „Antennenstandorte in Meilen“ suche (oder nur nach „Antennenstandorte“, da ich gerade in Meilen bin), erhalte ich nicht sofort einen entsprechenden Kartenausschnitt. Erst nach einigen Klicks und weiteren Suchbegriffen bekomme ich die gewünschte Information und Darstellung auf der Karte.

Das Problem ist, dass Google und andere Suchmaschinen die Objekte in einer interaktiven Webkarte nicht indizieren. Aber unser Anfangsbeispiel zeigt, dass Google potenziell sehr viele Besucher vermitteln kann. Daher lautet die Frage: Wie können wir die Auffindbarkeit von Informationen in Geoportalen verbessern?

„GeoSEO – Findet man Ihre Geodaten mit Google?“ weiterlesen