User Tools

Site Tools


projekte:achtunglawine:al

Table of Contents

FIXME This page is not fully translated, yet. Please help completing the translation.
(remove this paragraph once the translation is finished)

Winterliche Tourenplanung

Räumliche Entscheidungsunterstützung für die winterliche Tourenplanung im Hochgebirge nach den Lehrvorgaben des Deutschen Alpenvereins.

Motivation und Hintergrund

Bislang gab es im Rahmen der deutschen Lawinenausbildung keine einheitliche Lehrmeinung zur Lawinenkunde und die Diskussion der Protagonisten ist bis in die Gegenwart teilweise sehr emotional, und häufig geleitet von der individuellen Erfahrung und Wahrnehmung, geführt worden. Verständlich, dass die Forderung zunehmend lauter wurde, die Entwicklung gemeinsamer Vorstellungen eines praktikablen und risikominimierenden Handlungsschemas für die Praxis statt fruchtloser Diskussionen in den Vordergrund zu stellen (vgl. etwa {[:aval:Schwiersch2008]}). Vor dem Hintergrund der divergierenden Ausbildungsinhalte haben sich 2011 auch die deutschen Verbände, die mit der Lawinenausbildung befasst sind, an den runden Tisch gesetzt, diskutiert und ihre Lehrinhalte (nach dem Schweizer Vorbild) konsolidiert. Kurz vorgestellt wird das Curriculum Achtung Lawinen! im Panorama Beitrag von Hellberg & Semmel Entscheidungsstrategien zur Lawinengefahr, Achtung Lawinen! {[:aval:HellbergSemmel]}. “Inhaltlich” so die Autoren “gibt es keine Revolution: Die Verbände bekennen sich zu einer Kombination von Analytik und Probabilistik mit dem neuen Aspekt der Konsequenzanalyse”. Die Konsolidierungsbemühungen -ein vereinheitlichtes Curriculum für die Lawinenausbildung zu erarbeiten- sind mit “Achtung Lawine!” erstmalig realisiert.

Das DAV-Faltblatt Achtung Lawinen! stellt somit die offizielle Lehrmeinung für das winterliche Risikomanagement im DAV dar {[:aval:DAVAchtungLawine]}. Das Prinzip der SnowCard erscheint dem Anfänger noch eingängig und verständlich. Mit dem neuen Lehrschema drängen sich hinsichtlich der Schneemuster und der Konsequenzanalyse komplexe weitere räumliche Fragestellungen auf, die sich auch nach intensivem Studium der sehr instruktiven Artikel und Lehrbücher (vor allem {[:aval:Harvey2012]}, {[:aval:Harvey42011]}, {[:aval:Nairz]}, {[:aval:Munter2011]}) kaum mit der notwendigen Sicherheit beantworten lassen.

Waren zuvor Exposition und Hangneigung im Gelände selbst von erfahrenen Tourengehern schon schwierig zu schätzen, gibt es nun eine Vielzahl weiterer überwiegend räumlich differenziert wirkender Einflussfaktoren. Als Geograph motiviert räumlichen Problemstellungen auf den Grund zu gehen, soll hier die Arbeitsthese aufgestellt werden, dass mit den derzeit verfügbaren rechnerbasierten Werkzeugen valide räumliche Informationen zur Bewertung der Risikoeinschätzung als auch der Schneesituation im winterlichen Hochgebirge erzeugt werden können. Diese Daten können wertvolle Informationen für die Planung, Durchführung und das Training von winterlichen Hochgebirgsaktivitäten bieten.

Jeder Könner und Experte war Anfänger und hat diesen Zustand überlebt. das Wissen, das Verstehen und die Expertise entstehen in einem langwierigen, komplexen Lernprozess, der im winterlichen Hochgebirge oft lebensbedrohend sein kann. Die resultierenden Erfahrungsmuster bilden durch positive Rückkopplungen dann jene meist als Intuition oder ganzheitliche Expertise wahrgenommen Fähigkeiten der Profis und Experten {[:aval:Mersch2008_4]}.

Sollte obige Arbeitsthese Bestand haben, könnte auf der Grundlage valider räumlicher Lawineninformationen das Erlernen, Begreifen und Verknüpfen der Risiko und Schneemuster für das Bewerten und Entscheiden in komplexen Raumstrukturen beim winterlichen Tourengehen sinnvoll unterstützt werden. Der Weg zur Intuition wäre somit ein wenig sicherer.

Zielsetzung

Rechnerbasierte Entscheidungsunterstützungssysteme können kaum jahrzehntelange, durch Überleben erfolgreich validierte, Expertise ersetzen, jedoch können sie zusätzliche räumliche Informationen verfügbar machen. Sie können kritische Zonen identifizieren und Szenarien und Gefahreneinschätzungen für eine Konsequenzanalyse verfügbar machen. Sie besitzen das Potenzial sowohl Anfänger als auch Könner signifikant darin unterstützen zu können zu lernen wie “gute” Entscheidungen getroffen werden können. Gleichzeitig unterstützen sie die Transformation von Wahrnehmung und Erfahrung in Information und Wissen, das schließlich als validierte intuitive Handlungsgrundlage verfügbar ist. Letztlich können solche Unterstützungs-Systeme hilfreich sein, intuitive Zusammenhänge zu entschlüsseln und auch für Nicht-Experten erschließbar zu machen. Doch wie kann das realisiert werden?

Fragestellung und Arbeitshypothesen

Die übergeordnete Fragestellung lautet: Ist eine signifikante Steigerung des Informationsniveaus für die Entscheidungsfindung winterlicher Hochgebirgsakteure durch die GIS-basierte Entscheidungsunterstützung möglich?

Konkret soll versucht werden die in der aktuellen Lehrmeinung dargestellte Heuristik hinsichtlich ihrer räumlichen Auswirkungen in Informationsebenen bzw. als Risikokarte verfügbar zu machen. Das heißt, es werden aus dem Lawinenbericht die regionalen Daten analysiert und dann in einer räumlichen Anwendung die zur Risikoeinschätzung und Tourenplanung notwendigen Informationen anhand der Heuristiken berechnet. Die erreichbare Maßstabsgröße liegt je nach verfügbaren Geobasis-Daten zwischen 1:500 - 1:50000.

Vor diesem Hintergrund werden folgende übergeordneten Arbeitshypothesen aufgestellt:

  • Auf der Grundlage aktuell verfügbarer Geographischer Informationssysteme (GIS) und Geländedaten können durch Anwendung der bestehenden Regelheuristik raum-kontinuierliche Risikowahrscheinlichkeiten berechnet werden.
  • Die räumlich explizite Information ermöglicht eine effizientere und präzisere Planungsgrundlage als mit konventioneller Kartenarbeit möglich ist.

Grundsätzlich könnte das Werkzeug zu einem heuristischen Entscheidungsunterstützungssystem weiterentwickelt werden, das ein Erlernen intuitiver Raumeinschätzung durch das Abgleichen von Regeln/Wissen und kognitiver Wahrnehmung effektiv unterstützen kann.

Zur Untersuchung der obigen Hypothesen ist es zwingend die beiden etablierten probabilistischen Ansätze der strategischen Lawinenkunde zu untersuchen. Im wesentlichen versuchen die DAV SnowCard und Grafische Reduktionsmethode eine durch das statistische Unfallrisiko begründete Vermeidung von gefährlichen Hangexpositionen und Hangneigungen in Relation zur jeweiligen Lawinenwarnstufe zu erreichen. Die Heuristiken oder Regeln, die beiden Verfahren zugrunde liegen, werden als quasi identisch betrachtet.

Es wird daher folgende methodische Hypothese aufgestellt:

  • Die Grafische Reduktionsmethode und die DAV Snowcard Methode sind bei räumlicher Anwendung in ihrer Risikostufenausweisung nicht ausreichend ähnlich .

Als ausreichend ähnlich soll eine signifikante Korrelation bzw. Ähnlichkeit der räumlichen Risikozonen gelten. Ist diese Ähnlichkeit nicht gegeben wird auf der Grundlage der GR-Methode ein Verfahren entwickelt dass eine zureichende Ähnlichkeit zur SnowCard herstellt.

Struktur der Arbeit

Zunächst wird vor dem Hintergrund der Entwicklung der Lawinenkunde und des resultierenden Risiko-Managements der Versuch unternommen zu identifizieren wo das geplante Werkzeug effektive Unterstützung bieten kann. (aktueller Stand der Diskussion zur strategischen bzw. angewandten Lawinenkunde). Der heuristische Rahmen der Untersuchung orientiert sich strikt am DAV-Lehrplan. Hier gilt es zu identifizieren welche der Analyseebenen auf welcher Skala räumliche Auswirkungen haben und wie diese mit welchen Daten bearbeitet werden können (Methodenkonzept). In einem nächsten Schritt werden die notwendigen und verfügbaren Eingangsdaten analysiert und hinsichtlich ihrer Eignung diskutiert (Daten). Im Anschluss daran wird die aus dem Methodenkonzept abzuleitende Heuristik auf die Daten Übertragen und implementiert (Entwicklung Methodenverbund). Schließlich werden die Ergebnisse vorgestellt (Ergebnisse) und diskutiert (Diskussion).

Ergänzend wird die gesamte Studie als experimentelles WebGIS implementiert und somit der interessierten Öffentlichkeit zur Diskussion gestellt.

Räumliches Risikomanagement

Grundlagen und Hintergründe

In der Zeit vor den 1980er Jahren war die Einschätzung der Potenziale für Lawinenabgänge wenigen Experten oder lokalen Erfahrungswerten vorbehalten. Üblich war es, den Aufbau der Schneedecke auf den Hängen anhand verschiedener Faktoren zu bewerteten und darauf aufbauend eine Einschätzung abzugeben. Für eine vertiefte Betrachtung der historischen Entwicklung zur Lawinenforschung etwa in der Schweiz sei auf die Arbeit von {[:aval:SLFGeschichte]} verwiesen. Die Schnee und Lawinenforschung ist unverzichtbare Grundlage für das physikalische und prozessorientierte Verständnis der Windverfrachtung und gravitativen Verlagerungsprozesse von Schnee, die eng gekoppelt an die physikalischen Umbildungsprozesse der Schneekristalle sind. Dieses Verständnis, eine Vielzahl von Messdaten und die wertvolle Expertise von Fachleuten wird in den jeweiligen Bulletins und Lawinen-Lageberichten zur Beurteilung der aktuellen Situation und der vergangenen und zukünftigen Entwicklung publiziert. Diese Berichte sind unverzichtbar für die regional differenzierte räumliche Beurteilung der Schneesituation.

Das Risikomanagement war vor diesem Hintergrund bis in die 1990er Jahre hinein eine Analyse der Schneedecken und Schneebeschaffenheit zur Ableitung der regionalen Einschätzung der Lawinen-Lageberichte. Es ist bekannt dass innerhalb von Schneedecken sehr komplexe physikalische Vorgänge ablaufen. Diese Vorgänge laufen nicht linear und räumlich nicht homogen ab. Folglich ist die Analyse an Punkt x kein zureichender Prädiktor für Punkt y. Das Resultat dieser einfachen Erkenntnis ist die prinzipielle Unzuverlässigkeit verlässlicher Vorhersagen zur Lawinengefahr auf punktueller analytischer Grundlage. Abgesehen davon, dass es überaus schwierig ist Schneedecken korrekt zu bewerten, da es sich neben dem notwendigen physikalischen Verständnis vor allem um ein kognitives Problem handelt. Für das praktische Risikomanagement sind die analytischen Ansätze offensichtlich problematisch. Die analytische Vorgehensweise war und ist systembedingt mit großen Fehlermargen für ein anwendbares Risikomanagement behaftet. (1) Sie ist nicht räumlich konsistent bzw. homogen, (2) sie erfordert ein extrem hohes Expertenwissen, das aufgrund der subjektiven Wahrnehmung einen unbestimmten Fehler aufweist.

Die Diskussion um neue Wege im praktischen Lawinen-Risikomanagement hat vor allem Werner Munter seit den 1980er Jahren initiiert und entwickelt. Er hat schrittweise und unter großem persönlichen Einsatz ein systemares Konzept zur Risikominimierung entwickelt, dass sich trotz aller Widerstände in weiten Teilen der Lawinenausbildung etablieren konnte {[:aval:Munter1984]}, {[:aval:Munter1992]}, {[:aval:Munter2003]}. Das Munter'sche Risikomanagement-System besteht aus der 3×3 Formel und wird durch die elementare Reduktionsmethode ergänzt. Parallel hierzu hat {[:aval:Engler2001]} mit dem Faktorencheck (Checkpunkte, Szenarien), eine erste praktische Managementmethode entwickelt, die später zur Snow-Card {[:aval:EnglerMersch2001]}, {[:aval:EnglerMersch2006]} weiterentwickelt wurde.

Diese beiden wohl prominentesten praktischen Risikomanagementverfahren werden probabilistische Verfahren genannt, da sie sich aufgrund der Komplexität nicht um die exakte Bestimmung der Faktoren bemühen, sondern versuchen empirische Wahrscheinlichkeiten zu kombinieren, um so eine definierte Risikominimierung zu erreichen. Empirische Grundlage dieser Vorgehensweise sind Messwerte, Statistiken und Analysen die darauf hinweisen dass sehr wenige Risikofaktoren bereits eine hohe Risikowahrscheinlichkeit bedingen, während hingegen einzelne Faktoren hinsichtlich der Risikoabschätzung nur wenig zielführend sind.

Da die probabilistische Methode unbestrittene Schwächen hinsichtlich der situativen Entscheidungsfindung aufweist, ist vornehmlich in vergangenen Jahren die anwendungsorientierte Weiterentwicklung der analytischen Betrachtungsweise vorangetrieben worden. Insbesondere die Protagonisten in der Schweiz und in Österreich formulierten nachdrücklich die Notwendigkeit eine vereinfachte Analytik in Form der Mustererkennung in die Entscheidungsfindung zu integrieren {[:aval:Harvey42011]}, {[:aval:Nairz]}.

Schließlich wird mit der Konsequenzanalyse aktuell ein weiterer wichtiger Faktor in die nähere Betrachtung gebracht.

Holistisches oder heuristisches Risikomanagement?

Das aktuelle DAV-Entscheidungsschema integriert alle etablierten Meinungen und zeigt sowohl Heuristiken als auch analytische Einflussfaktoren auf. Man sollte nun annehmen können, dass somit für den Akteur in winterlichen Hochgebirgsräumen, ein pragmatisches, Handlungsfähigkeit erzeugendes Werkzeug des Risikomanagements zur Verfügung steht. Betrachtet man die Komplexität der Inhalte genauer, so kann jedoch die These formuliert werden, dass viele der Handlungsanweisungen Handlungshinweise (Geländeinterpretation, Schneeinterpretation, Konsequenzanalyse) darstellen, die wiederum nur von hochgradig versierten Experten aufgrund ihrer jahrzehntelangen Erfahrung, also intuitiv oder holistisch, adäquat wahrgenommen, verarbeitet und in günstige Entscheidungen überführt werden können. Wie die nachfolgende Auswahl an Zitaten belegt, ist dieser Zusammenhang den Experten durchaus bewusst:

Besonders provokativ formuliert Munter seine Auffassung hierzu: “Es ging letztlich darum, abstrakt und allgemein formuliert, JA/NEIN-Entscheide zu fällen unter Zufall, Unsicherheit und Komplexität, und zwar oft in Minutenschnelle, und es ging nicht um harmlose Ratespiele […], sondern um Leben und Tod. Deshalb kamen für mich Intuition und persönliche Erfahrung – die üblichen Antworten auf Unsicherheit – in diesem Fall nicht in Frage. Aber wie schafft unser Hirn das? {[:aval:Munter2011]}.”

Darauf weiß auch der Entwickler des Faktorencheck und Snowcard Martin Engler keine andere Antwort als die von Munter verworfene. In sein Kursangebot “Gespür für Schnee” beginnt er mit folgendem Zitat: “Früher, in meiner “wilden Zeit” stellte ich erst mal alle geltenden Lehrmeinungen in Frage und wollte alles direkt erfahren. Dazu gehörte auch der “Spass”, Schnee in Bewegung zu setzten und zu erforschen, unter welchen Bedingungen dies möglich war. Heute bin ich froh, diese Phase überlebt zu haben und von diesen Erfahrungen zu profitieren. ”{[:aval:Engler2012]}.

Jan Mersch relativiert in einem kürzlich erschienenen Beitrag diese Position: “Eine Mischung aus Intuition für Gelände und Verhältnisse und Wahrnehmungsverzerrung hin zum Erträglichen kommt in solcher Situation oft durch. Genau da liegt auch die Hauptschwäche der hochgelobten Erfahrung” und weiter: “Hellwach und hochkonzentriert hilft hier der Instinkt weiter, um die Gruppe unter möglichst optimaler Geländeausnutzung schnell und effektiv weiterzuführen” {[:aval:Mersch2011]}.

Schließlich sei noch Stephan Harvey erwähnt der sich aktuell eindeutig äußert : “Erfahrene Alpinisten und Tourengänger stützen sich bei der Einschätzung der Lawinenproblematik oft auf ähnlich erlebte Situationen in der Vergangenheit. Die Intuition spielt bei ihren Entscheidungen eine wichtige Rolle, da diese Wiedererkennungsmechanismen zum Teil unbewusst ablaufen. Die Erfahrung ist daher ein großer Vorteil bei der Beurteilung der Lawinensituation. Wenn allerdings bei kritischen Situationen mehrmals trotz erhöhtem Risiko keine Lawinen ausgelöst werden, besteht die Gefahr, dass das risikoreiche, den Verhältnissen nicht angepasste Verhalten als richtig und normal eingestuft wird. Diese zunehmende Erfahrung führt dann nicht zu einer besseren Beurteilung.” {[:aval:Harvey42011]}

Die Reihe der Zitate ließe sich beliebig fortsetzen. Sie zeigt das Spannungsfeld zwischen holistischer Bewertung komplexer Zusammenhänge aus intuitiver Erfahrung auf der einen Seite und einer klaren einfachen Heuristik auf der anderen Seite auf. Offensichtlich ist diese ganzheitliche oder holistische Anschauung (nennen wir sie ruhig Intuition) von zentraler Bedeutung für das Beurteilen hochkomplexer Situationen. Dies bestreitet nicht einmal Werner Munter. Schaut man sich nun die Fülle und Detailliertheit der Handlungsanweisungen und Entscheidungshilfen der Schulungsbroschüre auf der einen Seite und die permanente Unsicherheit in der Anwendung und Bewertung dieser Regeln in der Praxis auf der anderen Seite an, so liegt die Vermutung nahe, dass letztlich versucht wurde das intuitive Risikomanagement zur räumlichen Aktion in winterlichen Hochgebirgslandschaften aus allen etablierten (und relevanten) Blickwinkeln zu beschreiben und falls irgendwie möglich in Heuristiken zu packen.

Die Vorgehensweise ist nachvollziehbar. Es ist jedoch anzumerken, dass insbesondere die Interaktion und Kopplung der einzelnen Aspekte aufgrund der Komplexität ihrer Interaktionen kaum nachvollziehbare Planungen und somit Entscheidungen ermöglichen. Durch konventionelle Karten- und Geländearbeit bzw. Integration der Lawinenlageberichte etc. sind die notwendigen Informationen nicht sicher ermittelbar. Zusätzlich sind die integrierten Schneemuster und die sog. Human Factors nur kursorisch genannt. Es gibt kaum Möglichkeiten hinsichtlich unterschiedlicher Szenarienplanung oder belastbarer Regeln diese in die notwendigerweise räumlich durchzuführende Planung zu integrieren. Diese zentralen Defizite sind durch die Wirkungen der Kombinationsmöglichkeiten der Faktoren in ihren gegenseitigen Abhängigkeiten auf die Einschätzung der räumlichen Schneedeckenstabilität begründet. Folglich wird dann allseitig die Forderung nach Erfahrung und Intuition laut. Das heißt das neue Schema ist nur mit der o.a. Intuition, also dem akkumulierten, überlebten Erfahrungsschatz nutzbar. Ob dieser aber anders als durch Überleben erlernt werden kann, sollte für ein derartiges Curriculum eine zentrale Frage sein.

Die Schlussfolgerung ist, dass Achtung Lawinen! zwar das System “Gefahrenmanagement Lawine” nach dem derzeitigen Stand gut beschreibt und auch konzeptionelle Entscheidungshilfen bietet, allerdings sind Anwendbarkeit und Nachvollziehbarkeit sowie die resultierende Lernkurve auf dem Weg hin zu Experten aufgrund ihrer zahlreichen holistisch-intuitiv zu erfassenden Parameter für das angewandte Risikomanagement nur sehr eingeschränkt verwendbar. Hingegen finden die Experten ihre Erfahrung in der Lawinenkunde hinreichend beschrieben. Doch lässt sich diese Erfahrung effizient und risikoarm erlernen? Ist Intuition vermittelbar? Sind die Resultate einer schematischen Bewertung nach der neuen Lehrmeinung mit solchermaßen intuitiven Expertenwissen überhaupt vergleichbar? Wie könnte ein Verfahren aussehen das zumindest Hilfestellungen bietet?

Reduktion der Komplexität durch eine räumlich adäquate Betrachtungsweise

Betrachten wir das Problem aus systemtheoretischer Sicht. Die Entwicklung und der aktuelle Grad der Lawinengefährdung ist ein möglicherweise chaotisches, zumindest aber hochkomplexes System. Dieses System wird aus einer Vielzahl von Zustandsgrößen (Schneekristalle, Umwandlungsprozesse, Windverfrachtungen, Einstrahlung, Relief…) in einem nicht-linear positiv/negativ rückgekoppelten Wirkungsgefüge gebildet. Derart komplexe Systeme können von keinem Gehirn (auch keinem Rechner) der Welt analytisch gelöst werden (vgl. hierzu {[:aval:Bossel2004]}, {[:aval:Vester2002]}, {[:aval:Doerner2003]}). Auch die physikalische Modellierung derartiger Prozesse ist gebunden an die Kenntnis der Anfangs- und Randbedingungen. Falls dieses nicht verfügbar ist, muss parametrisiert werden. Das heißt, es werden nicht explizite Wirkungszusammenhänge in die Berechnung integriert (z.B spezifisches Wissen wie Anrisslinien etc.. Will man also ein anwendbares Risikomanagement, so lautet die Schlussfolgerung, müssen die Unsicherheitsfaktoren und/oder die Komplexität des Wirkungsgefüges reduziert werden, ohne dass es zu einer kritischen Steigerung der Fehleinschätzung kommt.

Für die Planung und Analyse des Geländes ist gute Kartenarbeit zentral, da kann Bruno Hasler bedenkenlos zugestimmt werden {[:aval:Hasler2012]}, allerdings ist es nicht zutreffend zu glauben, dass damit auch nur im Ansatz die aktuellen Möglichkeiten der Informationsgewinnung ausgeschöpft wären. Wohl ganz im Sinne Hasler's kann festgestellt werden, dass bereits bei der grundlegenden Einschätzung des Geländes (sowohl auf der Karte als auch im Gelände) ein wesentlicher Anteil der Planungsunsicherheiten durch Fehlinterpretation aus der mangelhaften räumlichen Beurteilung von Exposition, Hangneigung und Geländeformen erzeugt. Zudem werden die zentralen prozessbasierten Parameter, einerseits die gravitative Massenverlagerung des Schnees, andererseits die durch die meteorologische Einflüsse verursachten Modifikationen der Schneedecke (Windverfrachtungen, Temperatur, Einstrahlung), auch signifikant durch diese Raumstrukturen beeinflusst. Daher erscheint es zielführend an diesem Punkt anzusetzen und die Frage zu stellen wie aus räumlicher Sicht die Komplexität reduziert werden kann, um so evtl. positive Effekte in einer guten Entscheidungsfindung zu befördern. Oder sogar: kann das jahrzehntelange Mustertraining, das ja offenkundig zu einer guten intuitiven Entscheidung befähigt, beschleunigt oder zumindest unterstützt werden? Anders ausgedrückt, können zumindest die räumlich wirksamen Faktoren der Intuition mit Hilfe einer entsprechenden GIS-Analyse in ein multidimensionales Informationsbild (Karte?) “übersetzt” werden?

Konzeption eines Methodenverbunds

Aktuelle Ansätze

In den vergangen zehn Jahren sind auf allen Gebieten der GIS-basierten Analyse und Visualisierung enorme Fortschritte gemacht worden. Diese Fortschritte sind bislang nur in ersten Ansätzen für das Risikomanagement der Akteure im winterlichen Hochgebirge nutzbar gemacht worden. Vorrangig ist die Hazardforschung zur Risiko-Abschätzung und Vulnerabilität tätig. Allerdings gibt es auch vereinzelte Ansätze dieses Wissen in die Tourenplanung und den Winterbergsport einzubringen. Insbesondere die kartographische Analyse und Darstellung steht hier im Fokus (z.B. {[:aval:NairzEckerstorfer2007]}) und zeigt, dass bereits aus einer kartographisch hochwertigen Darstellung ein enormer Informationsgewinn abzuleiten ist {[:aval:Eckerstorfer2008]}. Diesen Ansatz gilt es insbesondere für die Visualisierung der Informationen konsequent auszubauen.

Einen ersten Ansatz die Grafische Reduktionsmethode (GRM) in einer statischen GIS-Analyse für bekannte Skitoren auch kleinräumig durchzuführen, verfolgt ganz aktuell eine Pilotstudie der Beratungsstelle für Unfallverhütung in Bern (bfu) zur Risikoabschätzung für Skitouren {[:aval:Utelli2012]}. Auch einfache Ansätze Lawinenpotenziale räumlich mit GIS abzuschätzen, zeigen brauchbare Ergebnisse (vgl. z.B.{[:aval:Maggioni2003]}, {[ :aval:Zischg2004]}, {[:aval:Kriz2001]}). Hier gilt ebenfalls, dass es nicht darum geht jeden potenziellen Lawinenfall zu modellieren, sondern z.B. die für Tourengeher kritischsten (=hohe statistische Wahrscheinlichkeit verschüttet zu werden) Lawinentypen (Schneebrett) in ihren räumlichen Auswirkungen grob zu bilanzieren. Die formale Reliefanalyse bietet eine Vielzahl methodischer Konzepte und Studien. Als wichtigste Grundlagenarbeiten können beispielhaft {[:aval:Wood1996]} und {[:aval:Loewner2008]} genannt werden. Neben den strukturellen Analysen von Hangneigung und Exposition sowie Mikroreliefstrukturen stellt die Geländeinformationen darüber hinaus auch einen guten Prädiktor für die Schneedeckenverteilung dar {[:aval:Schmidt2009]}.

Entwurf eines Ablaufschemas zur operationellen Einschätzung des räumlichen Lawinen-Risikos

Zur Umsetzung der angesprochenen Ziele müssen die Inhalte des Lehrplans hinsichtlich der räumlichen Implikationen bezogen auf die Entscheidungsheuristik untersucht werden. Grundsätzlich ist die Integration der Geländeeigenschaften auf jeder Skala notwendig und falls Daten in adäquater räumlicher Auflösung vorhanden sind auch möglich. Um eine effektive Analyse zu ermöglichen, wird das räumliche Analyseschema in zwei Teilbereiche unterteilt. Der generelle Ablauf ist der Abbildung 1 zu entnehmen.

<BOOKMARK:a1>  Ablaufschema der räumlichen Analyse des Lawinen-Risikos nach dem Schema Achtung Lawine!

Ablaufschema der räumlichen Analyse des Lawinen-Risikos nach dem Schema Achtung Lawine!

Zunächst müssen die notwendigen Informationen aus dem Lawinenlagebericht identifiziert werden um dann schematisiert als Grundlage für die Berechnung des Lawinenrisikos verfügbar zu sein. Ziel ist es die notwendigen räumlichen und meteorologischen Parameter zur Risikoberechnung für den Nutzer nachvollziehbar auszuwerten und standardisiert an die Analyseroutine zu übergeben.

  • Entwicklung eines Verfahrens zur standardisierten Analyse des Lawinenlageberichts

Im zweiten Schritt werden die Geländeeigenschaften gemäß der Heuristiken und der parametrisierten Informationen aus dem Lawinenlagebericht bewertet. Dieser zweite Schritt wird in folgenden aufeinander aufbauende analytischen Arbeitspakete untergliedert. Aufgrund der möglichen Unterschiede in ihrer Heuristik sind SnowCard und GRM getrennt zu behandeln. Angestrebt wird jedoch eine synthetische bzw. einheitliche Heuristik.

  • Entwicklung eines Verfahrens zur Anwendung der SnowCard (SC)/Grafischen Reduktionsmethode (GRM)
  • Entwicklung eines Verfahrens zur Identifikation von Schnee/Gefahrenmuster auf Grundlage der Geländeformen

Schließlich ist im Sinne der Zielsetzung ein zentrales Ziel die Anwendbarkeit und letztlich die Nutzbarkeit der Ergebnisse mit dem Ziel die Informationen sowohl webbasiert als auch konventionell (Print-Karten) nutzbar zu machen.

  • Entwicklung eines Verfahrens zur kartographischen und mediengerechten Repräsentation der Informationen

Analyse des Lawinenlageberichts

Der Lawinenlagebericht stellt die Grundlage für jede räumliche Analyse der Lawinensituation dar. Seine Auswertung bestimmt sowohl die Risikoeinschätzung als auch eventuelle Variationen der anzuwendenden Heuristik. Jedoch ist die Auswertung des Lawinenberichts aufgrund der hohen Anzahl unterschiedlicher, hierfür zuständiger Institutionen und den aus dieser Situation resultierenden stark variierenden Kommunikationsinhalte und -formate kaum automatisiert durchführbar. Trotz teilweise erheblicher Abweichungen liefern jedoch alle Lawinen-Lageberichte regional differenzierte Aussagen zu den folgenden räumlich relevanten Parametern:

  • Wo ist die Gefahrenstelle?
    • Höhe (maximal 2 Kategorien)
    • Exposition (maximal 8 Sektoren)
    • Geländeform (maximal 4 Kategorien)
  • Was ist dort gefährlich?
    • Gefahren/Schneemuster (maximal 5 Kategorien)
    • Zusatzlast (maximal 2-3 Kategorien)

Im Gegensatz zur Frage wo enthält die Frage was dort gefährlich ist scheinbar keine räumliche Komponente. Jedoch sind die 5 Kategorien (4 Schneemuster und Steilhänge) sehr stark an Reliefformen gebunden. Daher können deratige Formen zumindest einen Schätzwert für die potenzielle Gefährdung bieten.

Räumliche Anwendung der SnowCard/Grafischen Reduktionsmethode

Die im ersten Analyseschritt durchzuführende räumliche Analyse gemäß der SC/GRM Heuristik betrachtet lediglich die folgenden Parameter:

  • Gefahrenstufe/Region
  • Hangexposition
  • Analyse der Hangneigung (je nach Gefahrenstufe/Höhengrenze)

Durch die variable Kombination der Faktoren wird in Abhängigkeit von Exposition, Hangneigung und Höhenstufe je nach Lawinenwarnstufe eine einfache räumliche Risikobewertung vorgenommen. Das Ergebnis dieser Analyse sind raum-kontinuierliche Risikokarten in den drei Kategorien geringes, erhöhtes und hohes Risiko.

Identifikation riskioträchtiger Geländeformen

In einem zweiten Analyseschritt werden die Geländeformen identifiziert die je nach Schneemuster (Neuschnee, Triebschnee, Nassschnee, Altschnee) ein signifikantes Risikopotenzial aufweisen. Diese sind durch eine iterative Analyse des Mikroreliefs zur Identifikation von im Lawinenlagebericht und den Schneemusterheuristiken genannten Formparameter die folgenden Strukturen:

  • Geländebrüche/-übergänge
  • Mulden/Rinnen
  • Rippen/Kämme/Grate
  • Schattenhänge
  • Steilhänge

Identifikation spezifischer Zonen von Schneeverfrachtung

Bei Kenntnis des bodennahen Windfeldes (Windrichtung und -geschwindigkeit einer möglichst nahegelegenen Höhenstation) kann eine grobe Einschätzung der Windverfrachtung von Schnee gegeben werden. Hinsichtlich der Spuranlage und der Schneedeckendicke kann auf diese Weise die Luv- bzw. Leewirkung von Geländestrukturen als Informationsebene berechnet werden.

Visualisierung und Nutzung der Informationen

Als Ergebnis können Risikospots und Zonen mit günstigen/ungünstigen Risikovoraussetzung ausgewiesen werden. In Kombination mit der SC/GRM Analyse liegen somit dann alle Analyseebenen für eine räumlich hochaufgelöste Tourenplanung vor.

Diese räumlichen Informationsebenen werden in einem webbasierten GIS als einzelne Datenebenen (Folien) verfügbar gemacht. Die Multiebenen-Darstellung ermöglicht eine beliebige Skalierung und Kombination der Informationen. Zusätzlich wird eine traditionelle kartographische Darstellung als Printversion generiert. Als Standard wird der Reliefdarstellung des DGMs eine farblich differenzierte Risikostufenkarte überlagert sein. Diese kann mit der korrespondierenden topographischen Karte (je nach Copyright) bzw. freien Informationsebenen (z.B. OpenStreetmap) ergänzt werden.

Daten

In die Analyse gehen neben dem Lawinenlagebericht vor allem unterschiedliche Geobasisdaten ein. Die wichtigste Datenquelle sind digitale Daten der Geländeoberfläche, die Digitale Geländemodelle (DGM) genannt werden. Weiterhin sind ergänzende Information wie z.b. Oberflächenbeschaffenheit und Vegetation für eine weiterführende Klassifikation von Bedeutung. Sowohl die LlB als auch die verfügbaren DGMs weisen qualitative Unterschiede auf. Jede Form der Analyse und in Folge auch der Bewertung und Entscheidungsfindung ist direkt abhängig von der Qualität der eingesetzten Daten. Zur räumlichen, quasi-kontinuierlichen Bestimmung von Höhenwerten, sind rastermodell-basierte Geländemodelle prädestiniert. Bedingt durch den notwendigen Maßstab müssen jedoch die Daten in einer ausreichenden räumlichen Auflösung (ca. 20-40 Meter) vorliegen. Zumindest für die Geländemodelldaten ist dies zwingend, da ansonsten keine ausreichende Genauigkeit in der Analyse erzielt werden kann. Für nachgeordnete raumkontinuierliche Informationsebenen wie z.B. Waldbestände kann evtl. auch eine weniger gute Auflösung ausreichend sein.

Der Lawinenlagebericht

Dem Lawinenlagebericht kommt eine zentrale Bedeutung zu. Er liefert alle wesentlichen Parameter zur Anwendung der Regelwerke im Gelände. Aus allen derzeit verfügbaren Lawinenlageberichten können die zentralen räumlichen Parameter zur Beantwortung bzw. Einschätzung der den beiden wichtigsten Fragen zur Riskioeinschätzung abgelesen werden: Wo ist die Gefahrenstelle? (Höhe, Steilheit, Exposition, Geländeform) und Was ist dort gefährlich? (Schneemuster, Zusatzlast). Ungeachtet der zum Teil erheblichen Unterschiede in der Aufbereitung der Berichte und zusätzlicher Detailklassifikationen, wird für diese Untersuchung das Glossar des European Avalanche Warning Services (EAWS) zur Ableitung der Kenngrößen und Begriffe herangezogen {[:aval:eaws]}.

Zwar nutzen alle Lawinenlage-Berichte prinzipiell vergleichbare grafische Symbole, jedoch sind weder die Texte noch die technischen Bericht-Formate maschinenlesbar, eindeutig kodiert oder auch nur vergleichbar strukturiert. Das Fehlen einer eindeutigen und vereinheitlichten Kodierung (sowohl textuell als auch graphisch) stellt für jeden Nutzer eine erhebliche Fehlerquelle dar, die durch fehlende Transparenz und Reproduzierbarkeit zudem Handlungsunsicherheit erzeugt. Zusätzlich ist die Qualität der Interpretation des Lawinenlageberichts erheblich von den meteorologischen, physikalischen und praktischen Kenntnissen des Interpreten abhängig. Dies gilt vor allem für den Witterungsverlauf und die darauf basierenden Hinweise auf den aktuellen und zukünftigen Schneedeckenaufbau. Diese Einschätzung modifiziert die zentrale Aussage eines jeden Bulletins hinsichtlich der Warnstufen in Form von Zu- bzw. Abschlägen auf die Warnstufe.

Derzeit ist der Aufwand die notwendigen Informationen automatisch aus den Berichten zu dekodieren (1) mit zu hohem Aufwand verbunden und (2) extrem fehleranfällig. Die Auswertung erfolgt daher manuell über eine webbasierte, strukturierte Eingabemaske. Diese Vorgehensweise bietet den enormen Vorteil, dass der Nutzer eine möglichst korrekte Analyse der notwendigen räumlichen Risiko-Parameter, die immer auch seine persönliche Interpretation mit einschließt, aus der Vielzahl der Berichte eigenverantwortlich vornehmen muss. Diese Werte werden dann als standardisierte Eingabeparameter zur automatisierten Analyse weitergeleitet.

Um zu einem verlässlichen Analyserahmen zu gelangen, muss die minimal notwendige räumliche Information aus den Berichten gefiltert werden. Diese sind:

  • Geographische Koordinaten des zu analysierenden Gebiets (Länge, Breite in Dezimalgrad)
  • Region (Gültigkeit der Vorhersage)
  • Höhenlage (Schwellwert zur Identifikation von gefährlichen Höhenlagen)
  • Kritische Exposition
  • Lawinenwarnstufe Tiefenlage
  • Lawinenwarnstufe Höhenlage
  • Gefahrenmuster Tiefenlage (Neuschnee, Triebschnee, Nassschnee, Altschnee)
  • Gefahrenmuster Höhenlage (Neuschnee, Triebschnee, Nassschnee, Altschnee)
  • Gefahrenmuster Steilhang
  • Gefahrenmuster Sonnhang/Schatthang
  • Individueller Zu- bzw. Abschlag auf die vorhergesagte LWS (+/- 0,25 - +/- 1)

Für die Methodenentwicklung wurde ein einfaches Webformular als Nutzerschnittstelle für die manuelle Auswertung des Lawinenlageberichts implementiert (siehe Abbildung 2). Die Eingabemaske des Web-Portals der Lawinenriskoanalyse überträgt die ausgewählten Werte und startet den Analyselauf auf dem Server. Die Ergebnisse werden dann auf dem WebGIS-Server verfügbar gemacht.

<BOOKMARK:a2>  Screenshot des Webportals für die Steuerung der Risikoanalyse. Hier: Eingabemaske für die Informationen aus den Lawinenlageberichten

Screenshot des Webportals für die Steuerung der Risikoanalyse. Hier: Eingabemaske für die Informationen aus den Lawinenlageberichten

Digitale Geländemodelle

Aus wissenschaftshistorischer und geographischer Sicht gibt es eine lange fachübergreifende Diskussion zur kognitiv-ästhetischen, orographischen, morphologischen und morphometrischen Bestimmung von Geländeformen im Relief. Dies gilt um so mehr für die Bestimmung der Begriffe Berge, Grate Runsen, Rippen, Sattel Mulden, Gipfel etc.. Einen guten Überblick dieser Diskussion bietet {[:aval:Rasemann2004]}. Für ein Analysekonzept müssen diese kontroversen Definitionen auf ihre Eignung als Proxys für die Bewertung der Schneedeckensituation dienen zu können, diskutiert werden. Ihre Eignung ist natürlich eng gekoppelt an die physikalischen Wirkungsgefüge und nicht an die beschreibende, ästhetische Wahrnehmung des Formenschatzes. Vor diesem Hintergrund kommt der Qualität der digitalen Geländemodelle erhebliche Bedeutung zu.

Die räumliche Auflösung der aktuell (kommerziell) verfügbaren amtlichen DGMs ist signifikant höher (i.d.R. 0,1 - 1 Meter) als die Auflösung konventioneller, topographischer Kartenwerke bzw. der verfügbaren Wander- und Tourenkarten (Massstab 1:25000 - 1:50000). So wird im Freistaat Bayern seit 2001 seitens der Bayrischen Vermessungsverwaltung zur Erfassung des DGM das Airborne Laserscanning eingesetzt, das eine horizontale Gitterauflösung von 1 Meter bei einer Höhengenauigkeit besser ± 0,2m und einer Lagegenauigkeit ca. ± 0,5m ermöglicht {[:aval:bayvem]}. Vergleichbare Daten sind auch für die Schweiz und Österreich verfügbar. Für das Land Tirol werden sich erfreulicherweise in einer Auflösung von 10 m unter einer Creative Commons Lizenz kostenfrei verfügbar gemacht {[:aval:tiroldgm]}. Die räumliche Auflösung der frei verfügbaren Tiroler Geländemodelldaten ermöglicht einen Kartenmaßstab von unter 1:10000. Die resultierenden Analyse-Ergebnisse, insbesondere zur Geländestruktur, sind somit signifikant besser als die konventioneller Kartenwerke.

Trotz einiger Einschränkungen bieten sich für den gesamten Alpenraum die ASTER GDEM2 Höhenmodell-Daten an, die für wissenschaftliche und Community-Projekte frei zum Download stehen, also vom Lizenzrecht für eine Anwendung wie die geplante im genehmigten Anwendungsbereich sind. Der ASTER Sensor(Advanced Spaceborne Thermal Emission and Reflection Radiometer) ist einer der Sensoren an Bord des NASA Erdbeobachtungssatelliten Terra. Er nimmt im nahpolaren Orbit multispektrale Bilder und Höhendaten mittels Stereobildmessungen von der Erdoberfläche auf (“ASTER Mission” 2004). Das ASTER GDEM hat eine nominelle Auflösung von 1 Bogensekunde. Die horizontale Auflösung eines Höhenwertes im Alpenraum entspricht damit ca. 27,5×27,5 m (vgl. a. {[:aval:Jacobson]}, {[:aval:Tachikawa2011]}). Die erreichbare maßstäbliche Auflösung liegt somit etwa bei 1:40000 also etwa im Bereich handelsüblicher Wanderkarten. Neben der räumlichen ist die vertikale Genauigkeit von erheblicher Bedeutung für die Untersuchung. Hierbei geht es weniger um die Höhenwerte als vielmehr um die korrekte Wiedergabe der Geländeformen. Das GDEM2 weist in der Höheninformation systematisch zu niedrige, gekappte Höhenwerte auf. Auch in der räumlichen Struktur erscheinen systematische Artefakte wie Hangstufen. Allerdings sind die aus dem GDEM2 abgeleiteten Werte wie Hangneigung und Exposition signifikant weniger rauschanfällig und liefern sinnvollere weil realitätsnahe Ergebnisse (vgl. hierzu {[:aval:Suwandana2012]}). Im Vergleich zu den anderen verfügbaren Höhenmodelldaten (GDEM1, SRTM) erscheint das GDEM2 geeigneter für die angestrebte Risikoberechnung, da die gekappten Höhenwerte in Grat- und Gipfelzonen liegen, während die Hangstufen insgesamt mehr Höheninformationen zur Verfügung stellen. Die auftretenden und die Streifen-Artefakte können durch einen adaptiven Richtungsfilter weitgehend und verlustarm geglättet werden.

Die alpenweite operationelle Implementierung des Verfahrens erfolgt auf der Grundlage der frei verfügbaren ASTER-DGM-Daten. Die ASTER Höhendaten ermöglichen die Abdeckung des gesamten Alpenraums in gleichwertiger Datenqualität.

Im Hoheitsbereich des Landes Tirol (Österreich) werden für die Analysen die frei verfügbaren amtlichen 10 Meter Geländedaten verwendet. Auf diesen Daten ist auch die weiter unten gezeigte Vergleichsstudie durchgeführt worden.

Damit unterschiedliche Datenqualität nicht zu Fehlinterpretationen führen werden dem Nutzer zu jeder Analyse Maßstabsebene und Datenqualität mitgeteilt.

Datenvorverarbeitung

ASTER

  • Projizieren des GDEM2 auf UTM 31/32/33 Nord WGS84
  • Filtern der GDEM2 Daten zur Hangstufenkorrektur (Adaptiver Filter nach {[:aval:Lee1998]})

DGM Land Tirol

  • Zusammenführen und Homogenisierung der einzelnen Datensätze
  • Projizieren des Daten von MGI West auf UTM 32/33 Nord WGS84
  • Ergänzen des Datensatz in Randgebieten mit ASTER GDEM2 Daten

Skalenabhängige Bewertung der Geländeeigenschaften (Reliefanalyse)

Die Einschätzung und Wahrnehmung des Geländes spielt die zentrale Rolle in der Analyse und Festlegung einer risikoarmen Spuranlage. Im Gelände obliegt dies der intuitiven, kognitiven Interpretation aller Parameter. Nutzt man GIS als Werkzeug, wird aus dieser holistischen Interpretation eine formale Analyse, die Ableitungen aus der Höheninformation als Proxys (Schätzmaße) für die Risikobewertung der Geländeeigenschaften nutzt. Hier gilt es geeignete Maße und Ableitungen zu identifizieren und zu validieren. Die übliche Methode ist z.B. die formale, quantitative Ableitung der von Hangneigung und Exposition aus den Höheninformationen des DGMs {[:aval:Burrough1998]}. Da alle Risikoschemata variable und letztlich qualitative Raumeinschätzungen vornehmen, müssen die Informationen des Lawinen-Lageberichts für jede Region und Höhenstufe auf die Geländeform angewendet werden. Diese flexible und iterative Vorgehensweise ist zwingend erforderlich, da wichtige Grundparameter wie z.B. die Hangneigung je nach Lawinenwarnstufe oder das Mikrorelief je nach Schneemuster als unterschiedlich risikoträchtig einzuschätzen sind.

Für die Implementierung der SC/GRM werden die folgenden Parameter aus dem digitalen Geländemodell berechnet:

  • Höhe
  • Hangneigung
  • Exposition

Hangneigung: Auf einer Gelände-Oberfläche ist die Hangneigung an einem Punkt gegeben durch die Tangentialebene. Das steilste Gefälle auf dieser Tangentialebene bezeichnet man als Neigung (engl. slope). Die Neigung lässt sich aus den Ableitungen der Oberfläche in der Richtung der x-Koordinate und derjenigen in Richtung der y-Koordinate berechnen.

Exposition: Die Exposition beschreibt die Winkel-Richtung (im Uhrzeigersinn auf Nord beginnend) des steilsten Gefälles der Tangentialebene, folglich die Himmelsrichtung in die der Hang ausgerichtet ist.

Visualisierung der Daten - Schummerungskarte, klassifizierte Hangneigung und Exposition

Die Qualität und Eignung der ASTER GDEM2 Daten für die Risikoanalyse ist bereits im Kapitel Daten diskutiert worden. Hier sollen die generierten Kartenebenen visualisiert werden. Gezeigt wird die Printversion der Ergebnisse Abbildung 3. Die Online verfügbare Webversion ist aufgrund der Lizenbedingungen der verwendeten Webdienste optisch geringfügig anders.

Nachfolgend ist die Darstellung des Geländemodellausschnitts als Schummerungskarte, die mit einer intuitiv zu interpretierenden an physische Karten angelehnten Farbskala dargestellt wird, zu sehen. Zur Schummerungsberechnung wird ein abgewandeltes Verfahren nach {[:aval:Hoepke2012]} verwendet. Sie unterstützt die visuelle Interpretation von eindeutigen Geländestrukturen erheblich. <BOOKMARK:a3>  Darstellung des digitalen Geländemodells (ASTER GDEM2) als Schummerungskarte  für den Raum Oberstdorf/Allgäu Darstellung des digitalen Geländemodells (ASTER GDEM2) als Schummerungskarte für den Raum Oberstdorf/Allgäu

Die Abbildung 4 zeigt die gemäß den Hangrisikoklassen der SnowCard und GRM klassifizierte Hangneigung in Grad sowie die aus dem Fallbeispiel berechnete Expositionskarte für günstige bzw. ungünstige Expositionen. <BOOKMARK:a4>  Klassifizierte (nach den SnowCard/GRM Hangrisikoklassen) Hangneigung (links) und günstige/ungünstige Exposition (rechts). Grundlage ist der Lawinenlagebericht für den bayerischen Alpenraum Samstag 11.02.2012 07:30 Uhr

Klassifizierte (nach den SnowCard/GRM Hangrisikoklassen) Hangneigung (links) und günstige/ungünstige Exposition (rechts). Grundlage ist der Lawinenlagebericht für den bayerischen Alpenraum Samstag 11.02.2012 07:30 Uhr

Methoden

Entwicklung eines räumlichen Algorithmus der Heuristiken von SnowCard und GRM

So einleuchtend und anwendungsorientiert beide Methoden erscheinen, in der datengestützten Analyse ist die auf kognitive Umwelteinschätzung ausgerichtete Heuristik beider Verfahren nur mit Einschränkungen umsetzbar. Dies liegt sowohl in der Intention ein einfaches Werkzeug für den Anwender verfügbar zu machen als auch in der konkreten Ableitung der Risikoeinschätzung begründet. In Kürze können folgende Problembereiche angesprochen werden:

  • beiden Methoden konstruieren aus Lawinenunfalldaten pseudo-quantitative kontinuierliche Annahmen zur Risikoeinschätzungund und implizieren sowohl über die Lawinenwarnstufen als auch über die Hangneigung kontinuierliche Risikoverläufe
  • Konkret werden jedoch trotz des implizit kontinuierlichen Risikozuwachs real nur 4 diskrete Lawinenwarnstufen und 3-4 Hangneigungsklassen berücksichtigt
  • die GRM weist eine unklare Heuristik in der Kombination von ungünstiger Exposition und gefühltem Risiko auf
  • Trotz der visuell großen Ähnlichkeit beider Methoden sind die abgeleiteten Risikoeinschätzungen vor allem in der Lawinenwarnstufe 2 und 3 (also den beiden unfallträchtigsten) erheblich und führen im Gelände häufig zu gegensätzlichen Einschätzungen

Diese konzeptionell begründeten Probleme können unterschiedlich behandelt werden. Im Gelände wird vom Nutzer die Hangneigung , Exposition und das subjektive Risikogefühl in der Regel nur sehr unpräzise geschätzt. Die resultierende Ungenauigkeit überführt so die eigentlich trennscharfe, kategoriale Klassifikation der Parameter (Hangneigung, Exposition, LWS) in eine als “fließend” empfundene Risikobewertung gemäß der in beiden Methoden verwendeten kontinuierlichen Farbskalen. In Folge fühlt sich der Tourengeher z.B. eher im roten als im grünen Risikobereich. In einer objektiven, automatisierten Regelanwendung ist diese subjektive und stark psychologisch beeinflusste Einschätzung so nicht reproduzierbar. Das heißt es müssen eindeutige Regeln und Heuristiken für die Risikoeinschätzung Verwendung finden.

Ein möglicher Ansatz ist die Unterteilung der Lawinenwarnstufen eins bis vier in Schritte die kleiner eins sind, z.B. 0.0, 0.25, 0.5, … 4.5. Ein derartiges Vorgehen stellt gewissermaßen eine willkürliche Interpretation der von den Institutionen ausgegebenen LWS seitens des Anwenders dar. Die LWS sind jedoch nicht metrisch skaliert sondern bieten eine ganzheitliche Einschätzung der Lawinensituation. Allerdings können die ohnehin in den Lawinen-Lageberichten angesprochenen Tendenzen der Lawinenlage-Entwicklung über den Tag eine Einschätzung von Lawinenwarnstufen im Übergang als steigende und sinkende Risikowahrscheinlichkeiten interpretiert werden. Für die GRM wird sogar explizit bei Unsicherheit etc. eine subjektive Erhöhung der amtlich ausgegebenen LWS fordert. In einer quasi kontinuierlichen Skala könnte eine Möglichkeit die subjektive Wahrnehmung der Anwender in einer Klassifikation abzubilden, geschaffen werden.

Die zweite Möglichkeit wäre die Hangneigung in eine kontinuierliche Risikoskala zu überführen. Dies erfordert jedoch in Bezug auf die Lawinenwahrscheinlichkeiten in unterschiedlichen Schneesituationen und Hangneigungen geeignete und angepasste Transferfunktionen des Unfallrisikos in Lawinen. Auch wenn jede Physik vernachlässigt würde, müssten die verfügbaren Daten über Lawinenabgänge, Schneesituationen und Auslöser in einer entsprechenden multiplen Regressionsanalyse auf die Hangneigung hin analysiert werden um so zu einem belastbaren Zusammenhang zu gelangen. Mit diesem Ansatz würden quasi neue Grafische Bewertungssysteme geschaffen die entsprechend abweichend von der Snowcard und der GRM sind. Dieser Ansatz ist für eine effiziente rechnerbasierte Berechnung der Risikostufen sicherlich vielversprechend setzt jedoch nicht die existierenden Lehrmeinung um.

Vor diesem Hintergrund wird ein mehrstufiges Verfahren erprobt. Die Risikokategorien der grafischen Methoden weisen die drei relevante Stufen gering, erhöht und hoch aus. Diese Stufen werden in den grafischen Charts recht eindeutig durch die Farben grün, orange und rot symbolisiert. Ein automatisiertes Verfahren sollte diese Kategorien möglichst treffsicher abgrenzen können. Hinsichtlich der Risikoeinschätzung und der Anwendung sind beide Verfahren sehr unterschiedlich umgesetzt worden. Die SnowCard weißt nichtlineare Riskoverläufe für die beiden unterschiedlichen Expositionen auf, während die GRM lineare Zusammenhänge von Risiko und den Determinanten annimmt. Zusätzlich ist die Lesart der GRM im Original in eine 4×4 Matrix von LWS und Hangneigungsklassen eingeteilt - kennt also keine Kontinuität.

Für die Grafische Reduktionsmethode werden daher zwei unterschiedliche Verfahren getestet:

  • Kategoriale Interpretation der Lawinenwarnstufen und Hangneigungen (siehe Abbildung 5). Die Risikoberechnung wird gemäß der GRM-Heuristik in der Matrix der 4 Hangeignungsklassen x 4 Lawinenwarnstufen angewendet (GRM 1 bzw. konventionelle Klassifikation).
  • Funktionale Interpretation der Lawinenwarnstufen und Hangneigungen (siehe Abbildung 6). Die Risikoberechnung wird gemäß der GRM-Heuristik für die Hangneigung kontinuierlich und für die 4 Lawinenwarnstufen quasi-kontinuierlich in 0.25 Dezimalschritten durchgeführt. Zur Anwendung kommenen direkt aus dem gegebenen Farbverlauf des GRM-Diagramms abgeleitete lineare Diskriminanzfunktionen (GRM 2).

In einem zweiten Schritt wird diese grafisch begründete Abgrenzung gegen die DAV SnowCard Risikoeinschätzung durch Verschieben der Diskriminanzgeraden optimiert. Zielk ist es eine weitgehend ähnlich und systematisch unverzerrte Risikoeinschätzung beider Verfahren zu entwickeln.

Der SnowCard Methode des DAV kann bedingt durch das abweichende Regelwerk, das vor allem die ungünstige Exposition stark abweichend bewertet, als auch dem vollständigen Fehlen einer kategorialen Betrachtung des hangneigungsabhängigen Risikos, nur ein funktionales Bewertungsverfahren zugrunde liegen. Mit Hilfe einer kontinuierlichen Farb-Matrix erzeugt die Snowcard von Grün über Gelb, Orange bis Rot, ein Risiko-Kontinuum. Dieses Farbkontinuum zeigt zwar eindeutige grüne und rote Risikozonen (und somit indirekt auch nicht grüne und rote Zonen), jedoch sind diese nicht linear wie in der GRM und zudem in ihrem Verlauf vollständig unterschiedlich für günstige und ungünstige Expositionen (siehe Abbildung 10).

  • Funktionale Interpretation der Lawinenwarnstufen und Hangneigungen (siehe <imgref a7>). Die Risikoberechnung wird gemäß der SC-Heuristik für die Hangneigung kontinuierlich und für die 4 Lawinenwarnstufen quasi-kontinuierlich in 0.1 Dezimalschritten durchgeführt. Zur Anwendung kommen aus dem Diagramm abgeleitete polynomische Diskriminanzfunktionen.

GR-Methode

GR-Methode Verfahren 1

Die Klassifikation nach der grafischen Reduktionsmethode (GRM) ist für Anwender nicht unproblematisch, da es keine eindeutige Heuristik gibt. Zwar sind die kritischen Hangneigungen in den unterschiedlichen Lawinenstufen benannt, jedoch besteht erheblicher Interpretationsspielraum hinsichtlich der als günstig bzw. ungünstig zu bewertenden Expositionen bzw. Situationen. Dies wird über eine individuelle Verschiebung der LWS durch den Nutzer bestimmt. So schlägt das Regelwerk der GRM vor, bei Unsicherheit eine LWS höher zu anzunehmen. Dies ergibt auf der Grundlage des Konzepts des Lawinenwarnberichts keinen sinn da hier die räumliche Anordnung und Wahrscheinlichkeit von Lawinenabgängen und der Schneesituation in einer nicht als linear zu betrachtenden Weise kategorisiert wird. Durch das starre grafische Raster (vgl. <imgref a5>) können so maximal 16 Risikokombinationen auftreten. <BOOKMARK:a5>  Fließdiagramm der GRM-Klassifikation  Kategoriales Verfahren

Fließdiagramm der GRM-Klassifikation Kategoriales Verfahren

GR-Methode Verfahren 2

Zur Erzeugung reproduzierbarer Risikoeinschätzungen wird die LWS als die Mitte (Lagewert) der der jeweiligen grafischen Säule der Lawinenwarnstufe interpretiert. Auf dieser Grundlage können lineare Gleichungen als Diskriminanzfunktionen bestimmt werden und so die 3 Zonen geringes, erhöhtes und hohes Risiko ausgewiesen werden (vgl. <imgref a6>). Diese Herangehensweise erfasst unmittelbar das zugrundeliegende Farbspektrum des GRM Charts und somit die ursprüngliche Ableitung aus den Unfallrisikozahlen. <BOOKMARK:a6>

Fließdiagramm der GRM-Klassifikation Funktionales Verfahren

Es gelten folgende Gleichungen:

~~~~~~~~~~~~~~~~~~~~~
Ungünstige Exposition

Geringes Risiko 
LWS < -0.2 * slope  + 8,5 
    
Erhöhtes Risiko
LWS >=  -0.2 * slope  + 8,5
LWS <=  -0,2 * slope  + 10.4

Hohes Risiko
LWS > -0,2 * slope  + 10.4 

~~~~~~~~~~~~~~~~~~~~~
Günstige Exposition

Geringes Risiko 
LWS < -0.2 * slope  + 9,5 
    
Erhöhtes Risiko
LWS >=  -0.2 * slope  + 9,5
LWS <=  -0,2 * slope  + 11.4

Hohes Risiko
LWS > -0,2 * slope  + 11.4 

mit:
LWS   = Aktuelle Lawinenwarnstufe des Pixels 
slope = Hangneigung des Pixels in Grad

Vor dem Hintergrund dass die SnowCard durch ihre nichtlineare Unterscheidung der Risikobewertung insgesamt ein deutlich differenzierteres Bild liefert und gleichzeitig eine signifikant konservativere Einschätzung des Risikos vornimmt, erscheint es sinnvoll die linearen Gleichungen der funktionalen Klassifikation der GRM auf die Wahrscheinlichkeitsverteilung und die Einschätzung der Risikotendenz der Snowcard hin zu optimieren. Diese Optimierung erfolgt durch eine unabhägig voneinander durchgeführte iterativer Verschiebung der Diskriminanzgeraden jeweils für günstige und ungünstige Expositionen. Die Optimierungsbeedingugn gilt als erfüllt wenn ein minimaler Bias zu den Klassifikationswahrscheinlichkeiten der DAV SnowCard erreicht ist vgl. Abbildung 10).

Die nachfolgende Abbildung (vgl. <imgref a9>) zeigt die gemäß der SnowCard optimierten Gleichungen eingetragen in die GRM-Grafik.

Fließdiagramm der GRM3-Klassifikation. Auf Passung mit der SnowCard optimiertes funktionales Verfahren

Es gelten folgende Gleichungen:

~~~~~~~~~~~~~~~~~~~~~
Ungünstige Exposition

Geringes Risiko 
LWS < -0.2 * slope  + 7,5 
    
Erhöhtes Risiko
LWS >=  -0.2 * slope  + 7,5
LWS <=  -0,2 * slope  + 9.81

Hohes Risiko
LWS <=  -0,2 * slope  + 9.81

~~~~~~~~~~~~~~~~~~~~~
Günstige Exposition

Geringes Risiko 
LWS < -0.2 * slope  + 8,85
    
Erhöhtes Risiko
LWS < -0.2 * slope  + 8,85
LWS <=  -0,2 * slope  + 10.48

Hohes Risiko
LWS <=  -0,2 * slope  + 10.48 

mit:
  * LWS   = Aktuelle Lawinenwarnstufe des Pixels 
  * slope = Hangneigung des Pixels in Grad

DAV SnowCard

Die Klassifikation nach der SnowCard weist eine transparente Heuristik auf. Sie unterscheidet in ungünstige und günstige Exposition, die je nach LWS interpretiert werden. Die Schwierigkeit in der Anwendung der SC ist, dass dem Anwender durch Ablesen der Hangneigung über eine nichtlineare farbliche Visualisierung überlassen wird, wo er sein Risiko “sieht”. Konkret impliziert das Farbkontinuum zwar eine differenzierte Einschätzung des Risikos und somit eine hohe Genauigkeit, bietet jedoch ebenso wenig wie die GRM nachvollziehbare Regeln zur Festlegung dieses “gefühlten” höheren oder niedrigen Risikos an. Die SnowCard impliziert je nach Farbsehfähigkeit des Betrachters 5 Farb-/Risikostufen. Es weist damit eine scheinbar differenziertere Risikoeinschätzung als die GRM auf, jedoch sind die Farbklassen weder gleichmäßig gespreizt noch definiert. Es gibt vielmehr jeweils “schmale” Übergangszonen. Aus diesem Grund wurden die subjektiv als “blass-grün”, gelb, orange und “blass-rot-orange” empfundenen Farbstufen in die mittlere Kategorie “erhöhtes Risiko” zusammengefasst.

Zur Operationalisierung der SC Methode wurde daher die kontinuierliche Risikomatrix mit Hilfe zweier Diskriminanzfunktionen von kontinuierlichen Risikowerten in kategoriale Risikozonen überführt. Diese unterscheiden entsprechend der GR-Methode zwischen die 3 Zonen geringes, erhöhtes und hohes Risiko. Anders als bei der GRM ist der Grenze zwichen diesen Zonen nicht linear. sondern mit polynomischen Funktionen gefittet (vgl. <imgref a7>).

Fließdiagramm der SnowCard Klassifikation

Es gelten folgende Gleichungen:

~~~~~~~~~~~~~~~~~~~~~
Ungünstige Exposition

Geringes Risiko
LWS <  6990.6641-745.17183*SLOPE+26.492177*SLOPE^2-0.31399208*SLOPE^3

Erhöhtes Risiko
LWS <  6990.6641-745.17183*SLOPE+26.492177*SLOPE^2-0.31399208*SLOPE^3
LWS <= y=-26.171968+3.0930333*SLOPE-0.098785582*SLOPE^2+0.00097210514*SLOPE^3

Hohes Risiko
LWS >  y=-26.171968+3.0930333*SLOPE-0.098785582*SLOPE^2+0.00097210514*SLOPE^3

~~~~~~~~~~~~~~~~~~~~~
Günstige Exposition

Geringes Risiko 
LWS <  64.61382-4.8180388*SLOPE+0.12444832*SLOPE^2-0.001090499*SLOPE^3 
    
Erhöhtes Risiko
LWS >=  64.61382-4.8180388*SLOPE+0.12444832*SLOPE^2-0.001090499*SLOPE^3
LWS <=  7.0674603+0.014440035*SLOPE-0.0063932981*SLOPE^2+0.000085733882*SLOPE^3 

Hohes Risiko
LWS > 7.0674603+0.014440035*SLOPE-0.0063932981*SLOPE^2+0.000085733882*SLOPE^3 


mit:
LWS   = Aktuelle Lawinenwarnstufe des Pixels 
SLOPE = Hangneigung des Pixels in Grad

Ergebnisse der Klassifikationen

Die Umsetzung der beiden unterschiedlichen Heuristiken von SnowCard und GRM erzeugt zwingend Abweichungen in der Risikoklassifikation. Diese Abweichungen können trotz visueller Ähnlichkeit der Entscheidungshilfen erheblich sein und sind daher auf eine systematische Abweichung zu prüfen. Da die zugrunde liegenden Grafiken quasi-kontinuierliche Risikoverläufe beschreiben, ist die Aufintegration der jeweiligen durch die Diskriminanzfunktionen bestimmten Flächenanteile notwendig um die durch die Heuristik bedingten Unterschiede der drei Risikoklassen festzustellen. Für die originale Anwendung der GRM müssen die Flächenanteile der Kästen berechnet werden. Jedoch sagt eine etwaige Abweichung der drei Methoden untereinander nichts über die Validität der Klassifikationen aus. Lediglich ein systematisch durch die Regelwerke erzeugter Bias der Schemata im relativen Vergleich zueinander wird so untersucht. Indes gestaltet sich dieser Vergleich durchaus problematisch da trotz Angleichung der minimal bzw. maximal zu berücksichtigenden Hangneigung auf 27 bzw. 42 Grad die Snowcard ein quasikontinuierliches Risikospektrum aufweist, das durch die Diskriminanzfunktion entlang der grünen/gelben bzw. orange/roten “Farbgrenze” in die drei Risikokategorien eingeteilt wird. Gleiches gilt für die funktionale Variante der Grafischen Reduktionsmethode (GRM2). Leichter gestaltet sich das Auszählen der originalen GRM (GRM1) da hier feste Schwellenwertein 5 Grad Hangklassen und Lawinenwarnstufen vorliegen. Trotz dieser Einschränkungen ist dieses Vorgehen sinnvoll, da die Risikokategorien beider Verfahren dreistufig angegeben sind. Vergleicht man die Ergebnisse der auf der Grundlage der <imgref a5>, <imgref a6> und <imgref a7> dargestellten Heuristiken erzeugten Risikohäufigkeiten, ergibt sich folgendes Bild (vgl. <imgref a8>):

Vergleich der Klassifikationswahrscheinlichkeiten der drei Risikostufen geringes, erhöhtes und hohes Risiko für die SnowCard, GRM1 und GRM2

Die Abbildung zeigt die gesamten Anteile der jeweiligen Risikoklasse bezogen auf die Heuristik (SC,GRM1,GRM2) und aufgeteilt nach günstiger bzw. ungünstiger Exposition. Als GRM1 wird die konventionelle Weise die GRM Grafik zu interpretieren verstanden, während GRM2 die Anwendung der linearen Diskriminanzfunktionen zugrunde liegt.

Auffallend sind die erheblichen Unterschiede in der Verteilung der drei Riskoklassen dieser prinzipiell für substituierbar gehaltenen Methoden. Als sehr kritisch sind vor allem die Abweichungen im orangen (erhöhten) und roten (sehr hohen) Risikobereich anzusprechen. Grundsätzlich schätzt die SnowCard Risiko konservativer ein hat also ein höheres Sicherheitspotenzial da es sowohl bei günstiger als auch ungünstiger Exposition höhere Wahrscheinlichkeiten auf erhöhtes und hohes Risiko und für geringes Risiko eine niedrigere Wahrscheinlichkeit ausweist als die GRM. Besonders deutlich wird dies gegenüber der konventionellen GRM die eine fast doppelt so hohe Wahrscheinlichkeit in günstigen Expositionen für geringes Risiko ausweist als die Snowcard.

Gleiches gilt für ungünstige Expositionen. Hier sind die sehr hohen Riskikowahrscheinlichkeiten beider Ansätze erfreulicherweise ähnlich, jedoch weist die GRM eine fast vierfach höhere Wahrscheinlichkeit auf geringes Risiko aus als die Snowcard. Invertiert hierzu ist die Klassifikation der erhöhten Risikowahrscheinlichkeit.

Die GRM 2 zeigt insgesamt Klassifikationswahrscheinlichkeiten die zwischen der SnowCard und der konventionellen Interpretation der GRM liegen.

Vergleicht man die Klassifikationswahrscheinlichkeiten von DAV SnowCard und GRM für LWS und Exposition getrennt, wird deutlich dass gerade in kritischen Situationen (LWS3 & 4) sowohl in günstiger als auch in ungünstier Exposition eine deutlich großzügigere Risikobewertung seitens des GRM Regelwerks durchgeführt wird. In den niedrigeren LWS fallen LWS 1 ungünstig und LWS 2 günstig durch erhebliche Unterschiede. Die Abbildung verdeutlicht die Differenziertheit der Abweichungen je nach Exposition und LWS. Es kann bereits jetzt erwartet werden dass die GRM im Trend wesentlich laxer bei der Einschätzung des Gefährdungsrisikos ist.

<BOOKMARK:a10>

Vergleich der Klassifikationswahrscheinlichkeiten der drei Risikostufen geringes, erhöhtes und hohes Risiko für die SnowCard und GRM (GRM1) aufgeteilt nach LWS und Exposition

Die resultierenden Wahrscheinlichkeiten (vgl. <imgref a9>) sind gegenüber der Snowcard faktisch ohne systematischen Bias und gewährleisten so zumindest auf der formalen Klassifikationsgrundlage eine gleich verteilte Risikoklassifikation (vgl. Abbildung 10).

Vergleich der für die GRM angepassten Klassifikationswahrscheinlichkeiten der drei Risikostufen geringes, erhöhtes und hohes Risiko für die SnowCard und GRM3

Betrachtet man die systematischen Unterschiede der beiden Verfahren so erscheint es erstaunlich, dass diese als weitgehend gegeneinander ersetzbar gelten. Die Unterschiede sind bereits in der formalen Anwendung der Risikobewertung so gravierend, dass eine genauere Untersuchung der Unterschiede notwendig ist. Dies betrifft nicht nur den systematischen Bias der ausgewiesenen Risikowahrscheinlichkeiten, sondern vor allem die resultierende Abweichungen in der räumlichen Risikoschätzung da es im Gelände durch die variable Anordnung von Höhengrenze, Hangneigung und Exposition zu signifikanten räumlichen Abweichungen in der Zuweisung von Risikozonen führen dürfte.

Besondere Gefahrenstellen & Schneemuster

Geländestrukturen/Gefahrenstellen

Reliefstrukturen sind morphometrisch oder statistisch ermittelte Entitäten auf einer definierten räumlichen Skala und mit spezifischen Eigenschaften (Krümmung, Neigung, Kante etc). Diese Vorgehensweise ermöglicht eine reproduzierbare Ableitung dieses Formenschatzes aufgrund von seiner räumlichen Formmerkmale. {[:aval:Wood1996]} diskutiert das Potenzial, dass in einer multiskaligen, morphometrischen Analyse von Geländeformen. Allerdings sind vor allem aufgrund der räumlichen Skalenübergänge des betrachteten Formenschatzes Unschärfen zu erwarten (vgl. {[:aval:Fisher2004]}. Die von Fisher et. al. 2004 diskutierten Unschärfen sind jedoch für die vorliegende Fragestellung zunächst irrelevant, da es im Gelände um das Mikrorelief geht und die Berechnungen auf der bestmöglichen räumlichen Auflösungsebene stattfinden.

Von zentraler Bedeutung sind die folgenden Reliefstruktur-Parameter:

  • Reliefstrukturen: Grat, Rinne , Ebene
  • Reliefänderungen: Rauhigkeit und Kantenstrukturen die auf Änderungen der Hangstruktur hinweisen.

Für die Anwendung der SC/GRM sind lediglich Hangneigung und Exposition notwendig gewesen. Will man allerdings darüber hinaus Proxys für Schwächezonen in der Schneedecke ableiten, ist eine zuverlässige Erkennung von Hangstrukturen im Mikrorelief wichtig. Von besonderer Bedeutung ist der Wechsel von Flach- auf Steilhang und umgekehrt. Auch Hangkanten sind potenzielle Schwächezonen in der Schneedecke. Gleichzeitig beeinflussen sowohl die Mikroreliefstrukturen im Hang als auch die Grate in den Höhenzonen die Verteilung potenzieller Triebschneeablagerungen. Jedoch sind hier bedingt durch die nur unzureichende Verfügbarkeit von Windfelddaten und der Datenqualität der freien Geländemodelle die größten Unsicherheiten zu erwarten (vgl. hierzu {[:aval:ehsani2008]}, {[:aval:Wood1996]}, {[:aval:Fisher2004]})

Anisotrope Tageserwärmung (DAH)

Der reale Strahlungsgenuss und die korrekte Bestimmung der daraus resultierenden Erwärmung ist physikalisch aufwendig da sämtliche Energietransporte berechnet werden müssten. Gleichzeitig sind hierfür nicht nur die Klimaparameter notwendig sondern auch Schneebeschaffenheit und Boden. Ein sehr einfacher topographischer Ansatz {[:aval:Boehner2009]} bestimmt lediglich die skalierte Abweichung von der täglichen Maximaleinstrahlung ist also sehr gut geeignet Schatthänge und Sonnhänge detailliert zu unterscheiden. Die derzeit statische Berechnung wird über das Datum und die Zentralkoordinate noch an den Analyseraum angepasst und liefert dann eine gute Schätzung über das Kriterium Schatthang/Sonnhang. Dieses ist im Detail oftmals stark abweichend von der im LWB ausgegebenen ungünstigen Exposition .

Potenzielle Schneeverfrachtungen

Kleinräumig kann die potenzielle Schneeakkumulation auch ohne physikalische Modellierung geschätzt werden. Zentrales Problem ist die Integration der bodennahen Windrichtung und Geschwindigkeit. Sind Wetterstationsdaten verfügabe können mit einem einfachen Ansatz nach Plattner et. al. Zonen potenzieller Einwehungen identifiziert werden. Das Resultat ist experimentell und muss valididiert werden. Gleichzeitig liefert es auf Geländemodelldaten ⇐ 10 Meter räumlicher Auflösung wertvolle Hinweise die im eingewehten Gelände je nach Witterung nicht einsehbar sind {[:aval:Plattner2004]}, {[:aval:Schmidt2009]}. einen eventuell nützliche Ansatz für gravitative Schneeverfrachtungen zur Bestimmung von Auslaufzonen bietet {[:aval:Maggioni2003]}.

Schneemuster

* Potenzielle Schwächezonen identifizieren → Neigungsübergänge/Strukturänderungen siehe auch Geländestrukturen {[:aval:Ferentinou2011]}

Verifikation der entwickelten Methoden

Fallbeispiel Tuxer Alpen 11.02.2013

Lawinenlagebericht

In einem ersten Schritt werden alle implementierten Verfahren (SC, GRM1, GRM2 und GRM3) anhand einer typischen winterlichen Schneesituationen für den Raum der Tuxer Alpen in Tirol, vom Montag, 11.02.2012 dargestellt und erläutert. Nachfolgend der Auszug aus dem Lawinenlagebericht des Lawinenwarndienst Tirol ( siehe Archiv-Seite) für den 11.02.2013.

BEURTEILUNG DER LAWINENGEFAHR
Die Lawinengefahr bleibt von der Seehöhe abhängig. Oberhalb meist etwa 2000m
herrscht mäßige, darunter geringe Gefahr. Die Bedingungen sind überwiegend
günstig, wobei v.a. auf zwei Gefahrenmomente geachtet werden muss:
Einerseits sind es frische Triebschneeansammlungen vermehrt im kammnahen, sehr
steilen Gelände der Exposition W über N bis O oberhalb etwa 2000m. Diese sind
meist kleinräumig, häufig gut zu erkennen, können jedoch speziell in größeren
Höhen immer noch durch geringe Zusatzbelastung ausgelöst werden. Andererseits
kann Schnee speziell in tiefen und mittleren Höhenlagen weiterhin auf steilen
Wiesenhängen in Form von Gleitschneelawinen abgehen. Dies betrifft v.a. jene
Bereiche, wo sich bereits Risse in der Schneedecke aufgetan haben.[...] 
Autor: Patrick Nairz

Quelle: Archiv Lawinenwarndienst Tirol

Die Parameter Region, Höhenlage, kritische Exposition und Lawinenwarnstufe wurden in das Web-Formular Lawinenlagebricht eingetragen und mit den geographischen Koordinaten Länge/Breite (11.675; 47.161; Nähe Ramsjoch) in den Tuxer Alpen (Tirol) an die Verarbeitungskette übergeben. Für die Anwendung der GRM/SC sind die Schnee und Formmuster nicht relevant und wurden daher auch nicht in die Analyse integriert ( Darstellung im WebGIS).

Vergleich von SnowCard und GRM

Visueller qualitativer Vergleich der probabilistischen Methoden

In <imgref a11> sind die DAV SnowCard und die drei GRM Klassifikationsverfahren vergleichend dargestellt. Für den visuellen Vergleich werden die Berechnungen der vier Verfahren in zwei Bildreihen dargestellt. In der oberen Bildreihe zeigt der Vergleich von GRM1 und GRM2 visuell nur geringfügige Unterschiede. Wie bereits in der Analyse der Heuristik in <imgref a9> deutlich wurde sind die Abweichungen vornehmlich im erhöhten und hohen Risikobereich zu finden. Anders sieht dies bei dem optimierten Klassifikationsverfahren der GRM3 aus. Hier ist eine signifikante Abweichung vor allem der mittleren und hohen Risikogebiete zu erkennen. Die GRM3 weist hingegen eine deutlich differenziertere Risikobewertung als das Standardverfahren auf. Die Abweichungen zur GRM2 und GRM1 sind erheblich während andererseits wie erwartet werden konnte eine sichtbar höhere Ähnlichkeit zur SnowCard Klassifikation erkennbar ist.

Vergleich der Risikoberechnung nach der GRM Methode konventionelles Verfahren (GRM1 oben links), funktionales Verfahren (GRM2 oben rechts), optimiertes funktionales Verfahren (GRM3 unten links) und DAV SnowCard (unten rechts). Grundlage ist der Lawinenlagebericht für die Tuxer Alpen Montag 11.02.2013

Die Klassifizierung nach der SnowCard Heuristik erzeugt vor allem in günstigen Expositionen erhöhte Risikozonen. Dies liegt in der weiten Spreizung der Diskriminanz-Gleichungen begründet. Ein wichtiger Aspekt bei der GIS-basierten Analyse scheint der Informationsgewinn aus einer differenzierteren Betrachtung von ungünstiger und günstiger Exposition zu sein. Im gezeigten Beispiel resultiert dies in einer sichtbar ausgeprägten Häufigkeit der mittleren Risikostufe.

Der Vergleich von SnowCard und konventioneller GRM (GRM1) Klassifikation zeigt erhebliche Unterschiede. Im Detail liegt dies sowohl an der stark voneinander abweichenden Bewertung der günstigen bzw. ungünstigen Expositionen, die vor allem im mittleren Risikobereich zwingend zu Abweichungen in der Klassifikation führen. Weiterhin ist die SnowCard Methode deutlich konservativer in der Risikobewertung und liefert somit insgesamt ein differenzierteres Bild das sichtbar höhere Risiken darstellt. Da dies aus einer im Gelände nicht vorhersehbaren Kombination von Hangneigung, Expositionsgunst und LWS berechnet wird, können die Unterschiede u.U. noch gravierender als in <imgref a12> exemplarisch aufgezeigt ist, sein.

Hingegen zeigt der visuelle Vergleich zwischen SnowCard und der optimierten GRM (GRM3 eine signifikante Verbesserung in der Ähnlichkeit der Klassifikation. Die Unterschiede liegen nun im Grenzbereich der erhöhten und sehr hohen Risikostufen. So aussagekräftig eine visuelle Inspektion auch sein mag, sagt sie wenig über die messbare quantitative Ähnlichkeit der Ergebnisse aus. eine quantitative Einschätzun ist jedoch sinnvoll, da sich deutlich zeigt dass die beiden Praxisverfahren offensichtlich keine ausreichende Ähnlichkeit aufwiesen.

Quantitativer Vergleich der Methoden

Die Bestimmung der Genauigkeit kategorialer Regelwerke ist problematisch. Es gibt bei heuristischen Verfahren keine “Wahrheit” d.h. es gibt keine objektive Referenz mit der die drei implementierten Risikoschätzungen verglichen werden können. Alle Ansätze eine solche Referenz aus den Unfalldaten von Lawinen oder sogar den dokumentierten Lawinenabgängen insgesamt zu konstruieren sind aufgrund der weitestgehend unbekannten Verteilung, Ursache und Vollständigkeit von Lawinenabgängenwenig sinnvoll und zufällig.

Jedoch ist es hinsichtlich der Anwendung der Verfahren von eminenter Bedeutung inwieweit die Regelwerke ähnliche Ergebnisse liefern. Falls sie, wie die bisherigen Vergleiche zeigen, keine ausreichende Übereinstimmung zeigen ist es wichtig zu identifizieren ob es systematische Abweichungen gibt und was die Grundtendenz der jeweiligen Bewertungsmethoden ist.

Ein traditioneller und erprobter Index zur Berechnung der pixelweisen Übereinstimmung kategorialer Variablen (also der Risikostufen unterschiedlicher Verfahren) ist Cohen's Kappa Index {[:aval:Cohen1960]} (siehe Berechnung der Kappa-Indizes). Allerdings sind die Resultate hinsichtlich der Interpretation einer lagebezogenen Übereinstimmung aussageschwach. Verschiedene Autoren haben versucht den Kappa Index zu erweitern um eine Aussage hinsichtlich der räumlichen Qualität der Ähnlichkeit bzw. der reinen quantitativen Ähnlichkeit von Raummustern zu finden (vgl. {[:aval:pontius2011]}, {[:aval:pontius2000]},{[:aval:hagen2002]}, {[:aval:monserud1992]}). Für den quantitativen Vergleich der GRM und SnowCard werden die folgenden Kenngrößen berechnet: Kappa, Kappa-Histogramm (quantitativer Kappa) and Kappa-Location (lagebezogener Kappa) nach {[:aval:Cohen1960]}, {[:aval:pontius2000]} und {[:aval:hagen2002]}. Die Kappa-Parameter werden zusätzlich für jede einzelne Risikokategorie nach {[:aval:monserud1992]} berechnet. Einen deutlich leichter zu interpretierenden Ansatz liefert schließlich {[:aval:pontius2011]} mit dem Konzept die quantity and allocation disagreements zu berechnen. Diese Werte zeigen die relativen Anteil der Abweichungen beider Klassifikationen hinsichtlich der Lage und der Fläche an. Nachfolgend werden die wichtigsten Ergebnisse gezeigt und diskutiert. Die vollständigen Tabellen und Grafiken können werden.

Die Kappa- und Disagreement-Indizes wurden mehrere Validierungstage auf der Basis des jeweiligen Lawinenlageberichts im gezeigten Geländeausschnitt der Tuxer Alpen berechnet. Die Vergleiche beziehen sich jeweils auf die SnowCard zu den GRM 1-3.

Im Fokus steht der Vergleich der DAV SnowCard mit der konventionellen Grafischen Reduktionsmethode (GRM1), da diese Verfahren als gleichwertig bzw. substituierbar angesehen werden. Bereits die Untersuchung der Klassifikationswahrscheinlichkeiten (vgl. <imgref a8>) hat eine enorme Abweichung beider Methoden voneinander ergeben. Der visuelle Vergleich bestätigt diese Erwartung (vgl. <imgref a11>). Schaut man sich nun die quantitativen Indizes an wird dieser Eindruck belegt. Für den 11.02.2013 wird ein Gesamt-Kappa von 0,29 berechnet. Der Kappa-Lage Index und der Kappa-Flächen Index liegen mit 0,53 bzw. 0,54 zwar deutlich höher unterstreichen aber insgesamt die deutliche Unähnlichkeit beider Ergebnisse. Betrachtet man die Exposition und die einzelnen Lawinenwarnstufen zeigt sich eine deutliche Abhängigkeit der bereits dem Klassifikationsschema zugrunde liegenden systematischen Abweichung. Nur jeweils die flächenhafte Übereinstimmung ist zufriedenstellend. Das heißt es wird eine vergleichbare Anzahl an Pixel überhaupt als Risiko belastet klassifiziert. (vgl. <imgref a13>) Betrachtet man jedoch die ergänzenden Indizes zeigt sich das Gesamtähnlichkeit und Lagenähnlichkeit sehr niedrig sind. Bei günstiger Exposition vor allem bei LWS3 bei ungünstiger Exposition vorrangig bei LWS1 & 2. Exakt das gleiche Bild zeichnen die Disagreement Indizes(vgl. <imgref a14>). Hier wird deutlich dass knapp 50 % aller Werte nicht getroffen werden. Gerade in günstiger Exposition bei LWS3 also einem Paradefall für Risikomanagement ist wird eine Fehlerquote von knapp 65 % ausgewiesen.

Die Ergebnisse der DAV SnowCard und der GRM1 müssen also als signifikant unähnlich bezeichnet werden.

Darstellung der Kappa Inzides auf der Grundlage des digitalen Tiroler Geländemodells (tirol.gv.at) für den 11.02,2013. Dargestellt sind die Gesamtindizes für die reale Lawinensituation (oben links), sowie die Ausprägung für die LWS jeweils für günstige (unten links) und ungünstige Expositionen (unten rechts)

Darstellung der Disagreement Indizes auf der Grundlage des digitalen Tiroler Geländemodells (tirol.gv.at) für den 11.02,2013. Dargestellt sind die Gesamtindizes für die reale Lawinensituation (oben links), sowie die Ausprägung für die LWS jeweils für günstige (unten links) und ungünstige Expositionen (unten rechts)

Tabelle aller Inzides auf der Grundlage des digitalen Tiroler Geländemodells (tirol.gv.at) für den 11.02,2013 und den 17.02,2013.

Tabelle aller Inzides auf der Grundlage des digitalen Tiroler Geländemodells (tirol.gv.at) für den 11.02,2013 für ungünstige Expositionen

Tabelle aller Inzides auf der Grundlage des digitalen Tiroler Geländemodells (tirol.gv.at) für den 11.02,2013 für günstige Expositionen

Da der Vergleich der DAV SnowCard mit der konventionellen Grafischen Reduktionsmethode (GRM1) sehr deutlich eine hohe Unähnlichkeit ausweist.können diese Beiden Verfahren nicht als gleichwertig bzw. substituierbar angesehen werden. Ein evidenter Grund für die Abweichung liegt natürlich in der groben 4×4 Matrix der GRM1 begründet. Daher erscheint es sinvoll die funktionale Umsetzung der GRM mit Hilfe linerarer Diskrimnazfunktionen auf ihre Ähnlichkeit zur DAV SnowCard zu untersuchen. Es kann aus den Vorergebnissen erwartet werden dass die GRM 2 kaum eine Verbesserung der Indizes erzeugt. Schaut man sich die Kappa Indizes an wird dieser Eindruck belegt. Für den 11.02.3013 wird ein Gesamt-Kappa von 0,32, ein Kappa-Lage Index und mit 0,58 und der Kappa-Flächen Index mit 0,54 berechnet was eine nur minimal positive Abweichungen gegenüber der GRM1 darstellt. Auch die Exposition und die einzelnen Lawinenwarnstufen zeigen zur GRM1 nahezu identische Ergebnisse. Exakt das gleiche Bild zeichnen die Disagreement Indizes(vgl. <imgref a15>).

Es kann also der Schluss gezogen werden dass die lineare Umsetzung einer kontinuierlichen Risikobewertung die im Ansatz der GRM2 verfolgt wird sehr vergleichbare Ergebnisse wie die konventionelle GRM1 erzielt. Das heißt sowohl das Konzept des linear Ansteigenden Risikos als auch die Absenkung um eine LWS bei günstigen Bedingungen kann mit den linearen Diskriminazgleichungen zuverlässig erreicht werden. Vor diesem Hintergrund scheint es sinnvoll die ebenfalls in den zuvor diskutierten Grafiken dargestellten Indizes für die GRM3 zu betrachten. Schaut man sich erneut die Kappa Indizes für den 11.02.2013 an wird ein Gesamt-Kappa von 0,87, ein Kappa-Lage Index und mit 0,88 und der Kappa-Flächen Index mit 0,99 berechnet. Dies belegt das hohe Maß an Ähnlichkeit das bereits in der visuellen Inspektion der Daten aufgefallen ist.

Erneut zeichnen die Disagreement-Indizes(vgl. <imgref a16>) das gleiche Bild. Hier wird deutlich insgesamt 8,2 % aller Werte nicht getroffen werden. Die zuvor in günstiger Exposition bei LWS3 durch die GRM1 erreichte Fehlerquote von knapp 65 % wird auf 21% gesenkt. Vergleichbares gilt auch für die übrigen Lawinenwarnstufen.

Die Ergebnisse der DAV SnowCard und der GRM3 können also als signifikant ähnlich bezeichnet werden.

Tabelle aller Inzides auf der Grundlage des digitalen Tiroler Geländemodells (tirol.gv.at) für den 11.02,2013. Dargestellt sind die Gesamtindizes für die reale Lawinensituation (oben links), sowie die Ausprägung für die LWS jeweils für günstige (mittleres Panel) und ungünstige Expositionen (unteres Panel). Links ist der Vergleich zur GRM2, rechts zur GRM3 abgebildet.

Darstellung der Disagreement Indizes auf der Grundlage des digitalen Tiroler Geländemodells (tirol.gv.at) für den 11.02,2013. Dargestellt sind die Gesamtindizes für die reale Lawinensituation (oben links), sowie die Ausprägung für die LWS jeweils für günstige (unten links) und ungünstige Expositionen (unten rechts)

Tabelle aller Inzides des Vergleichs von SnowCard mit GRM2 & GRM3 auf der Grundlage des digitalen Tiroler Geländemodells (tirol.gv.at) für den 11.02,2013 und den 17.02,2013.

Tabelle aller Inzides des Vergleichs von SnowCard mit GRM2 auf der Grundlage des digitalen Tiroler Geländemodells (tirol.gv.at) für den 11.02,2013 für ungünstige Expositionen

Tabelle aller Inzides des Vergleichs von SnowCard mit GRM3 auf der Grundlage des digitalen Tiroler Geländemodells (tirol.gv.at) für den 11.02,2013 für günstige Expositionen

Resumé DAV SnowCard versus GRM

Die Risikoklassifikation der GRM1 weicht sowohl in der Lagequalität als auch in der Quantität der klassifizierten Pixel hinsichtlich der Risikobewertung drastisch von der DAV-SnowCard ab. Zunächst drängt sich der Gedanke auf dass dies vor allem der einfachen Vorgehensweise der 4×4 Matrix geschuldet ist. Jedoch zeigt die optimierte GRM3 dass das lineare Konzept der Risikozunahme durchaus vergleichbare Ergebnisse erzielen kann wie die nichtlinear klassifizierende DAV SnowCard. Jedoch muss hierzu die Risikobewertung erheblich konservativer ausfallen als es bislang der Fall ist.

Folgt man der Argumentation und den gezeigten Ergebnissen, darf mit an Sicherheit grenzender Wahrscheinlichkeit erwartet werden, dass die beiden probabilistischen Verfahren nicht nur in Grenzsituationen für Tourengänger (also vor allem bei LWS2&3) signifikant unterschiedliche Risikoeinschätzungen liefern. Versucht man dies auf eine kurze prägnante Aussage zu reduzieren lautet die wie folgt:

  1. Die DAV SnowCard und die Grafische Reduktionsmethode dürfen nicht als substituierbar gelten
  2. Der SnowCard-Nutzer kann eine räumlich stärker differenzierte Risikoeinschätzung nutzen
  3. Der SnowCard-Nutzer geht grundsätzlich weniger riskante Wege als der GRM-Nutzer

Dieses Ergebnis für die beiden als substituierbar gehandelten Verfahren widerspricht der oben aufgestellten Hypothese und kann nicht befriedigen.

Für die Analysen und auch für die Ergebnispräsentation wird in Folge standardisiert die Snowcard Heuristik verwendet, da sie (1) eine klar nachvollziehbare Differenzierung von günstig und und ungünstiger Exposition aufweist, (2) durch die nicht lineare Risikoeinschätzung den Zusammenhang von Risiko und den verwendeten Parametern geeigneter implementiert und (3) das ist der wichtigste Grund eine defensivere Risikoeinschätzung aufweist als die GRM.

Optional kann auch die konventionelle GRM1 Berechnungen vom Nutzer ausgewählt werden. Nachdem zuvor erfolgten Ǘergleich der Heuristiken und der auf ihrer Grundlage entwickelten Klassifikationsmethoden wird in der weiteren Anwendung auf GRM2 und GRM3 verzichtet. Die GRM2 weist bei einer geringfügig konservativeren Risikobewertung sehr hohe Ähnlichkeiten mit der originalen GRM1 auf. Die GRM3 iist systematisch an die DAV SnowCard gefittet worden. Sie ist auf der Grundlage des GRM-Konzepts die der DAV SnowCard ähnlichste erzielbare Methode. Aufrund der hohen Ähnlichkeit mit der SnowCard kann sie für die vorliegende Zielsetzung durch diese ersetzt werden.

Validierung

TODO

  • Berechnen von Szenarien (best case - worst case) zur Erzeugung von räumlichen Entscheidungsraster in Form von minimiertem Risiko mit Identifikation von Checkpunkten und risikoarmen Korridoren

Vergleich dieser Ergebnisse mit:

  • den Tourtracks der DAV Karten u-ä. Quellen
  • manueller Planung anhand von Karten und den üblichen Grundlagen
  • GP-Tracks von realen Planungen & Touren etc.

Diskussion

Ungeachtet der derzeit noch fehlenden Elemente der Geländestrukturerkennung sowie einer stringenten Validierung der einzelnen Komponenten soll eine vorläufige Diskussion der Ergebnisse erfolgen.

Das gesamte Projekt versucht die übergeordnete Fragestellung ob es möglich sei das Informationsniveau für die Entscheidungsfindung winterlicher Hochgebirgsakteure durch die GIS-basierte Entscheidungsunterstützung zu steigern. Zur strukturierten Bearbeitung wurden zentrale Hypothesen aufgestellt und untersucht.

Das gesamte Projekt kann in drei Teilbereiche gegliedert werden.

  1. Formale Analyse und Umsetzung der räumlichen Fragestellungen der Lawinenrisikobewertung mit Hilfe von GIS-basierten Konzepten
  2. Untersuchungen zur Sensitivität und Auswirkungen der zentralen Parameter und Regeln zur Validierung des Konzepts und Identifikation von potenziellen Schwachstellen
  3. Technische Umsetzung als operationelles System das zumindest minimalen Ansprüchen hinsichtlich einer Nutzerfreundlichkeit gerecht wird.

Die Identifikation und formale Umsetzung der räumlichen Fragestellungen konnte auf Grundlage der frei verfügbaren Geländemodelldaten des ASTER GDEM2 Datensatzes und der Geländemodelldaten für das Land Tirol erfolgen. Neben der Kostenfreiheit beider Datensätze weisen sie mit 27 (ASTER) und 10 Meter (Tirol) sowohl unterschiedliche räumliche Auflösungen als auch methodisch eine völlig unterschiedliche Datenerfassung. Ungeachtet dieser erheblichen Unterschiede ist kein signifikanter Unterschied in den Ergebnissen feststellbar. Lediglich die räumliche Auflösung selber erzeugt erhebliche Unterschiede. Die Ableitung standardisierter durch das Gelände beeinflussten Parameter kann auf beiden Datensätzen erfolgreich durchgeführt werden. Wünschenswert ist jedoch die Integration weiterer Informationen wie die der Skigebiete, Wegesysteme, Gewässernetze etc.. Dies ist jedoch kein technisches Problem sondern eine Frage der Validität der verfügbaren Daten und wurde in der Untersuchung nicht weiter fokussiert.

Zu Beginn der Untersuchung stand es bedingt durch die Literatur und den eigenen Ausbildungsstand außer Frage dass die beiden probabilistischen Verfahren substituierbar seien. Es wurde daher die Hypothese aufgestellt dass sie nicht substituierbar seien um diese dann erwartungsgemäß zurückweisen zu können. Nach einer intensiven Analyse der Regeln hinsichtlich ihrer formalen Umsetzung und der anschließenden qualitativen und quantitativen Überprüfung der Ergebnisse muss die Hypothese jedoch bestätigt werden. Die GRM und die DAV SnowCard sehen zwar ähnlich aus sind aber signifikant unterschiedlich in ihrer Einschätzung von Risikozonen. Generell schätzt die SnowCard Risiko deutlich konservativer ein kann also bezogen auf die Vermeidung von Risiko als “sicherer” gelten. Gleichzeitig bietet sie durch ihre Nicht-Linearität sowohl im Verlaufen als auch in der Betrachtung der Expositionsabhängigkeit ein höheres Potenzial differenziert mit Situationen “mittleren Risikos” umzugehen. Insofern es sinnvoll ist in der strategischen Lawinenkunde ein feiner justierbares Instrument einzusetzen ist die SnowCard hierfür geeigneter. Andererseits ist das lineare Konzept der Grafischen Reduktionsmethode -einmal verstanden- sehr einfach in der Anwendung. Anders als bei der SnwoCard kann diese Matrix auch ohne Hilfsmittel aus dem Gedächtnis heraus angewendet werden. Jedoch ist die resultierende Risikoeinschätzung erheblich gröber und liberaler. Die iterative Optimierung der Methode zeigt jedoch dass es vergleichsweise leicht ist diesen linearen Ansatz der Methode nahezu in Deckung mit der Risikoschätzung der SnowCard zu bringen. Jedoch ist es nicht Aufgabe dieser Untersuchung die Risikoeinschätzung der GRM zu manipulieren zumal die Grundlagen (Unfallzahlen) beider Methoden nicht offen liegen. Für die angestrebte Umsetzung der Lehrmeinung des DAV wird daher an dem Konzept der konventionellen GRM festgehalten auch wenn es sehr problematisch erscheint den Anwender mit zwei derart unterschiedlichen Ergebnissen zu konfrontieren.

Die technische Umsetzung einer operationellen und zudem noch nutzerfreundlichen Anwendung stellte und stellt immer noch erhebliche Anforderungen. Dies ist nicht nur durch der aufwendigen Berechnung der Parameter geschuldet sondern letztlich auch der Komplexität der Materie wie ein Lawinenlagebericht sinnvoll zu interpretieren und erfassen ist. Die gewählte Form zeigt eine Möglichkeit auf die Nutzung operationell und bequem zu gestalten hat aber dn Nachteil dass der Nutzer wissen muss was er tut. Sie verzichtet bewusst auf die Interpretation der Ergebnisse aus den stark variierenden Textteilen der Lawinenlageberichte und erhebt nur die “harten” Parameter. Als Ergebnis werden die Berechnungen in drei unterschiedlichen Formen (WebGIS-Karten, Print-Karten mit wählbarem Maßstab und die Datensätze für die eigene Weiterverarbeitung) dem anfordernden Nutzer verfügbar gemacht. Damit soll den unterschiedlichen Planungsstrategien Rechnung getragen werden. Vom maßstäblichen Ausdruck auf Papier oder Folie als Overlay für die Tour bis hin zum Einladen ins GPS ist dem Nutzer so jede Möglichkeit offen. Die einfachste Nutzung ist mit Sicherheit die Interpretation der WebGIS Ergebnisse. Natürlich ist hier noch ein weites Feld der Optimierungsmöglichkeiten gegeben (muss nur alles gemacht werden ;)).

Erinnert man die zentralen Hypothesen kann die erste das es möglich sei auf der Grundlage aktuell verfügbarer Geographischer Informationssysteme (GIS) und Geländedaten raum-kontinuierliche Risikowahrscheinlichkeiten zu berechnen als bestätigt gelten.

Die zweite Hypothese das räumlich explizite Information eine effizientere und präzisere Planungsgrundlage darstellt als dies mit konventioneller Kartenarbeit möglich ist kann formal bestätigt werden harrt aber noch der praxisorientierten Überprüfung im Anwendungsfall der Nutzer. Hier ist es von erheblicher Bedeutung wie nutzerfreundlich die Informationen verfügbar gemacht werden können.

Als wichtiges vielleicht das zentrale Ergebnis wird jedoch deutlich dass der Ansatz Achtung Lawinen nur sehr bedingt ein Regelwerk verfügbar macht, das seiner Intention gerecht wird. Neben den signifikanten Unterscheden der verwendeten probabilistischen Methoden wird sehr deutlich wie komplex die Geländeparameter Exposition und Hangneigung zusammenwirken. Diese können selbst von versierten Tourengängern weder im Gelände noch aus den handelsüblichen Karten auch nur ausreichend gut einschätzt werden. Die hier vorgestellte GIS-basierte Analyse ist den konventionellen kartenbasierten Planungsansätzen signifikant überlegen, kann jedoch die Schwächen der Heuristiken nicht ausgleichen.

Herorzuheben ist, dass die Ergebnisse einen erheblichen Untersuchungsbedarf für ein besseres Verständnis der probabilistischen Schemata bzw. Heuristiken zeigen. Insbesondere sind die Abweichungen vor allem im Bereich der erhöhten und hohen Risikozonen als kritisch zu bewerten, also in Situationen und Räumen die besonders unfallträchtig sind.

Die nun verfügbaren Informationen steigern das planerische Potenzial erheblich zeigen aber vor allem die Notwendigkeit auf, eine von Grund auf neu konzipierte Methode zur räumlichen Risikoeinschätzung zu entwickeln.

Referenzen

<bibtex bibliography> sort=true

</bibtex>

Anhang Implementierung

Die Implementierung des CalcRisk Algorithmus ist mit einem Python-Script realisiert. Es nutzt einige GRASS und SAGA Module sowie verschiedene GDAL Werkzeuge. Wird eine Schummerungskarte gewünscht wird Imagemagick benötigt. Es handelt sich um eine vorläufige jedoch operationelle Verarbeitungskette, die einen beliebigen Ausschnitt aus dem Alpenraum analysiert. Zentraler Nachteil dieser Schlichtheit ist die Laufzeit (ca 15-45 Sekunden auf einem i7 8GByte Server). Insbesondere die Strukturanalyse und kartographische Datenprozessierung ist wegen der verwendeten Filteralgorithmen sehr zeitkritisch. In der Darstellung des WebGIS wird daher auf eine Schummerungskarte und das aufwändige Berechnen von Alpha-Kanälen verzichtet (dank Google & Co. kein Verlust).

Im Kontext des WebGIS werden auch maßstäbliche Karten für den Ausdruck auf DinA4 Druckern als PDF-Dateien zur Verfügung gestellt. der Maßstab kann je nach Datengrundlage variabel von ca. 1:10000 - 1:200000 eingestellt werden. Je besser (kleiner) der Maßstab ist desto geringer ist folglich das um den Zentralpunkt ausgeschnittene und dargestellte Gebiet.

Die Grundlage der Prozesskette ist das aus Laufzeitgründen vorprozessierte digitale Geländemodell der Alpen auf Grundlage der ASTER GDEM2 Daten. Die einzelnen Daten-Kacheln, die in einer Größe von 1×1 Grad zum Download stehen, wurden zu einem gesamten geographisch referenzierten Alpen-DGM zusammengeführt auf die 3 UTM Zonen 31, 32, 33 projiziert und zur Minderung der regelhaften Streifenartefakte mit dem Lee Algorithmus gefiltert. Bei jeder Analyseanfrage seitens des Servers wird standardmäßig ein 10×10 km großer Ausschnitt mit der jeweils eingegebenen Koordinate als Mittelpunkt aus dem DGM extrahiert und der Prozesskette übergeben.

Im Hoheitsbereich des Landes Tirol (Österreich) werden die auf 10 Meter aufgelösten DGM Daten der verwendet.

Zur Installation der notwendigen Software und den technischen Feinheiten sowie die Skripte, Demodaten etc. gibt es die wichtigsten Infos auf der Wiki-Seite Achtung Lawine - inside(Registrierung obligat).

Chris Reudenbach 2012/11/11 16:15

projekte/achtunglawine/al.txt · Last modified: 2015/11/06 18:51 (external edit)