Dossier Photogrammetrie und Fernerkundung

Geodaten im Einsatz für Hochwasserprognosen des Jangtse (Geomatik Schweiz 12/2007)

Estimation de la hauteur des bâtiments à partir des modèles numériques d'altitude laser (MPG 9/2001)

Mesures photogrammétriques de volume de neige pour l’étude de la dynamique d’avalanche

(MPG 8/2001)

Projekt ATOMI: Automatische Detektion und Rekonstruktion von Gebäuden für das topographische Landschaftsmodell der Schweiz

(VPK 8/2001)

Von Schnee und Lawinen, von Luft- und Orthobildern: Ein Stück Aufarbeitung des Lawinenwinters 1998/99 (VPK 9/2000)

MAPS - toute l’Angleterre en orthophotos (MPG 8/2000)

Genauigkeitsanalyse von hochauflösenden Gelände- und Oberflächenmodellen (VPK 8/2000)

IKONOS-2 CARTERRA™ GEO – erste geometrische Genauigkeitsuntersuchungen in der Schweiz mit hochaufgelösten Satellitendaten (VPK 8/2000)

IKONOS: hochauflösende Satellitenbilder auf Bestellung (VPK 12/99)

CyberCity Modeler - ein System zur halbautomatischen Generierung von 3D-Stadtmodellen (VPK 9/98)

Hochauflösende digitale Orthophotos in der Planungs- und Ingenieurpraxis (VPK 9/98) 


Estimation de la hauteur des bâtiments à partir des modèles numériques d'altitude laser

La technologie laser pour la détermination de modèles numériques d’altitude (MNA) est relativement récente (début des années 90). Les développements effectués ces dernières années en ont fait une technologie abordable du point de vue financier, ouvrant ainsi de nombreuses perspectives. Cet article présente une des exploitations possibles de cette nouvelle technologie, en l'occurrence l'estimation de la hauteur de bâtiments. Une application permettant d'automatiser ce calcul a été créée. Un indice ayant pour but d'estimer la conformité du modèle utilisé a également été développé. Des mesures ont été effectuées sur le terrain pour valider les processus. Les démarches en cours exploitent les données de Genève et seront bientôt testées avec les données que le D+M (Direction Fédérale des Mensurations Cadastrales) est en train d'acquérir sur toute la Suisse.

D. Gnerre, F. Golay, M. Riedo

Introduction

La présente étude s'inscrit dans les accords de collaboration que le laboratoire de SIRS (Systèmes d'Information à Référence Spatiale) de l'EPFL (Ecole Polytechnique Fédérale de Lausanne) entretient avec les administrations cantonales de Fribourg, Genève, Neuchâtel, Vaud et l'ASIT-VD. Les données qui ont été utilisées pour ce projet proviennent du canton de Genève qui, en 2000, mandata une compagnie pour effectuer l'acquisition de modèles numériques par télémétrie laser aéroportée couvrant tout le canton. Ce vol permit l'élaboration, après différentes phases de traitements des points bruts, des modèles numériques de terrain (MNT) et de surface (MNS) raster d'une résolution de 1 mètre. Une application, exploitée par le canton de Genève, a été développée et permet le calcul automatique de la hauteur des bâtiments à partir des MNT et MNS. Un indice a également été proposé pour estimer la conformité des valeurs de hauteurs calculées.

Bien que la hauteur des bâtiments soit de plus en plus demandée, elle n'est que très rarement disponible dans les données cadastrales. Cette information intéresse différents acteurs comme les opérateurs de télécommunication pour la détermination de l'emplacement optimal des antennes. Les sociétés de distribution de gaz sont également intéressées car la connaissance du potentiel de volume à chauffer est indispensable à la planification des réseaux, tout comme les services d'aménagement du territoire pour lesquels le nombre d'étages - estimé à partir de la hauteur - est un paramètre important pour la détermination du Coefficient d'Utilisation du Sol (CUS) en vue de la planification des zones à bâtir.

Principes de la technologie laser pour la détermination de MNA

L'acquisition d'un modèle numérique de terrain laser commence par un vol au dessus de la zone d'étude. L'avion (ou l'hélicoptère) est équipé d'un télémètre laser à balayage qui mesure les distances au sol à partir du temps de parcours d' impulsions de très courte durée. Pour géoréférencer ces mesures, la position et l'attitude de l'avion doivent être connues avec une extrême précision; celle-ci est assurée par un GPS différentiel et un système de navigation inertiel. Un tel système permet, en tenant compte de la précision de tous les instruments, d'obtenir une précision de 15 centimètres dans le meilleur des cas en altimétrie et de 30 à 40 centimètres en planimétrie. Ces valeurs dépendent bien sûr de différents paramètres comme les conditions atmosphériques, la topographie ou encore la hauteur de vol. Une des particularités du système est la possibilité d'obtenir des points au sol en zone forestière, rendant possible l'élaboration d'un modèle de surface et d'un modèle de terrain. Après différentes phases de traitement et de filtrage, le résultat brut obtenu est un semi de points (plusieurs millions par kilomètre carré), que l'on peut agréger pour obtenir des grilles raster régulières, comme illustré sur la Fig. 1.

Les avantages de cette technologie résident dans la précision, la rapidité d'élaboration, le fait de pouvoir disposer d'un MNS et d'un MNT et la possibilité d'obtenir des résultats directement sous forme numérique. Par contre, on rencontre des difficultés à déterminer le MNT lorsque la couverture végétale est dense, et la haute résolution de tels modèles numériques nécessite une importante phase de filtrage et implique des volumes de données élevés (40 milliards de pixels pour la Suisse avec une résolution de 1 mètre).

Méthodes de calcul de la hauteur

La disponibilité d'un MNS et d'un MNT offre la possibilité de calculer la hauteur de n'importe quel objet placé sur le premier et non sur le second (arbre, bâtiment). Les deux méthodes développées ici permettent de calculer la hauteur d'objets surfaciques à partir de modèles numériques structurés sous forme de grille régulière élaborée par interpolation des points bruts. Le choix de ne pas travailler avec les points bruts s'est fait pour plusieurs raisons:

  • la perte de précision due à l'interpolation pour obtenir une grille n'est pas significative étant donné les applications visées et la complexité de la forme des toits que l'on peut rencontrer;
  • le MNT étant obtenu par élimination de certains points du MNS (arbre, bâtiments, etc.), il n'y a aucune donnée vectorielle du MNT à l'intérieur des bâtiments. Cette absence pose donc problème pour la détermination d'une altitude de base. Les données vecteur brutes du MNT ne sont par conséquent pas utilisables sans interpolation pour le calcul de hauteur de bâtiment;
  • une simple moyenne des altitudes à l'intérieur des bâtiments serait faussée, car la densité des points bruts n'est pas uniforme. Pour s'affranchir de ce problème, il est donc nécessaire de passer à une distribution régulière, c'est à dire à une grille raster;
  • l'exploitation de plusieurs millions de points en mode vecteur simultanément au sein d'un logiciel de SIG est particulièrement pénalisante au niveau des performances et du stockage. En effet, une même zone au format vecteur peut occuper 10 à 20 fois plus de volume disque que la même zone au format raster.

Les données exploitées par l'application sont donc de structure différente, les bâtiments étant vectoriels et les MNA sous forme raster. Les fonctions de base utilisées intègrent ces deux types de structure et fournissent une statistique (moyenne, minimum, maximum, médiane, volume, etc.) de la valeur des pixels contenus dans un polygone, qui dans ce cas serait le bâtiment. Ces fonctions sont utilisées dans les deux méthodologies développées, mais de manière différente.

Indice de conformité

Jusqu'à présent, l'objectif était de déterminer une hauteur moyenne des bâtiments dans le but de les modéliser par des parallélépipèdes. Il est donc important à ce stade de pouvoir estimer si cette modélisation est proche ou non de la réalité. La question qui se pose est donc: est-ce le parallélépipède de hauteur égale à la hauteur moyenne calculée modélise correctement l'emprise du bâtiment? Cette conformité est très variable et dépend de plusieurs facteurs:

la forme du toit: plus le toit est plat et plus la valeur de hauteur moyenne sera proche de la réalité (cf. Fig. 4).

le découpage des bâtiments: plus la forme d'un bâtiment contient de sous-parties et plus on risque d'avoir des altitudes différentes pour chacune de ces sous-parties. Dans le cas de la Fig. 5, il faudrait séparer le bâtiment en plusieurs parties et obtenir une hauteur pour chacune d'elles.la position du bâtiment: un bâtiment situé en forêt posera problème car ce n'est pas son toit qui se trouve dans le MNS mais plutôt la cime des arbres l'entourant, ce qui peut conduire à une importante surestimation de la hauteur (cf. Fig. 6).

la qualité de filtrage du MNT: en effet, en zone bâtie, on obtient le MNT à partir du MNS en "découpant" les bâtiments. Ce traitement se fait de manière semi-automatique et produit parfois des artefacts qui posent problème lors de la détermination de l'altitude de la base du bâtiment (cf. Fig. 7).

le but de l'indice de conformité est donc de mettre en évidence les différents cas discutés ci-dessus, de manière à localiser facilement les erreurs ou les trop fortes variations d'altitude qui indiqueraient une valeur de hauteur correspondant peu à la réalité. Le point commun qu'ont les situations discutées est l'importante variation de la valeur des pixels du MNS ou du MNT. L'indice développé intègre donc trois critères qu'on normalise pour pouvoir les additionner:

L'écart type de la valeur des pixels du MNS (ETMNS): plus l'écart type est important, plus la conformité est faible;

L'écart type de la valeur des pixels du MNS (ETMNT): plus l'écart type est important, plus la conformité est faible;

La surface du bâtiments (S): on accepte plus facilement une grande variation sur un grand bâtiment que sur un petit.

La distribution de chacun des critères suit une loi log-normale, il faut donc utiliser la fonction logarithme pour pouvoir les combiner linéairement. On peut ensuite centrer et réduire les variables en soustrayant la moyenne et en divisant par l'écart type. L'indice est ensuite borné à un intervalle de 0 à 100, une valeur proche de 100 indiquant une forte variation de hauteur pour le bâtiment, relativement à sa surface.

Les classes pour chaque valeur de l'indice se définissent de manière relativement arbitraire, selon que l'on accepte plus ou moins de variations de hauteur pour un bâtiment avant de le classer comme conforme. Comme la distribution de chaque critère normalisé suit une loi normale, la distribution des note est également de type normale. Des bâtiments comme ceux présentés aux Fig. 5 et Fig. 6 sont aisément mis en évidence par l'indice.

Vérification par mesures sur le terrain

Bien que la précision des modèles d'altitude soit garantie mais pour valider la démarche, des mesures de hauteur des bâtiments on été effectuées sur le terrain. L'instrument utilisé est doté d'un distancemètre laser et d'un inclinomètre, permettant de déterminer des hauteurs d'objet à partir de la mesure d'une distance horizontale, d'un angle à la base et d'un angle au sommet. Le but de ces mesures était de comparer la hauteur moyenne calculée sur les modèles numériques avec la hauteur moyenne mesurée. Pour déterminer sur le terrain cette valeur moyenne, deux mesures de hauteur ont été prises: une à la base du toit (hauteur minimum) et une sur le faîte (hauteur maximum) (cf. Fig. 4). Il n'a cependant pas toujours été possible de mesurer la hauteur maximum pour des raisons de visibilité. Pour ces bâtiments, seule la hauteur minimum a été prise. Un total d'une quarantaine de bâtiments ont été mesurés avec différents types de toit, allant de l'immeuble locatif à la villa, en passant par la cabane de moins de 10 m2. La Fig. 8 montre la distribution des écarts entre les mesures et le calcul des hauteurs moyennes. La différence entre la hauteur moyenne mesurée et calculée est dans la majeure partie des cas inférieure à 1 mètre, une précision qui suffit largement aux applications citées précédemment.

Conclusion et perspectives

Cet article montre qu'il est possible de déterminer une hauteur moyenne de bâtiments à partir de modèles numériques de résolution métrique. Cette donnée, souvent indisponible et difficile à obtenir sur de grandes surfaces avec d'autres techniques, est d'ores et déjà disponible sur tout le canton de Genève. L'application développée permet d'automatiser totalement le processus de calcul de hauteur à partir du MNS et du MNT, et un indice de conformité est proposé pour identifier les bâtiments dont la valeur obtenue par calcul s'éloignerait trop de la réalité. Des mesures sur le terrain ont permis de valider les résultats.

Les perspectives offertes par l'arrivée de ce nouveau type de modèle sont nombreuses. Dans le cadre des accords de collaboration cités en introduction, le projet se poursuit donc et les axes de prospection envisagés sont les suivants:

Forme des toits: en effet, dans un MNS d'une résolution de 1 mètre cette information existe (cf. Fig. 9). Il serait alors intéressant de pouvoir l'extraire automatiquement, ce qui permettrait de modéliser de manière toujours plus réaliste la troisième dimension en zone urbaine.

Obtention de données dérivées: lorsque l'on désire déterminer des pentes, orientations, convexité ou autres, des problèmes de bruit se posent du fait de la haute résolution des modèles (cf. Fig. 10). Des questions se posent alors sur la méthodologie d'obtention de ces données: faut-il les rééchantillonner? Faut-il traiter les données dérivées? Quel type de traitement utiliser (généralisation des courbes de niveau, etc.)? Quelle méthodologie appliquer?

Amélioration de produits (cartes nationales, orthophotos, plan d'ensemble) par intégration d'ombrages générés à partir du modèle numérique laser.

Besoins et méthodes de simplification des modèles, gestion des gros volumes, etc.

Daniel Gnerre
Prof. François Golay
Marc Riedo
Géomatique - Systèmes d'Information à Référence Spatiale
EPFL - DGR
CH-1015 Lausanne
daniel.gnerre@epfl.ch
francois.golay@epfl.ch
marc.riedo@epfl.ch

Texte intégral: MPG 9/2001
Commendez la revue MPG: verlag@geomatik.ch

Mesures photogrammétriques de volume de neige pour l'étude de la dynamique d'avalanche

Les avalanches représentent un danger parfois non maîtrisé pour les activités humaines. Divers organismes dont l’Institut Fédéral pour l’Etude de la Neige et des Avalanches de Davos (SLF) cherchent à mieux comprendre le phénomène. Le site expérimental de la Vallée de la Sionne en Valais est le siège de la recherche sur les avalanches du SLF. Au cours des hivers 1999 et 2000, cinq avalanches majeures ont pu être artificiellement déclenchées sur le site. De nombreux paramètres nécessaires à la modélisation du phénomène ont été mesurés. La détermination, par photogrammétrie, des volumes de neige impliqués dans les avalanches est un des nombreux objectifs de cette étude de la dynamique d’avalanche.

Julien Vallet

Au cours de ces deux hivers, un seul événement a fait l’objet d’une saisie complète, i.e. la mesure du volume pour la zone de déclenchement et de dépôt de l’avalanche. Les autres épisodes n’ont fait l’objet que de mesures photogrammétriques partielles. Ces mesures ont permis de mesurer les volumes de neige déposés et les hauteurs de cassure (plaque de neige s’écoulant dans l’avalanche). La cassure de la plus grande avalanche atteint 2.10m sur plus de 1000m. Le volume total déposé par les trois avalanches de l’hiver 1999 atteignait 1'600’000m3 avec des épaisseurs de 30m. Les importantes différences de volume entre la zone de déclenchement et la zone de dépôt ont montré que les avalanches entraînaient de grandes quantités de neige lors de leur écoulement. De plus, la répartition spatiale de la neige déposée par l’avalanche fournit d’importantes informations quant à l’écoulement de neige dense.

Ces nombreuses mesures photogrammétriques ont apporté beaucoup d’informations utiles à l’étude des avalanches. Elles ont également contribué au développement d’un système photogrammétrique intégrant les techniques de navigation INS/GPS, permettant alors de s’affranchir d’une signalisation au sol, extrêmement difficile à implanter dans ces zones.

La neige, “Or Blanc”, bonheur des skieurs et des stations de skis, est quelquefois une source de danger non maîtrisé. Avalanches, congères sont des obstacles à la sécurisation des centres de loisirs hivernaux, de leurs accès et plus généralement du territoire alpin. Face à l’extension des activités humaines en ces territoires à risques, l’homme tente de se protéger ou de prévoir les événements. En Suisse, l’Institut Fédéral pour l’Etude de la Neige et des Avalanches de Davos (SLF) effectue des recherches sur la dynamique des avalanches sur le site expérimental de la Vallée de la Sionne. Ce projet, unique en Europe, vise à développer des modèles d’écoulement d’avalanche, extrêmement utiles pour la cartographie des zones à risque ainsi que pour le dimensionnement des ouvrages paravalanches. Des avalanches sont déclenchées artificiellement après d’importantes chutes de neige. De nombreuses mesures sont saisies et utilisée par la suite pour calibrer et améliorer les modèles.

Parmi les nombreuses mesures effectuées sur le site (vitesse, pression…), la photogrammétrie est utilisée sur le site expérimental de la Vallée de la Sionne pour cartographier précisément les limites de chaque avalanche ainsi que pour mesurer la surface de la neige avant et après l’avalanche. En effectuant une différence entre les deux états de surface, on peut déterminer les volumes de neige pour la zone de déclenchement et pour la zone de dépôt.

La photogrammétrie est une technique couramment utilisée pour les mesures de volumes entre deux états de surfaces d’un objet (Koelbl 91). Les études de glissements de terrains, la glaciologie… l’utilisent fréquemment pour des mesures précises de volume.

La précision sur la mesure de la surface a deux composantes : une composante aléatoire due à l’opérateur et au contraste des images et une composante systématique due à l’orientation absolue des photographies. La précision de l’orientation dépend essentiellement de la qualité et de la distribution des points d’ajustage. Il est donc nécessaire, afin d’éviter des erreurs systématiques entre deux épisodes, d’utiliser des points de contrôle identiques pour chaque épisode. La précision requise (20-30cm) implique une couverture à grande échelle du site. Le grand nombre de photos nécessaires qui en découle requiert l’utilisation des techniques d’aérotriangulation pour l’orientation des clichés. Par la suite, la restitution et la mesure de Modèles numériques de Surface (MNS) est effectuée automatiquement au moyen de restituteurs numériques lorsque le contraste est suffisant. Dans le cas contraire, seuls les restituteurs analytiques sont employés pour les restitutions délicates (neige fraîche).

L’utilisation de la photogrammétrie sur le site de la Vallée de la Sionne soulève néanmoins quelques problèmes, spécifiques aux mesures hivernales, difficiles à résoudre par l’emploi des procédures photogrammétriques standards :

1.      La neige fraîchement tombée  est en général uniforme et présente un très faible contraste. La mesure précise de la hauteur de neige dans la zone de départ est  difficile à effectuer.

2.      Le déclenchement d’une avalanche étant astreint aux conditions météorologiques, il est difficile de prévoir plus de 2 jours à l’avance le déroulement de l’essai. La méthode doit alors être très flexible à mettre en œuvre.

3.      L’expérience de 3 années de déclenchements sur le site a montré que l’avalanche doit être déclenchée avant 9h30 le matin sans quoi les chances d’occurrence diminuent fortement. L’illumination de la pente avant le déclenchement  n’est alors pas propice à un contraste optimal pour la prise de vue.

4.      L’implantation et le maintien de points de contrôle au sol est délicate car il faut les placer dans des zones libres de neige, même après une importante chute, et hors de portée des avalanches. De plus, la mise en place sur le site est techniquement difficile (falaises, couloirs…). Le positionnement par système GPS est parfois impossible (en falaise), les techniques tachéométriques étant alors de mise.

Afin de pallier ces inconvénients, sans nuire à la flexibilité du système, le couplage d’un système de navigation intégrant GPS et système inertiel (INS) à la caméra a été parallèlement étudié. Un tel système à l’avantage d’être indépendant d’une signalisation au sol en fournissant directement les paramètres d’orientation externe pour chaque cliché.

Afin de répondre aux exigences de souplesse et de rapidité, nous avons opté pour un système basé sur l’emploi des caméras aériennes manuelles moyen format (4x5’’) Linhof Aérotechnika et Tomtecs HIEI G4. L’emploi de l’hélicoptère (AlouetteIII, Lama) permet des prises de vues verticales ou obliques à grande échelle (1/5000).

Pour la signalisation au sol, 50 points de contrôle ont été répartis sur la zone de départ et dans la zone de dépôt. Il s’agit de plaques d’aluminium de 60x60cm, fixées sur le rocher ou sur mât selon le terrain. Tous les points ont été mesurés par GPS ou levé tachéométrique avec une précision de l’ordre de 5cm. Le placement, parfois délicat, des points de contrôle est le fruit d’observations des zones ‘’hors neige’’ durant les hivers 1994 à 1999 (fig. 1). Néanmoins, les points de contrôle doivent être contrôlés ou remplacés chaque année.

Les évènements des hivers 99-2000

Trois avalanches ont été déclenchées artificiellement en 1999 (fig. 2) et deux en 2000 sur le site de la Vallée de la Sionne. Le tableau 1 résume les travaux photogrammétriques effectués pour les épisodes majeurs.

En général, il n’est pas prévu de prendre en photo la zone de dépôt avant le déclenchement. Les raisons sont :

·         l’ombre dans la zone de dépôt au moment de la prise de vue (9h) diminue fortement la précision

·         la neige fraîche au sol ou tombée depuis la dernière avalanche constitue un volume négligeable du dépôt du fait de sa faible densité.

Les principaux épisodes sont détaillés ci dessous :

10.02.99 : Des photographies aériennes ont été prises avant et après l’avalanche pour la zone de déclenchement et la zone de dépôt. Toutefois, la fracture s’est  propagée 700m au sud de la zone signalisée et l’avalanche s’est déposée également hors du périmètre d’étude. La moitié des points de contrôle de la zone de dépôt ont été détruits.

25.02.99 : Une défaillance de la caméra n’a permis aucune prise de vue avant l’avalanche. Des photos a posteriori ont pu être faites un jour après le déclenchement. Cette avalanche exceptionnelle a détruit 90% des points d’ajustage restants sur la zone de dépôt et s’est étendue sur une surface 2 fois supérieure au domaine d’étude. Des points de contrôle temporaires ont été placés et mesurés par GPS. Pour faciliter les mesures sur la zone de dépôt, le KSL (Koordinationsstelle für Luftaufnahmen) a effectué un vol 1 :10'000 avec une camera Leica RC30.

Durant l’été 1999, tous les points de contrôle détruits ont été remplacés et complétés.

20.02.00 : Aucune photo avant le déclenchement n’a pu être prise à cause du brouillard présent sur le haut de la pente. La double cassure (2 avalanches) a été photographiée ainsi que la zone de dépôt.

Résultats

Précision de l’orientation externe

L’obliquité des images et le contraste de la neige fraîche de la zone de déclenchement requièrent l’emploi de restituteurs analytiques. La qualité optique de ces derniers permet une restitution plus précise pour les zones à faible contraste. Les mesures ont été effectuée avec le restituteur analytique Wild S9AP et la compensation de bloc faite avec BLUH et BINGO. Pour la zone de dépôt, la station numérique Socet Set de LH Systems a été employée pour l’orientation et la restitution. La texture de l’avalanche permet l’emploi de la corrélation automatique pour le calcul du modèle numérique de surface. Une correction manuelle est apportée par la suite pour contrôler et corriger les éventuelles erreurs. Le tableau 2 présente les précisions obtenues pour les orientations (triangulation par faisceaux).

Cette précision est caractérisée par la RMS (Root Mean Square Error) sur les déviations aux points de contrôle. L’étape de l’orientation est alors cruciale pour le calcul de volume. Toute erreur sur l’orientation induit une erreur systématique qui se répercute directement sur le volume. C’est pourquoi il est fondamental d’utiliser pour chaque épisode les mêmes points de contrôle lors de la phase d’orientation. La précision de l’orientation dépend de l’échelle et de la qualité et distribution des points de contrôle. Une bonne distribution et des points clairement identifiables et de coordonnées connues avec précision  (++ tab.2) permettent une bonne orientation. 

Mesure de la hauteur de la cassure

La mesure de la hauteur de la cassure (fig 3) ne nécessite qu’une mesure relative sur un même modèle. La mesure de cette ligne donne une information sur le volume de la plaque de neige qui s’écoule. La précision de l’orientation absolue n’a pas d’influence sur ce type de mesure. Seuls le contraste et l’échelle ont une influence. Sur des lignes de rupture aussi bien définies, l’erreur sur la mesure d’un seul point est de l’ordre de 10 à 15cm. La hauteur est mesurée par paire de points ‘’haut-bas’’, ainsi que par ligne.

Même avec une orientation externe de mauvaise qualité, il a été possible de mesurer précisément la ligne de rupture du 10.02.99. Pour le 25 février 99, la prise de vue a été effectuée 4 jours après le déclenchement. Le tassement du manteau neigeux, de l’ordre de 45cm, a du être pris en compte (mesure sur les stations automatiques voisines) et a introduit une erreur de l’ordre de +/-20cm sur la hauteur de la cassure.

La figure 4 montre la cassure du 25 février 1999. Une hauteur moyenne de 2.10m et des valeurs variant de 1.0m à 3.5m sur une longueur de 1km.

Mesure des volumes de la zone de départ du 10.02.99

Les photographies ont été effectuées avant et après le déclenchement de l’avalanche. Pour les mesures volumétriques, l’orientation est l’étape fondamentale car elle induit des erreurs systématiques sur la mesure des surfaces, qui se répercutent directement sur les volumes. Ce type d’erreur influence plus le calcul du volume global que l’erreur de restitution sur un seul point (due a l’opérateur et au contraste).

L’avalanche s’étant propagée hors de la zone signalisée, des points naturels ont été mesurés sur le premier modèle et ont servi de points de contrôle pour la situation avant déclenchement. De cette manière, on réduit les erreurs systématiques entre les modèles. Une précision relative de 25cm entre les deux surfaces a put être obtenue.

A cette erreur systématique vient s’ajouter l’erreur commise lors de la restitution. Cette erreur dépend principalement du contraste de la surface neigeuse. Pour estimer le bruit qui entache la mesure d’un point, on effectue une analyse de variabilité en comparant la hauteur de neige d’un point avec ses voisins. On suppose alors que la hauteur de neige ne varie que faiblement d’un point à son voisin, les points étant mesurés touts les 4 m. La figure 5 montre les résultats de cette analyse pour les zones à faible contraste. Le bruit est d’environ 60cm et revêt un caractère aléatoire.

Une autre méthode consiste à comparer plusieurs mesures de la même grille de points par différents opérateurs. Ces tests ont révélé que pour des zones avec un bon contraste, l’erreur sur la mesure d’un point était de l’ordre de 15cm tandis qu’en zone faiblement contrastée, cette erreur pouvait aller jusqu'à 50cm. Toutefois, ce type d’erreur n’affecte que faiblement le volume global car la moyenne du bruit sur toute la zone est de l’ordre de zéro (cf. fig. 4).

Après déclenchement, la restitution de 2900 points pose peu de problème car le contraste est excellent. Ce fichier de point a été réintroduit pour être mesuré sur le modèle avant déclenchement, mais seuls 1700 points ont pu être mesurés à cause du faible contraste de la neige fraîche.

Même si la mesure des volumes est incomplète, d’importantes informations peuvent en être déduites. Les hauteurs maximales de neige ne se situe pas au niveau de la fracture mais plus bas dans la pente, en dessous des rochers les plus raides et dans les couloirs. Le calcul du volume sur la surface mesurée donne une hauteur moyenne de plaque de 1.20m soit 35cm de plus que la hauteur moyenne de la cassure (tab. 3).

Sur la base de ces mesures de cassure et d’images vidéo permettant d’estimer la taille de la plaque, on a pu estimer les volumes de départ pour les épisodes du 30 janvier et 25 février (tab. 4).

Mesure du volume dans la zone dépôt

Avalanche du 10.02.99 : Les orientations et les restitutions ont été effectuées avec un précision de 30cm. La hauteur maximale mesurée était de l’ordre de 15m au fond du vallon de la Sionne.

Avalanche du 25.02.99 : Cette avalanche d’une ampleur exceptionnelle a détruit tous les points de contrôle de la zone de dépôt. L’orientation n’a pu être alors réalisée qu’avec une précision de 50cm. L’excellent contraste n’a posé aucun problème pour la restitution. Les hauteurs maximales de l’ordre de 17m sont situées au pied du bunker ainsi qu’au terme du dépôt, 1km plus bas. Les zones d’érosion entre les deux surfaces, après l’arrêt de l’avalanche, sont également visibles notamment lors de francs changement de direction de l’avalanche.

Avalanche du 20.02.00 : L’orientation de 3 bandes de 2 images a été faite avec succès pour une précision d’environ 25cm. Le dépôt ayant commencé très haut, le volume de neige a été mesuré par rapport au sol sur la partie non commune à la référence du 27.12.99. Si on calcule le volume sur la partie commune au 27.12 et au 20.02, on obtient 231'000 m3 de dépôt. La figure 6 illustre les résultats de la restitution.

Pour l’hiver 2000, un contrôle sur les orientations a été effectué en mesurant des points commun entre les modèles d’hiver et les modèles d’été. Les écarts n’excèdent pas 15-20cm (sur sol brut).

Discussion des résultats

Les résultats ci dessus ne couvrent pas la zone d’écoulement de l’avalanche. En effectuant un bilan de masse sur la base des volumes calculés – la densité de la neige a été mesurée in situ soit 250 kg/m3 pour la neige fraîche et 500 kg/m3 pour le dépôt  – on remarque alors que la masse de neige déposée est largement supérieure à la masse de neige de la plaque de départ. Ceci prouve qu’il y a un accroissement important de la masse dans la zone d’écoulement qui correspond au volume de neige fraîche sur tout le trajet de l’avalanche. Pour l’avalanche du 30 janvier, l’entraînement a été moindre car une avalanche spontanée était partie un jour avant collectant une partie de la neige dans la zone d’écoulement.

Cette conclusion est fondamentale pour la modélisation. La plupart des modèles développés jusqu’alors négligeaient cet entraînement de neige.

D’un point de vue purement photogrammétrique, ces sessions de mesures ont montré le potentiel de la méthode au niveau de la flexibilité, de l’orientation et de la restitution. Ces principales limites sont le manque de contraste dans certaines zones et la difficulté de maintenir des points contrôles stables et durables. De plus les développements futurs des modèles nécessiteront également des mesures dans la zone d’écoulement où une signalisation durable n’est pas envisageable.

Intégration INS/GPS

Parallèlement aux mesures photogrammétriques effectuées sur le site, nous nous sommes penchés sur une solution utilisant un système de navigation INS-GPS afin de déterminer en vol les paramètres de l’orientation externe de la caméra, sans l’aide de point d’ajustage, la flexibilité du système restant une priorité.

L’intégration de ce type de senseurs dans la photogrammétrie n’est pas une nouveauté en soi. Des systèmes commerciaux existent déjà (Applanix) et de nombreux tests ont révélé des précisions de l’ordre de 15-20cm pour le centre projection et 20-30 arc seconde pour l’attitude (Skaloud 99, Cramer 99). Toutefois, cette intégration était jusqu’alors effectuée sur un aéronef (avion, hélico) avec un montage fixe et des caméras grand format, pas assez souple d’utilisation pour les applications nivologiques. Sur la base de ces expériences hivernales, nous avons développé un système manuel combinant caméra manuelle et système INS-GPS.

Le système

Le système reste composé d’une caméra aérienne manuelle Linhof Aerotechnika ou Tomtecs HIEI G4. (format 4x5in et 5x5in). Une structure en carbone-aluminium permet le montage rigide de l’unité inertielle Litton LN200 et de l’antenne GPS Leica SR500 sur la caméra. Le tout forme un seul bloc, aucun mouvement relatif n’étant possible entre les senseurs. L’INS mesure les accélérations et les vitesses angulaires à une fréquence de 400 Hz tandis que le récepteur GPS bi-fréquence (L1, L2) enregistre la position à 10 Hz. Toutes les données sont stockées sur disque dur pour le post traitement.

Chaque unité est synchronisée sur l’heure GPS. Ceci permet d’obtenir l’heure de la photographie avec une précision de 1ms.

L’INS est synchronisé via le système d’acquisition INS-GPS (VME bus).

Montage et fonctionnement

Afin de préserver les performances théoriques d’un tel système, nous avons du concevoir le montage selon les critères suivants :

  • réduire au maximum les vibrations (altère les performance de l’INS)
  • éviter tout mouvement relatif entre les capteurs
  • permettre la manipulation manuelle du système en préservant 6 degrés de liberté pendant la prise de vue
  • répondre aux critères de sécurité de l’hélicoptère.

Pour ce faire, l’INS est monté directement sur le corps de la caméra, via la structure en aluminium-carbone. L’antenne GPS est fixée sur cette structure avec un tube carbone de 1m (fig. 7). L’ensemble est relativement léger et très rigide. Les vibrations pendant la prise de vue sont amorties par l’opérateur qui manipule le système (fig. 7).

Pendant le vol de transition, le système est fixé à l’hélicoptère (fig. 7) et subit de faibles vibrations. Lors de la prise de vue, le système est détaché de l’appareil et permet des prises de vue verticales ou obliques. Des câbles assurent la sécurité du système pendant cette phase.

Une seconde antenne GPS est fixée sur la queue de l’appareil et fournit une valeur approximative de l’azimut pendant la phase d’initialisation de l’INS (phase de transition).

L’hélicoptère utilisé est une Alouette III. L’absence de patin et la porte coulissante laisse une grande visibilité.

Le système doit évidemment être calibré à deux niveaux : individuel (calibration des biais, orientation internes…) et ensemble (détermination des offsets entre les capteurs). Cette seconde étape s’effectue in situ en réalisant une aérotriangulation sur une zone très bien signalisée. Par ailleurs avant et après chaque mission, une calibration est effectuée pour contrôler la stabilité du système.

Les premiers tests sont en cours de réalisation avec la caméra Tomtecs.

Conclusions

Les résultats obtenus durant ces deux hivers ont clairement montré le potentiel de la photogrammétrie pour la détermination des dépôts d’avalanche et pour la mesure de cassure. Sous condition d’un bon contraste et de points de contrôle bien répartis, la hauteur de neige peut être mesurée avec une précision de 15-30cm. La qualité et la quantité de points d’ajustage sont cruciales pour la précision car elles influent de manière systématique sur le volume.

Toutefois, les mesures effectuées dans la zone de déclenchement ont démontré les limites de la méthode. Les forts vents, le manque de contraste sur certaines parties, la difficulté de placer et de maintenir une signalisation adéquate en condition hivernale, sont les facteurs limitant. Le manque de contraste influe essentiellement sur la mesure locale de la hauteur (bruit aléatoire de l’ordre de 60cm) mais le volume global n’en est que peu affecté. Ces mesures ont montré également que la mesure de la cassure, bien qu’utile, n’est pas représentative de l’épaisseur moyenne de la plaque. Des accumulation importantes se produisent en effet dans les couloir sous jacent à la cassure.

Ces données ont également mis en exergue l’entraînement de neige lors de l’écoulement de l’avalanche, phénomène négligé par la plupart des modèles.

Finalement, ces expériences ont permis de développer un système combinant photogrammétrie et système de navigation, permettant de s’affranchir des points de contrôle. Ce système est actuellement en phase de test.

Julien Vallet
DGR EPFL
CH-1015 Lausanne
julien.vallet@epfl.ch

Texte intégral: MPG 8/2001
Commendez la revue MPG: verlag@geomatik.ch


Projekt ATOMI: Automatische Detektion und
Rekonstruktion von Gebäuden für das topographische Landschaftsmodell der Schweiz

Die Detektion und Rekonstruktion von Gebäuden ist im Bereich der Photogrammetrie weltweit eines der zentralen Forschungsthemen. Im Rahmen des Projekts ATOMI wird gegenwärtig nach Methoden gesucht, um diese Aufgaben zu automatisieren. 

Markus Niederöst

Projekt ATOMI

Am Institut für Geodäsie und Photogrammetrie der ETH Zürich wird zur Zeit nach geeigneten Verfahren der Bildverarbeitung und Objektextraktion geforscht, um die Daten des digitalen Landschaftsmodells VEKTOR25 automatisch zu aktualisieren und zu verfeinern [2]. Ausserdem soll die dritte Dimension hinzugefügt werden. Dazu läuft eine Zusammenarbeit mit dem Bundesamt für Landestopographie (L+T). Ziel des Projektes ATOMI (Automated reconstruction of topographic objects from aerial images using vectorized map information) ist es, Werkzeuge zur Verfügung zu stellen, mit welchen Grunddaten für das dreidimensionale Topographische Landschaftsmodell (TLM) der L+T rationeller erstellt werden können (Abb. 1). Das TLM soll weitmöglichst der Realität entsprechen und im Gegensatz zu den Ausgangsdaten nicht generalisiert sein. Als Lagegenauigkeit für Gebäudeumrisse wird 1 m angestrebt. Ausserdem soll die Höhe von Gebäuden mit einer Genauigkeit von 1-2 m ermittelt werden. Die Ergebnisse sind auch im Hinblick auf eine Automatisierung der Kartennachführung interessant, welche als Teilaspekt der ganzen Problematik behandelt wird. Eine weitere Forschungsarbeit im Rahmen von Projekt ATOMI hat die automatische Aktualisierung der Strassenachsen und die Bestimmung der Strassenhöhe zum Inhalt. Auf sie wird jedoch hier nicht weiter eingegangen.

Objekte erkennen und messen

Das menschliche Gehirn ist ein Wunder der Natur. Unbewusst werden in unserem Kopf laufend Dinge erfasst, erkannt und interpretiert. Wir sind sogar in der Lage, in einem unvollständigen Bild Lücken zu füllen. So können wir in Abbildung 2 den Buchstaben E erkennen, obwohl sein Umriss nur unvollständig abgebildet wurde. Auch bei Gebäuden leistet unser Gehirn wertvolle Dienste. Anhand eines einzigen Luftbildes können wir Gebäude identifizieren und ihre 3-dimensionale Dachform erkennen (Abb. 2).

Das Hauptproblem bei der automatischen Gebäudedetektion ist, dass der Computer in geeigneten Daten diejenigen Informationen sammelt, welche es ihm erlauben, ein Haus von einem Baum oder einer Strasse zu unterscheiden. Für die Rekonstruktion ist es anschliessend notwendig, dass die Kanten und Flächen, welche die dreidimensionale Form des Objektes definieren, bestimmt werden können. Die Werkzeuge, welche das automatische Erkennen und Messen von Objekten mit dem Computer ermöglichen, sind die Methoden der digitalen Bildanalyse und der digitalen Photogrammetrie. Einen Überblick über verschiedene Methoden zur Detektion und Rekonstruktion von Gebäuden geben [1], [3] und [4].

Die verwendeten Daten

Für die Untersuchungen wurden digitale Farbluftbilder der Ortschaften Hedingen und Horgen (Kanton Zürich) im Massstab 1:15'800 verwendet. Bei einer Flughöhe von ungefähr 4'800 m über Grund und einer Scanauflösung von 14 mm entspricht ein Pixel der Fläche von 22x22 cm2. Aus ökonomischen Gründen wird eine 2-fache Überdeckung (Stereomodell) angestrebt.

Auf einer digitalen photogrammetrischen Station wurden die Stereomodelle orientiert. Dazu wurden die natürlichen Passpunkte der L+T verwendet, welche mit GPS gemessen worden waren. Danach erfolgte die automatische Generierung von Oberflächenmodellen.

Ebenfalls zur Anwendung kam das DHM25, welches für die ganze Schweiz mit einer Rasterweite von 25 m vorliegt. Die Genauigkeit beträgt im Mittelland ca. 1.5 m und in den Alpen 5-8 m.

Um eine möglichst robuste Detektion und Rekonstruktion zu gewährleisten, werden verschiedene Informationen über die Objekte automatisch gesammelt und verarbeitet. Häufig verwendet werden Farbe, Textur, Grauwertkanten, ein digitales Oberflächenmodell (DOM), ein digitales Terrainmodell (DTM, z.B. DHM25), ein normalisiertes DOM (nDOM = DOM-DTM) und Schatten.

Das Vorhandensein von VECTOR25 als Näherungsdaten scheint ein grosser Vorteil zu sein. Es müssen jedoch 2 Aspekte berücksichtigt werden: Der Dateninhalt ist generalisiert, und der Datensatz ist nicht aktuell. VECTOR25 wird an der L+T halbautomatisch aus der Landeskarte 1:25'000 digitalisiert, welche eine Lagegenauigkeit von 3-8 m hat. Der Inhalt dieser Karten wird bei der Herstellung von Kartographen generalisiert. Der graphischen Darstellung wird im Hinblick auf eine gute Lesbarkeit eine hohe Priorität gegeben, wogegen Geometrie und Semantik manchmal vernachlässigt werden müssen [5]. Obwohl Regeln für die Generalisierung existieren, hängt das Resultat sehr stark vom bearbeitenden Kartographen ab (Abb. 3).

Eine zweite Eigenschaft von VECTOR25 ist, dass der Datensatz nicht aktuell ist. Es sind nur diejenigen Gebäude enthalten, welche bei der letzten Kartennachführung bereits berücksichtigt worden waren. Die rasche urbane Entwicklung sollte dabei nicht unterschätzt werden, waren doch in den Testgebieten Hedingen und Horgen beinahe 20% der zu rekonstruierenden Gebäude nicht in VECTOR25 enthalten. Diese Tatsache macht die Entwicklung einer Methode zur Detektion neuer Gebäude absolut notwendig.

Gebäudedetektion

Ein wichtiger Aspekt bei der Detektion von Gebäuden ist die Trennung von anthropogenen und natürlichen Objekten. Sowohl Häuser wie auch Bäume zeichnen sich dadurch aus, dass sie sich in einem DOM vom Terrain abheben. In der Regel kann jedoch nicht davon ausgegangen werden, dass ein Haus allein aufgrund der Form im photogrammetrisch generierten Oberflächenmodell als solches identifiziert werden kann. Abhilfe bei der Unterscheidung von Gebäuden und Bäumen würde die Verwendung von Farbinfrarot- oder Infrarotbildern schaffen, in welchen die Vegetation sich farblich von den anderen Objekten abhebt. Die zusätzliche Befliegung der ganzen Schweiz mit Farb-Infrarotfilm wäre jedoch sehr kostspielig. Darum müssen andere Möglichkeiten gefunden werden, um die Häuser von der Vegetation zu trennen.

Ein Forschungsschwerpunkt im Projekt ATOMI ist die Detektion von Vegetation aus Farbluftbildern mit Klassifizierungsmethoden, wie sie auch in der Fernerkundung zur Unterscheidung verschiedener Bodenbedeckungen verwendet werden. Oberflächen, welche sich farblich ähnlich sind, werden dabei derselben Klasse zugeteilt. Man unterscheidet zwischen überwachter Klassifizierung, bei welcher für jede Klasse vorgängig bestimmt wurde, welche Farbeigenschaften und welche Bedeutung sie hat, und unüberwachter Klassifizierung, bei welcher in Klassen unterteilt wird, ohne dass die Klasseneigenschaften und ihre Bedeutung bekannt sind.

Als Beispiel soll das Prinzip der überwachten Klassifizierung erläutert werden. Aus den 3 Farbkanälen rot, grün und blau eines Bildes (Abb. 4a) können verschiedene andere Kanäle berechnet werden, in welchen im Idealfall gleichartige Objekte die gleiche Helligkeit aufweisen. Im sogenannten CIELAB-Farbraum zum Beispiel enthalten die 3 Kanäle die Helligkeit, die rotgrün- beziehungsweise die gelbblau-Information. Der rotgrün-Kanal a* (Abb. 4b) zeichnet sich dadurch aus, dass anthropogene Objekte heller abgebilder werden als die Vegetation. Ähnlich verhält es sich mit der arithmetischen Kombination gr = (g-r) / (g+r) der RGB-Farbkanäle grün und rot (Abb. 4c). Wenn nun für wenige Gebäude im Bild die durchschnittlichen Grauwerte in den beiden Eingangskanälen rotgrün und gr durch manuelle Messungen bestimmt werden, kann anschliessend für jedes Pixel im Bild berechnet werden, ob es zur Klasse Gebäude oder zur Klasse Vegetation gehört (Abb. 4d). Werden im nDOM alle Höhenwerte eliminiert, welche durch Vegetation verursacht wurden, bleiben die Gebäude als einzige grössere Objekte übrig, welche sich vom Boden abheben (Abb. 4e). Diese können durch Verwendung eines Schwellwertes für die minimale Gebäudehöhe (z.B. 2 m) detektiert werden (Abb. 4f).

Die beschriebene Methode ist nur eine von mehreren Möglichkeiten, die ungefähre Lage von Gebäuden zu bestimmen. Eine anderer Ansatz wurde ebenfalls im Verlauf des Projekts ATOMI entwickelt. Das DOM wird dabei horizontal in Scheiben geschnitten. Ein Objekt ist dann detektiert, wenn in mehreren aufeinanderfolgenden Höhenstufen jeweils an der selben Stelle Höhenwerte der betreffenden Stufe vorkommen (Abb. 5). Der Vorteil des Verfahrens ist, dass ausschliesslich ein DOM benötigt wird, ein DHM muss nicht vorhanden sein [6].

Automatische Rekonstruktion

Bei der Rekonstruktion von Gebäuden aus einem Stereomodell mit Bildern des Massstabs 1:15'800 ist zu berücksichtigen, dass Dachdetails nicht modelliert werden können. Daher ist das Ziel, die grobe Gebäudeform möglichst exakt wiederzugeben. Im Verlauf des Projekts wurden verschiedene Varianten entwickelt und getestet.

Verfahren A:

Es wurde ein Orthophoto des Testgebietes verwendet, um die Stärke und Orientierung von Grauwertkanten sowie eine arithmetische Kombination des roten und des grünen RGB-Kanals zu berechnen. Zusätzlich kam das normalisierte DOM zur Anwendung. Basierend auf diesen Daten wurden Schritt für Schritt die Lage, die Orientierung und die Grösse der Approximation aus VECTOR25 verbessert und im DOM eine Gebäudehöhe ermittelt [6]. Die Gebäuderepräsentation mit nur einer Höhe und basierend auf dem Orthophoto bedeutet eine starke Vereinfachung (Abb. 6a).

Verfahren B:

Für jeweils ein detektiertes Gebäude wurden mittels unüberwachter Klassifizierung Dachregionen mit konstanten radiometrischen Eigenschaften bestimmt [7]. Für jede Dach-Hauptfläche wurden vorgängig rekonstruierte 3D-Kanten sowie Höhenwerte aus dem DOM verwendet, um die 3-dimensionale Ebenengleichung und die vereinfachte Form der Dachfläche zu bestimmen. Durch Projektion aller Eckpunkte auf das DHM25 wurden die Wände hinzugefügt und somit das Gebäudemodell generiert (Abb. 6b). Die Rekonstruktion einzelner Dach-Hauptflächen ist sehr stark von den radiometrischen Eigenschaften der Luftbilder und insbesondere der Dächer abhängig.

Verfahren C:

Schliesslich wurden die Erfahrungen aus den Methoden A und B kombiniert, um genauere Resultate mit grösserer Zuverlässigkeit erzielen zu können. Der Ansatz basiert auf der Verwendung des digitalen Oberflächenmodells und - falls vorhanden - von rekonstruierten 3D-Kanten. Die Näherung aus VECTOR25 wird in mehreren Einzelschritten an die Gebäudeumrisse im DOM und die 3D-Kanten angepasst (Verschiebung, Rotation, Massstab und Korrektur jeder einzelnen Gebäudeseite). Gegebenenfalls wird mit Hilfe der Gradientenrichtungen im DOM ein Satteldach rekonstruiert (Abb. 6c).

Während die Verfahren A und C für Gebäude mit einfachem Grundriss gut funktionieren, stellte sich heraus, dass der Ansatz B zu empfindlich auf die radiometrischen Eigenschaften der einzelnen Dachflächen reagiert.

Analyse und Nutzen der Daten

Die entwickelten Rekonstruktionsverfahren A und C erlauben, frei stehende Häuser mit einfachen Dachformen automatisch und weitgehend korrekt zu rekonstruieren. Im Verlauf dieser Forschungsarbeit stellten sich allerdings die folgenden Punkte als besonders kritisch heraus:

·         Eine saubere Detektion der Vegetation ist sehr wichtig. Bäume in der Nähe von Gebäuden wirken sich negativ auf die Resultate aus.

·         Die radiometrischen Eigenschaften zwischen verschiedenen Luftbildern variieren stark. Es ist sehr schwierig,allgemein gültige auf den Farbeigenschaften der Bilder basierende Informationen zu bestimmen.

·         Je genauer die verwendete Höheninformation im DOM ist, desto zuverlässiger wird die Rekonstruktion.

·         Alle entwickelten Verfahren wurden für Einzelhäuser ausgelegt. In Dorfzentren oder gar in Städten müssen andere Methoden zur 3D-Rekonstruktion gefunden werden.

Die Kombination eines Kartenausschnittes 1:25'000 mit den automatisch generierten Daten zeigt, dass die automatische Nachführung auf der Basis eines einzelnen Stereomodells (2 Farbbilder 1:15'800) durchaus möglich ist (Abb. 7).

Ausblick in die Zukunft

Ein Versuch mit einem sehr präzisen Oberflächenmodell (Rasterweite 0.5 m) zeigt Verbesserungmöglichkeiten, welche die Verwendung von genaueren und zuverlässigeren Höhendaten birgt (Abb. 8). Diese Daten können mittels Laserscanning erfasst werden.

Interessant wäre auch, einen Laser zu verwenden, welcher Mehrfachreflexionen verarbeiten kann. Die Messung der jeweils ersten Reflexion ergibt - ähnlich dem optischen DOM - die Oberfläche inklusive Gebäude und Bäume. Messungen mit der jeweils letzten Reflexion geben das Gelände und alle anthropogenen Objekte wieder [9]. Nur im Fall der Vegetation unterscheiden sich die Höhe aus der ersten bzw. letzten Reflexion wesentlich. Bäume könnten also mit Hilfe der Laserdaten eliminiert werden.

In der digitalen Bildverarbeitung und der digitalen Photogrammetrie steckt ein grosses Potential. Die beschriebenen Methoden sind jedoch nur ein erster Schritt. Es wird weitere Entwicklungen der Verfahren und Daten brauchen, um eine allgemein anwendbare automatische und zuverlässige Gebäuderekonstruktion möglich zu machen.

Markus Niederöst
Institut für Geodäsie und Photogrammetrie ETH Zürich
ETH Hönggerberg
CH-8093 Zürich
markus@geod.baug.ethz.ch
www.photogrammetry.ethz.ch

Vollständige Version siehe VPK 8/2001
Bestellung VPK: verlag@geomatik.ch


Von Schnee und Lawinen, von Luft- und Orthobildern
Ein Stück Aufarbeitung des Lawinenwinters 1998/99

Der tragische Lawinenwinter 1998/99 forderte Menschenopfer und grosse Schäden an Gebäuden, Wald, Kulturland, und Verkehrswegen. Neben dem teuren Wiederaufbau boten die Naturereignisse verschiedenen Dienststellen und Institutionen Anlass, allfällige Ergänzungen auf Gefahrenkarten und Lawinenkatastern anzubringen oder die Wirksamkeit von Schutzwäldern, Lawinenverbauungen, Warn- und Hilfeeinrichtungen zu überprüfen. Eine der wesentlichen Grundlagen dazu boten die Bildflüge vom Februar 1999 mit den nachfolgenden Auswertungen der Luftbilder. Der Kanton Bern erstellte ein zusammenhängendes Orthofoto über sein Alpengebiet für die Nachführung des Lawinenkatasters und der Gefahrenkarten.  

Georg Budmiger, Klaus Budmiger (2000)

Ein denkwürdiger Winter im Alpengebiet Denkwürdig wegen den ungewöhnlich heftigen Schneefällen nach einer vieljährigen Periode von ausgesprochen schneearmen Wintern; denkwürdig wegen den zahlreichen Schadenlawinen mit Menschenopfern und grossen Schäden an Gebäuden, Wald, Kulturland und Verkehrswegen. Ob es ein "Jahrhundertwinter" war, wie man ihn allgemein nennt, bleibe dahingestellt, weil das Gedächtnis der Menschen in solchen Situationen doch eher kurz ist. Mindestens von den Schneemengen her dürfte er sich aber wohl an die Reihe der schweren Lawinenwinter der Jahre 1558, 1689, 1720, 1749, 1808, 1888 und 1951 anschliessen (Pfister).

In den Tagen der stärksten Schneefälle, Ende Januar, anfangs und Mitte Februar 1999, zeigen die Wetterkarten ähnliche Druckverhältnisse in der Atmosphäre. Zwischen einem Hochdruckgebiet über dem östlichen Atlantik (Azorenhoch) und einem Tiefdruckgebiet über dem skandinavischen Raum strömte feuchte Polarluft gegen Mitteleuropa. Sie staute sich an den Alpen und löste an der Alpennordabdachung und in den inneralpinen Gebieten intensive Schneefälle aus (SMA).

Im Februar 1999 sind dann an die 600 Schadenlawinen in den Schweizer Alpen niedergegangen (Cerutti), davon mit besonderer Tragik diejenigen von Evolène, Wengen und Galtür im österreichischen Vorarlberg. Auf Schweizer Gebiet forderten die Lawinen 17 Todesopfer, in Galtür 38 (SDA).

Die gewaltigen Schneemengen verhiessen über die Lawinenabgänge hinaus auch nichts Gutes für die Zeit der Schneeschmelze. Die z.T. sommerlichen Wärmetage im Mai, gefolgt von starken Regenfällen, führten denn auch im Mai und Juni zu grossflächigen Überschwemmungen im nordalpinen Vorland. Hilfe und Chance Menschliche Tragik und materielle Schäden lösten bei der Bevölkerung eine eindrückliche Welle der Hilfsbereitschaft aus. Neben der Hilfe durch die öffentliche Hand (Elementarschädenfonds) und die Versicherungen gab es zahlreiche persönliche Hilfeleistungen von Privaten. Die Glückskette sammelte über ihren Fonds "Unwetter Schweiz" und konnte für die Lawinen- und Hochwassergeschädigten letztlich rund 6,5 Mio Fr. für ungedeckte Schäden bereit halten (Pressemitteilungen Glückskette).

Der Lawinenwinter bot aber auch verschiedenen Dienststellen, Institutionen und Organisationen Anlass, allfällige Ergänzungen auf Gefahrenkarten und Lawinenkatastern anzubringen oder die Wirksamkeit von Schutzwäldern, Lawinenverbauungen, Warn- und Hilfeeinrichtungen zu überprüfen.

Die Lawinensituation im Berner Oberland

Gemäss dem Diagramm der automatischen Schneemessstation auf der Gschletteregg, in der Gemeinde Gadmen, nahm die Gesamtschneehöhe zwischen dem 27. und 29 Januar um gut 1 m zu, zwischen dem 6. und 10. Februar um rund 1,7 m und zwischen dem 17. und 24. Februar um nochmals über 2 m. Die Gesamtschneehöhe erreichte am 25. Februar 5.2 m (KAWA). Auf Berner Gebiet nahmen vor allem die Lawinenniedergänge von Wengen mit zwei Todesopfern, von Guttannen und Gadmen katastrophales Ausmass an. Ferner standen Bahn- und Strassenverbindungen in höchster Gefahr und mussten zeitweise gesperrt werden. Adelboden war vom 10. bis 14. und vom 17. bis 27. Februar abgeschnitten, Grindelwald vom 9. bis 12. Februar und vom 17. Februar mit kurzen Unterbrechungen bis am 1. März. Dringende Transporte konnten nur mit Helikoptern, allenfalls noch mit zeitlich beschränkten und abgesicherten Fahrzeugkonvois bewerkstelligt werden. Zu den grossen Sachschäden kamen deshalb noch die wirtschaftlichen Schäden für den Wintertourismus, mitten in seiner Hochsaison. Die bereits erwähnten Überschwemmungen als Spätfolge der winterlichen Schneemassen, trafen auf bernischem Gebiet das Aaretal vom Brienzersee bis Bern. Im Zuständigkeitsbreich der kantonalen Gebäudeversicherung standen im Februar / März Lawinen- und Schneedruckschäden von 45 Mio.Fr. und Hochwasserschäden im Mai/Juni von 80 Mio.Fr. an (GVB).

Luftbilder schaffen Überblick

Die zahlreich eintreffenden Lawinennachrichten riefen dringend nach einer Übersicht über die Gesamtsituation in den Schweizer Alpen. Diese war nur durch vermessungstechnisch auswertbare Luftbilder zu erhalten, die möglichst schon bei ersten klaren Sichtverhältnissen nach dem Lawinenniedergang aufgenommen werden mussten.

Für die Beschaffung der Flugbilder galt es eine grosse Zahl von geradlinigen Flugrouten über die Lawinenzonen zu planen, von denen aus Reihenbilder mit 50% bis 80% Überlappung aufgenommen werden konnten. Unter hohem Zeitdruck erstellten Spezialisten der Landestopographie und der Flotron AG Meiringen, die Flugpläne. Zum Einsatz kamen die beiden Flugzeuge der Eidg. Vermessungsdirektion und der Landestopograhie, ein Flugzeug der Swissphoto AG und zwei Flugzeuge der Luftwaffe. Vom 25. Februar bis 1. März 1999 entstanden entlang von 120 Fluglinien 3201 Senkrechtaufnahmen und 407 Schrägaufnahmen (Mauser und Gruber).

Einer unter den vielen Rapporten über die Fotoflüge soll stellvertretend die Effizienz der Luftbilderbeschaffung illustrieren: Start des Vermessungsflugzeugs am 27.2.99 in Dübendorf um 12.24 Uhr, Landung um 16.36 Uhr; totale Flugzeit 252 Minuten. Davon befand sich die Maschine während 190 Minuten auf 10 verschiedenen Fotofluglinien Ost-West und West-Ost über dem Berner Oberland und dem Wallis. Aus Höhen zwischen 5000 und 6000 m ü.M. wurden dabei genau 800 Fotos aufgenommen und 231 m Film verbraucht. Lässt man die Zeit weg, die das Flugzeug brauchte, um von einer Fluglinie auf eine andere einzuschwenken, entstand rund alle 10 Sekunden eine Aufnahme, die die vorangehende um 80% überlappt (Flugrapport L+T).

Stärken und Tücken der Luftbilder

Erste Stärke: Die technische und optische Qualität der grossen Flugkameras ist so hoch entwickelt, dass sich die Luftbilder durch einen fast unglaublichen Detailreichtum auszeichnen. Luftbilder enthalten viel mehr, als man je auf einer Karte gleicher Grösse darstellen könnte. Aus Flughöhen von ca. 4000 m sind Geländeobjekte von 60 cm Grösse noch erkennbar. Die Flugbilder sind hervorragende Dokumente über den momentanen Zustand einer Landschaft.

Zweite Stärke: Betrachtet man zwei sich teilweise überlappende Luftbilder zusammen unter dem Stereoskop, erscheint der überlappende Bildteil als optisches, dreidimensionales Geländemodell. Darauf sind nebst der horizontalen Lage einzelner Geländepunkte auch deren Höhenunterschiede erkennbar.

Erste Tücke: Wälder verdecken topographische Feinformen des Geländes und meistens auch das Wegnetz. Schwere Schlagschatten lassen die Geländestruktur überhaupt verschwinden. Liegt ein Berghang im flachen Sichtwinkel der Kamera, verschwimmen die Geländeformen ebenfalls.

Zweite Tücke: Ein Geländestück oder ein Haus, hoch oben an einem Berghang, liegen der Flug-zeugkamera näher und werden grösser abgebildet als ein gleich grosser Geländeabschnitt oder ein gleiches Haus tief unten im Tal. Im Fall der Lawinen ist also zu bedenken, dass das hochgelegene Anrissgebiet grösser abgebildet wird als die Lawinenzunge im Tal. Das Luftbild hat also, speziell im gebirgigen Gelände, keinen einheitlichen Massstab. Dieser variiert je nach der Höhenlage des Geländeobjektes.

Daraus ergibt sich die dritte Tücke oder die Verzerrung des Luftbildes: Auf einer Karte sehen wir jeden Geländepunkt senkrecht von oben (Parallelprojektion). Der Abstand zwischen zwei Geländepunkten ist ihr horizontaler Abstand, ungeachtet ihrer allenfalls unterschiedlichen Höhenlage. Auf einem Luftbild dagegen ist nur die Bildmitte in Senkrechtansicht abgebildet (Punkt A). Gegen den Bildrand zu geht die Senkrechtansicht mehr und mehr in eine Schrägansicht über (Zentralprojektion), Punkte B, C. Liegt der Geländepunkt aber ausserhalb dieser Senkrechten, wird seine Position auf der Foto wesentlich durch seine Höhenlage beeinflusst. Je höher der Punkt liegt, je mehr sich also sein Abbildungsmassstab vergrössert, umso mehr weicht der Bildpunkt durch die radiale Verschiebung von seinem Kartenpunkt ab (Strecke B-C).

Schlussfolgerung: Ein Flugbild ist trotz aller Vorteile ein verzerrtes Bild der Landschaft. Es muss zuerst entzerrt werden, wenn man auf ihm messen will wie auf einer Karte oder wenn ein Bildobjekt, z.B. ein Lawinenkegel, in einen Plan übertragen werden soll.

Vom Luftbild zur Orthofoto

Ein Luftbild entzerren, heisst nichts anderes, als die Zentralprojektion der Foto in die Parallelprojektion der Karte überführen - oder eben aus einer Foto eine Orthofoto herzustellen. Mit der heutigen Technik der Bildverarbeitung geschieht diese Umwandlung elektronisch auf dem Bildschirm. Zwischen dem Standort des Flugzeugs im Augenblick der Aufnahme und den optischen Eigenschaften des Kameraojektives bestehen berechenbare Zusammenhänge, ebenfalls zwischen der radialen Verschiebung der Bildpunkte und der Kartenebene. Diese mathematisch-geometrischen Bezüge liefern quantifizierbare Datenmengen in Megabytegrösse, die nur mit der Rechengeschwindigkeit eines Computers nutzbar gemacht werden können.  (Tönt einfacher als es ist!) Obschon die Prozesse nach ausgeklügelten Programmen ablaufen, wäre es ein Irrtum zu glauben, dass alles nur auf Knopfdruck geschieht. Kenntnisse, Einfühlungsvermögen und Erfahrung des Fotogrammeters spielen dabei nach wie vor eine grosse Rolle.

Stark vereinfacht passiert folgendes: In einem ersten Schritt werden die Luftbilder im Scanner digitalisiert. Die Foto, normalerweise im Format 23 x 23 cm, wird dabei in 350 Mio. Punkte (Pixel) aufgelöst. Jeder Punkt erhält so für seine Lage im Bild und ebenfalls für seinen Farbwert ein elektronisches Signal. Auf dem Bildschirm oder im Druck erscheint das digitalisierte Luftbild in praktisch gleicher Qualität wie auf der analogen Foto.

Im zweiten Schritt wird dem digitalisierten Luftbild ein digitalisiertes, dreidimensionales Geländemodell unterlegt, um die verzerrenden Höhenunterschiede berechenbar zu machen. Die digitalen Geländemodelle basieren auf digitalisierten Karten oder müssen in Spezialfällen fotogrammetrisch konstruiert werden. Jeder der vielen tausend Punkte des Modells hat dadurch eine nach Kartenkoordinaten (X-, Y-Wert) und Position in der Höhe (Z-Wert) definierte Lage. Auf dem Markt gibt es bereits solche digitale Gelände- oder Höhenmodelle (z. B. DHM 25 des Bundesamtes für Landestopographie), die vielen Verwendungszwecken, so auch den Lawinenauswertungen, genügen.

Im dritten Schritt wird das digitalisierte Luftbild mit dem Geländemodell verknüpft, indem eine grosse Anzahl Bildpunkte mit dem entsprechenden Lagewert aus dem digitalen Höhenmodell identifiziert und daraus auch die genaue Lage und Höhe des Aufnahmestandortes der Flugkamera errechnet werden kann. Diese Referenzpunkte bilden die mathematische Basis für die Entzerrung des Luftbildes.

Der vierte Schritt kann vom Computer weitgehend selbständig ausgeführt werden, indem die Lage jedes Bildpunktes aus Schritt eins mit Hilfe des digitalen Geländemodelles (Schritt zwei) und der Referenzpunkte (Schritt drei) in seine parallelperspektivische Lage umgerechnet wird. Was jetzt auf dem Bildschirm erscheint, ist das entzerrte Flugbild oder die Orthofoto. Was im Luftbild in einem quadratischen Format  abgebildet  wurde, verschiebt sich in der Orthofoto zu einem "wilden" Vieleck Häufig deckt ein Luftbildpaar nicht den ganzen gewünschten Landschaftsausschnitt ab, es müssen Teile von benachbarten Bildern angefügt werden. Daraus entsteht ein Orthofoto-Mosaik, dessen Teilstücke wegen unterschiedlicher Beleuchtung farblich differieren können. Der Farbausgleich erfordert vom Bearbeiter viel Geschick.

Sommer- und Winterbilder - mehr als nur ein saisonaler Unterschied

Sommer-Othofotos mit klar erkennbaren Wegkreuzungen, Strasseneinmündungen, Gebäuden, Hügelkuppen und Geländeknicken können relativ einfach mit den entsprechenden, vermessenen Kartenpunkten referenziert werden. Zudem werden normalerweise vor einem Flug solche Referenzpunkte (Passpunkte) mit Farbe signalisiert. Liegt aber eine dicke Schneeschicht und konnten keine Punkte vorgängig signalisiert werden, wird die Aufgabe wesentlich erschwert. Die Methode der Aerotriangulation erlaubt es, wenige bis hunderte von Bildern zusammenzukoppeln um als Gesamtverband auf einige wenige Referenzpunkte einzupassen.

Orthofotos als Mittel zum Zweck

Wenn es darum geht, eine Lawinensituation rein visuell und über-blickmässig zu erfassen, bietet dazu ein Flugbild bereits eine perfekte Möglichkeit. Aus Ereignissen, wie den Schadenlawinen und den Überschwemmungen des Jahres 1999 müssen aber nachhaltige Erkenntnisse über künftige Gefährdungen gewonnen werden, die über das menschliche Erinnerungsvermögen hinaus reichen. Dazu dient den Behörden eine zweifache Hierarchie von Karten und Plänen.

Am Beispiel des Kantons Bern sind es die folgenden Dokumente (Buri et al.):

Gefahrenhinweiskarte (GHK25) als Frühwarnsystem: Diese Karte im Massstab 1:25'000 deckt das ganze Kantonsgebiet ab. Gestützt auf Computermodelle und Geographische Informationssysteme sind kar-tografisch alle Zonen erfasst, in denen einerseits Voraussetzungen für Lawinen, Murgänge, Steinschlag und Rutschungen, anderseits aber auch Schutzwaldungen bestehen. Die Karte zeigt die Räume, wo Naturgefahren Siedlungen und Verkehrswege bedrohen können.

Gefahrenkarte (GK) als Arbeitsinstrument für die Gemeinde in Massstäben 1: 5'000, 1: 10’000: Sie enthält die Flächen einer Gemeinde, auf denen bereits Naturschäden verschiedenen Ursprungs aufgetreten sind. Aus den Schadenanalysen resultieren schliesslich die Gefahrenzonen für Menschen und Installationen. Abgekürzt ausgedrückt, besteht in der roten Zone Bauverbot, in der blauen darf nur unter Bedingungen und mit Auflagen gebaut werden, in der gelben besteht kaum Lebensgefahr, Objektschäden sind aber möglich (Buri et al.). Abbildung 9 zeigt eindrücklich, dass die Lawinen die Gefahrenzonen durchbrochen haben.

Elemente für die Gefahrenkarten bilden Katasterpläne über einzelne Naturgefahren, so z.B. der Lawinenkataster über Häufigkeit, Ausdehnung und Intensität von Lawinen. Die Kataster gestatten keine blossen Lageschätzungen, entscheiden doch gegebenenfalls wenige Meter über Heil oder Unheil für Menschen und Installationen. Ein zwingender Grund also für Orthofotos! Für die Lawinenkataster im Kanton Bern hat die Flotron AG, Ingenieure in Meiringen 225 Luftbilder in Orthofotos umgearbeitet und 65 Orthofoto-Mosaike erstellt.

Lehren aus dem Lawinenwinter - ein Zusammenspiel

Die Konsequenzen sind auf Bundes-, Kantons- und Gemeindeebene zu ziehen. Bei all diesen Bemühungen spielen nicht nur, aber immer wieder Luftbilder und Orthofotos eine wichtige Rolle. Für ihre Bereitstellung haben landesweit zusammengewirkt das Bundesamt für Umwelt, Wald und Landschaft, das Bundesamt für Landestopographie, das Eidg. Institut für Schnee- und Lawinenforschung, die Eidg. Forschungsanstalt für Wald, Schnee und Landschaft, die Eidg. Forstdirektion, die Eidg. Vermessungsdirektion und die Swissphoto Vermessung AG. Im Bereich des Kantons Bern waren es die Abteilung Naturgefahren des Amtes für Wald in Interlaken, Ulrich Ryter; das Geographische Institut der Universität Bern, Prof. Hans Kienholz; die Flotron AG in Meiringen, Klaus Budmiger.

Georg Budmiger
Dr. phil. a. Dir. Schweizerisches Alpines Museum
CH-3073 Gümligen

Klaus Budmiger
dipl. Verm. Ing. HTL
Flotron AG, Ingenieure
Gemeindemattenstrasse 4
CH-3860 Meiringen
e-mail: flotron@flotron.ch

 

Vollständige Version siehe VPK 9/2000
Bestellung VPK: verlag@geomatik.ch


MAPS - toute l’Angleterre en orthophotos

 MAPS™ (Millennium Aerial Photographic Survey) a pour objectif la confection d’orthophotos à l’échelle 1:10'000 de toute l’Angleterre et du sud du Pays de Galles. Débutée en juin 1999, la production de MAPS™ devrait s’achever en décembre 2001. Les orthophotos, de même qu’un modèle numérique de terrain de l’ensemble du territoire anglais, seront alors accessibles aux professionnels du SIT/SIG et au public en général.

Laurence Cuche, Greg Simmons

L’objectif de MAPS™ (Millenium Aerial Photographic Survey) est de produire des orthophotos au 1:10'000 de toute l’Angleterre et du sud du Pays de Galles. Pour venir à bout de cette tâche ambitieuse, deux grandes entreprises anglaises ont joint leur savoir-faire et leur capacité de production. Simmons Aerofilm Limited et le National Remote Sensing Centre (NRSC) collaborent sous le nom de UK Perspectives Ltd. Le National Remote Sensing Centre, centre gouvernemental d’observation de la terre, a été fondé en 1980, puis privatisé en 1991. Aujourd’hui, le NRSC est spécialisé dans l’acquisition et la vente d’images satellitaires et aériennes ainsi que dans la confection de cartes géographiques. Simmons Aerofilm Ltd. et Simmons Mapping (UK) Ltd. sont tous deux des sous-groupes de Simmons Geomatics Group. Cette entreprise familiale fondée en 1965, est un bureau de géomètre spécialisé dans la photogrammétrie analytique et digitale.

Acquisition des clichés

L’Angleterre n’est malheureusement pas le pays le plus ensoleillé d’Europe, ce qui rend l’acquisition des photographies aériennes assez laborieuse. Pour contourner ce problème, le consortium dispose de cinq avions bimoteurs affectés uniquement à ce projet. De cette manière, chaque période favorable aux prises de vue photogrammétriques peut être exploitée au maximum. En 1999, 65% du territoire anglais et du sud du Pays de Galles ont été photographiés et la totalité de la surface du projet devrait être mise sur pellicule d’ici la fin de cette année encore.

Numérisation des clichés

Afin de garantir la haute qualité de MAPS™, les clichés sont numérisés en couleur à 15 microns au moyen d’un scanner à rouleau DSW 300 de LH System. NRSC, pour sa part, a opté pour un scanner à rouleau SCAI de Zeiss. La numérisation des clichés à 15 m m implique un travail avec des fichiers d’une grandeur d’environ 700/230MB (couleur/noir-blanc) par cliché, ce qui nécessite une énorme capacité de disque. Pour ce faire, Simmons Geomatics Group a introduit un disque d’un Téra Byte dans sa chaîne de production.

Aérotriangulation (orientation des clichés)

Lors des prises de vues, les coordonnées géographiques du centre de projection de la caméra sont définies par GPS. Comme la localisation des régions à photographier n’est connue qu’à court terme (selon les conditions atmosphériques), il est pratiquement impossible de signaliser des points d’appuis au sol avant que les prises de vue ne soit effectuées. Pour cette raison, les points d’appuis utilisés pour la compensation sont des points repiqués sur les clichés (points marquants). L’emplacement géographique de chaque point repiqué est ensuite mesuré au sol. Les points de rattachement des clichés sont mesurés automatiquement avec HATS de SOCET SET (LH SYSTEM), les points d’appuis sont ensuite introduits à la main et la compensation par faisceaux calculée avec le logiciel BLUH (produit par l’université d’Hanovre).

Modèle numérique de terrain (MNT)

Au début du projet, il a été envisagé de recourir à un MNT déjà existant. Le prix trop élevé et la mauvaise qualité des MNT alors disponibles sur le marché ont poussé les instigateurs de ce projet à rejeter cette solution et à créer eux-mêmes le MNT nécessaire au calcul des orthophotos. Le MNT produit dans le cadre du projet MAPS™ est obtenu par corrélation des clichés. Le résultat de la corrélation est ensuite contrôlé et corrigé manuellement. Le MNT final est un grillage à maille de 10m d’une précision de 2m.

Mosaïque et orthophotos

En fonction de la nature de la région photographiée, les orthophotos sont calculées soit à l’aide du logiciel OrthoVista (Imaging), soit avec Mosaic de SocetSet (LH System) qui a l’avantage de permettre à l’utilisateur de sélectionner lui-même les périmètres des orthophotos utilisées dans une mosaïque. Une fois les orthophotos calculées, avec une résolution de 25 microns, celles-ci sont jointes les unes aux autres. Cette mosaïque ainsi produite est ensuite coupée en carreaux de 1x1km conformément au grillage des cartes de l’OS au 1:2’500 (Ordnance Survey est l’équivalent anglais de l’Office Fédéral de Topographie ). Les différents tests effectués sur les mosaïques produites, donnent au produit une précision planimétrique de 50cm (ce qui correspond à deux pixels de la mosaïque). Les carreaux couleurs mis sur le marché ont une grandeur de fichier de moins de 50MB (non compressé) et sont disponibles dans les formats les plus usuels.

Commercialisation du produit

MAPS™ s’adresse à un très large public. Pour commercialiser son produit en tenant compte du besoin réel des utilisateurs, UK Perspective a choisi un système de licence flexible. Le produit (orthophotos géoréférenciées et MNT) est disponible sous quatre licences différentes : utilisation simple (une copie), utilisation multiple (utilisation simultanée d’une copie), utilisation sur un réseau, utilisation dans l’enseignement (écoles).

Mise à jour de MAPS™

Il est prévu d’actualiser Londres tous les deux ans, les autres grandes villes du sud-est de l’Angleterre tous les trois ans, les autres villes et les régions rurales tous les cinq ans environ. L’actualisation des différentes régions incluses dans ce projet dépendra avant tout de la demande et du rythme de développement des localités concernées.

Perspectives de ventes

Indépendamment des différentes autorités locales qui, pour l’instant, ont acheté l’équivalent de 20’000km² (soit la moitié de ce qui a été produit jusqu’à présent), la totalité de la surface recouverte par les orthophotos MAPS™ (130’000km²) a déjà trouvé un acquéreur en la personne d’une compagnie d’assurance britannique. Suite à différentes campagnes de promotion, l’intérêt pour MAPS™ semble encore s’accroître et d’autres grands acquéreurs potentiels sont actuellement en pourparlers avec UK Perspective. Indubitablement, le public a su reconnaître les avantages que pouvait lui apporter un produit tel que celui-ci. Le succès de MAPS™ n’est pas seulement dû à l’effet mode des orthophotos mais surtout au fait qu’avec une échelle au 1/10'000 et une résolution de 25cm, MAPS™ peut être utilisé comme support pour une large palette de projets.

 

MAPS™ en chiffres
Surface de l’Angleterre (sans le Pays de Galles): env. 130’000km²
Nombre de clichés nécessaires au recouvrement: 80'000 clichés couleurs
Echelle des clichés: 1/10'000
Constante focale de la chambre: 153mm (305mm pour les grandes villes)
Recouvrement longitudinal / latéral: 60% / 20-30%
Résolution des clichés numérisés: 15 microns (env. 1700 dpi)
Grandeur de fichier d’un cliché numérisé (15m m): env. 700Mb (couleur-24bits)
Surface d’un carreau de mosaïque: 1km²
Résolution de la mosaïque (orthophoto): 25 microns (1 pixel = 25cm au sol)
Grandeur de fichier d’un carreau de mosaïque: env. 50MB (couleur-24bits)
Précision planimétrique de la mosaïque: ± 0.5m
Format du MNT: GRID, 10m de maille
Précision du MN : ± 2m
Durée de la production: 2½ ans

 

Laurence Cuche
Feldbergstrasse 25
CH-4057 Bâle
e-mail:
Laurence.Cuche@caramail.com

Greg Simmons
Simmonsmapping UK Ltd.
5 West Street, Axbridge
Somerset, BS26 1AA
U.K.
e-mail:
Greg@simmonsmap.com
http://www.simmonsmap.com

Pour tout complément d’information sur ce projet :
http://www.ukperspectives.com

 

Texte intégral: MPG 8/2000
Commendez la revue MPG: verlag@geomatik.ch


Genauigkeitsanalyse von hochauflösenden Gelände- und Oberflächenmodellen

Die steigende Nachfrage nach hochauflösenden Geländemodellen führte in den letzten Jahren dazu, dass sich neben der Photogrammetrie zwei weitere Technologien für deren Herstellung etablierten: Das Laserscanning sowie die SAR-Interferometrie (Interferometric Synthetic Aperture Radar). Beide Verfahren sind heute operationell einsetzbar und erlauben die Herstellung von qualitativ hochwertigen Terrain- bzw. Oberflächenmodellen. Im Hinblick auf die Verwendung solcher Produkte im Rahmen der Überprüfung landwirtschaftlicher Nutzflächen wurden diese drei Technologien einander gegenübergestellt und ihre Genauigkeit überprüft.

E. Meier, Chr. Käser, D. Nüesch

Einleitung

Im Rahmen des Projektes zur Aktualisierung der landwirtschaftlichen Nutzflächen (LWN) wurde festgestellt, dass zur Erfassung der aktuellen Bodennutzung am besten Farborthofotos verwendet werden. Um die technische Machbarkeit zur Aktualisierung der LWN zu erproben, führten das Vermessungsamt des Kantons Bern und das Bundesamt für Landestopographie (L+T) über den Gemeinden Langnau i. E. und Lauperswil ein Pilotprojekt durch. Weil das bestehende DHM25 der L+T nicht die geforderte Lagegenauigkeit von 1 m im Orthofoto liefern konnte, wurde photogrammetrisch ein neues, metergenaues Geländemodell erfasst.In der Zwischenzeit haben neben der Photogrammetrie auch neuere Techniken zur hochauflösenden Geländemodellerfassung wie Laserscanning und Interferometrisches Radar (InSAR) Produktionsreife erlangt. Um Entscheidungsgrundlagen bezüglich Genauigkeiten und Kosten zu erhalten, führte die L+T 1999 einen grossflächigen Methodenvergleich durch und beauftragte die Universität Zürich mit der Durchführung der Genauigkeitsanalyse.

Testgebiet

Die Auswahl des Testgebietes war durch die Bedürfnisse und Vorarbeiten bei L+T gegeben. Es umfasste je nach Datendrodukt ganz oder teilweise den Perimeter des Kartenblattes 1:25'000 LK 1168 Langnau i.E. Seine Lage im nördlichen Alpenvorland äussert sich mit einem Höhenbereich von ca. 600 bis 1350 m/M. mit z.T. sehr steil ausgeprägter Topographie. Dieser Umstand sowie die Tatsache, dass ein Grossteil des Gebietes bewaldet ist, stellte besonders hohe Anforderungen an die Herstellung von digitalen Geländemodellen.

Als geometrisches Referenzsystem der Produkte wurde das traditionelle Bezugssystem der Schweizerischen Landesvermessung CH1903 mit dem Landesnetz LV03 und den Gebrauchshöhen des Landesnivellement LN03 verlangt. Da moderne Verfahren wie das Laserscanning oder die SAR-Interferometrie sich auf DGPS-gestützte Navigation und somit bei der Modellherstellung auf globale Referenzsysteme abstützen ergibt sich daraus ein kritischer Punkt, nämlich die Berücksichtigung von Geoid-Undulationen und Netzverzerrungen. Falls dies nicht schon bei der Produkteherstellung erfolgte, musste dies spätestens bei der Genauigkeitsanalyse der Modelle geschehen.

Während vertikale sowie Nord-Süd verlaufende Netzverzerrungen vernachlässigbar sind, umfassen die West-Ost-Verzerrungen eine Bandbreite von ca. 0.26 m und die Geoid-Undulationen gar eine solche von 0.52 m innerhalb des Testgebietes. Eine Nichtberücksichtigung dieser Grössenordnungen würde zu einer Fehlbeurteilung der eingesetzten Technologien führen.

Methodik

Für die Beurteilung der Oberflächen- und Geländemodelle wurde ein mehrstufiges Vorgehen gewählt:

·         In einem ersten Schritt wurden die Produkte durch eine detaillierte, optische Analyse der synthetisch schattierten Modelle auf ihre Vollständigkeit, Konsistenz und Plausibilität hin überprüft. Allfällige Lücken oder andere Artefakte waren auf diese Weise deutlich erkennbar. Zudem konnte die Lagegenauigkeit überprüft werden, indem den schattierten Modellen Referenz-Informationen überlagert wurden. Dazu gehörten primär digitalisierte Pläne des Massstabes 1:2'500 als Vektor-Produkte und, weil diese nicht flächendeckend verfügbar waren, auch Übersichtspläne des Massstabes 1:10'000 in Raster-Form.

·         In einem zweiten Schritt wurden die Verteilungen der Modelle überprüft um mit Hilfe allfälliger Artefakte Rückschlüsse auf Mängel bei bestimmten Verarbeitungsschritten ziehen zu können.

·         Im nächsten Schritt wurden Differenzen zwischen den verschiedenen Modellen berechnet und visualisiert. Ihre flächenhafte Interpretation und Beurteilung wurde durch den Vergleich von Profillinien im Bereich ausgewählter Landschaftselemente unterstützt.

·         Der letzte Schritt umfasste die Überprüfung der Höhenwerte mittels Lagefixpunkten (LFP1 und LFP2) sowie die Herleitung darauf basierender, statistischer Grössen. Diese Überprüfung umfasste auch eine individuelle Beurteilung der Modelle in der unmittelbaren Umgebung dieser Kontrollpunkte. Die Erfahrung hat gezeigt, dass eine schlechte Sichtbarkeit eines Kontrollpunktes durch das entsprechende Aufnahmesystem zu einem Fehler von mehreren Metern im Endprodukt führen kann. Falls es sich bei solchen Fehlern um eng begrenzte, systembedingte Auswirkungen handelte und das Resultat somit nicht für einen grösseren Modell-Bereich repräsentativ war, wurde der entsprechende Kontrollpunkt nicht berücksichtigt. Darunter fallen z.B. Auswirkungen von Strommasten auf die InSAR-Modelle. In mehreren Fällen konnte durch diese detaillierte Überprüfung auch eine bessere Differenzierung zwischen Höhen und Lagefehlern erreicht werden, beispielsweise in unmittelbarer Nähe von Bruchkanten.

Die Genauigkeitsbeurteilung der Modelle stützte sich auf die Resultate dieser vier Kontrollschritte. Für die Gesamtbeurteilung der Produkte waren jedoch noch weitere Aspekte von Bedeutung wie Kosten, Projektmanagement usw. Diese gehören jedoch nicht zum Thema des vorliegenden Beitrages.

Eingesetzte Technologien

Photogrammetrie

Aus den Standardbildflügen der L+T für die Kartennachführung stand das Farbfotomaterial mit einem mittleren Bildmassstab von 1:30'000 und einer Längs- bzw. Querüberdeckung von 70% resp. 30% in digitalisierter Form zur Verfügung. Die Bildorientierung erfolgte durch die L+T mittels automatisierter Aerotriangulation. Im Wald wurde das bestehende DHM25, interpoliert auf 10 m Gitterweite, verwendet. Im übrigen Gebiet, insbesondere in der offenen Flur, wurde das Geländemodell mittels automatischer Bildkorrelation und manueller Nachbearbeitung in Form eines TIN (Triangular Irregular Network) erfasst. Speziell der Übergang Wald – Nichtwald wurde wo nötig manuell mit Bruchkanten bearbeitet, damit keine ‘fliegenden Vorhänge’ des automatischen Bild-Matching übrigbleiben. Um den Vergleich mit den anderen Modellen zu vereinfachen wurde das TIN in ein 2-m-Raster umgerechnet. Unter diesen Voraussetzungen wurde an die Grenze des photogrammetrisch Machbaren gegangen, um die geforderte Höhengenauigkeit von 1m zu errreichen.

Abildung 1 zeigt einen Ausschnitt aus dem schattierten, photogrammetrisch hergestellten Modell im Raum Zollbrück - Lauperswil. In der Bildmitte von unten nach oben links verlaufend ist der Lauf der Emme erkennbar. Kleine und grössere Dreiecksstrukturen sind als Folge der Dreiecksvermaschung im Zusammenhang mit Bruchkanten deutlich erkennbar. Auffallend ist eine 'bucklige' Struktur in Siedlungsbereichen. Aufgrund der digitalen Bildkorrelation wird hier die Oberfläche und nicht das Terrain wiedergegeben. Wir haben somit keine einheitliche Charakteristik des Modells vorliegen: Während geschlossene Waldflächen speziell erfasst und durch Terraininformationen ersetzt wurden, verfügen bebaute und mit Einzelbäumen bestandene Gebiete über eine Oberflächencharakteristik. Im unteren Bildbereich und rechts der Bildmitte sind zudem Artefakte erkennbar, welche auf Grenzbereiche zwischen photogrammetrischen Blöcken zurückzuführen sind.

Laserscanning

Das Laserscanning ist ein aktives, flugzeuggestütztes Messverfahren für die räumliche Erfassung der Erdoberfläche. Es basiert auf gerichteten Entfernungsmessungen, welche als dreidimensionale Vektoren zwischen dem Sensor und der Geländeoberfläche zu verstehen sind. Zu diesem Zweck werden Laser-Impulse ausgesendet und ihre Laufzeit zum Boden und zurück gemessen. Zusätzlich wird der Laser-Strahl quer zur Flugrichtung abgelenkt, was zu einer zeilenweisen Aufnahme von Höhenprofilen quer zur Flugachse führt. Durch die Vorwärtsbewegung der Plattform werden diese Profile sukzessive aneinandergereiht und so eine flächenhafte Erfassung der Erdoberfläche erzielt. Voraussetzung für die Herstellung von Oberflächenmodellen sind die hochpräzise Erfassung von Position und Lage der Messplattform mittels DGPS- und INS-Systemen (Differential Global Positioning System bzw. Inertial Navigation System). Diese Messungen ermöglichen die Berechnung der dreidimensionalen Koordinaten der Reflexionspunkte, welche die Geländeoberfläche inklusive aller Gebäude, Vegetation, temporärer Oberflächenformen etc. repräsentieren. Je nach Verwendungszweck werden diese Rohmessungen gefiltert und in ein regelmässiges Gitter umgerechnet.

Die hohen Pulsrepetitionsfrequenzen (PRF) der eingesetzten Systeme bieten die Möglichkeit, bei diesen Filterungen die zuerst bzw. zuletzt am Sensor eintreffenden Reflexionsanteile zu berücksichtigen. Man spricht in diesem Zusammenhang vom first- bzw. last-pulse-Verfahren. Zusammen mit der Tatsache, dass Laser-Impulse auch ausgeprägte Vegetationsschichten wie Wald (vor allem in der kalten Jahreszeit) immer wieder stellenweise durchdringen, ergibt sich die Möglichkeit, den Waldboden oder auch die Vegetationsoberfläche zu erfassen.

Die Genauigkeit der Einzelmessungen liegt bei heutigen Systemen unter 15 cm. Bei Flughöhen von ca. 500-1000 müG und den eingesetzten PRFs werden Punktdichten erreicht, welche Rasterweiten in den Endprodukten von ca. 1-2 m erlauben. Einen Überblick über den heutigen Stand der Laserscanning-Technik erhält man in [1], einen Erfahrungsbericht über Laserscanning-Projekte in der Schweiz in [2].

Die Aufnahmen im Testgebiet Langnau erfolgten am 27.5.99 und somit bei einer sehr dichten Vegetationsdecke mit einem ALTM- 1020-Scanner der deutschen Firma TopScan. Für die Aufnahme von 92 km2 mit einer mittleren Flughöhe von 830 müG und einem Streifenabstand von ca. 250 m waren sowohl für das Oberflächen- als auch das Terrainmodell je 23 Flugstreifen nötig.

Abbildung 2 zeigt die mittels Laserscanning hergestellten Modelle über demselben Gebiet wie in Abbildung 1. Auf den ersten Blick erstaunt der grosse Detailreichtum und die Präzision, mit welcher die Form von Objekten abgebildet wird.

InSAR

Unter der Bezeichnung Synthetic Aperture Radar (InSAR) versteht man ebenfalls aktive Systeme, welche mit Hilfe von Mikrowellen, im vorliegenden Fall im X-Band bei 9.6 GHz, die Erdoberfläche 'beleuchten' und aus den reflektierten Signalen Bilder und sogar Oberflächenmodelle erzeugen lassen. SAR-Systeme senden ihre frequenzmodulierten Impulse immer senkrecht zur Flugrichtung schräg nach unten aus und erfassen so einen Bildstreifen, welcher seitlich versetzt parallel zum Flugweg verläuft.

Die räumliche Auflösung eines SAR-Systems quer zur Flugrichtung ist durch die Dauer sowie die Bandbreite der Sendeimpulse bestimmt. Jene in Flugrichtung ergibt sich im Wesentlichen aus der Grösse der verwendeten Antenne und ist somit ebenfalls unabhängig von der Abbildungsdistanz. Als Primär-Information erhält man einen Hologramm-ähnlichen Rohdatensatz, welcher zuerst mittels aufwändiger Rechenverfahren in ein für das menschliche Auge interpretierbares Bild verwandelt werden muss.

Ein Vorteil der SAR-Bilder besteht darin, dass sie neben Intensitäts- auch Phasen-Informationen enthalten. Diese macht man sich bei der SAR-Interferometrie zunutze, indem man die von einer Antenne ausgesendeten und am Boden reflektierten Signale über 2 quer zur Flugrichtung versetzte Antennen empfängt. Dieser Versatz führt dazu, dass die empfangenen Radar-Echos Phasenverschiebungen aufweisen, welche von der Höhenlage der jeweiligen Rückstreuelemente am Boden abhängen. Kennt man die exakte Position und Lage der Plattform, so kann man aus diesen Phasenverschiebungen ein Oberflächenmodell herleiten. Eine Einführung und einen Überblick über die SAR-Technik und die heutigen Systeme findet man in [3], [4] und [5].

Das Testgebiet wurde mit 2 SAR-Systemen aufgenommen: Mit dem DoSAR-System des europäischen Luft- und Raumfahrtkonzerns Astrium (früher Dornier) und mit dem AeS-1-Sensor der deutschen Firma Aero-Sensing Radarsysteme GmbH. Detaillierte Beschreibungen beider Systeme findet man in [6] und [7]. Beide Systeme operierten in Flughöhen von ca. 3500 müG und erfassten einen Bildstreifen am Boden von 2-3 km Breite. Zwecks Minimierung von Radarschatten wurde das Gebiet von beiden Systemen aus verschiedenen Richtungen beleuchtet. Bleibt anzufügen, dass bei beiden SAR-Befliegungen sehr schlechte Wetterbedingungen mit dichter Bewölkung, Regen und starken Winden herrschten.

Abbildung 3 zeigt die entsprechenden Ausschnitte aus den mit InSAR hergestellten, schattierten Oberflächenmodellen. Sie zeigen ebenfalls einen recht hohen Detaillierungsgrad, jedoch mit deutlich weniger Bildschärfe als dies beim Laser-Oberflächenmodell der Fall war.

Resultate

Photogrammetrisches Oberflächen/Terrain-Modell

Dieser Datensatz zeichnet sich durch vergleichsweise wenig Detailreichtum aus. Die Fehler aufgrund der Fazettenstruktur als Folge der Dreiecksvermaschung dürften sich in Grenzen halten. Nur vereinzelt sind grössere, eng begrenzte Artefakte mit mehreren Metern Abweichung erkennbar. Die Lage des Modells konnte aufgrund des mangelnden Detailreichtums nicht durch Überlagerungen mit Vektordaten verifiziert werden. Erst die Berechnung von Differenzbildern zu anderen, korrekt, gelagerten Modellen, zeigte, dass keine grösseren oder systematischen Verschiebungen vorliegen.

Die Häufigkeitsverteilung der Höhenwerte zeigt auffallende, relative Maxima, welche sich an den Höhenlinien der LK 1:25'000 orientieren. Dies ist eine Folge des Einfügens von DHM25-Informationen in die Waldbereiche des photogrammetrischen Modells.

Terrain-Modell aus Laserscanning

Das Geländemodell aus der Laser-Befliegung zeigt einen deutlich höheren Detaillierungsgrad. In offenem Gelände sind beispielsweise feinste Strukturen wie Strassen und Wege aufgrund ihrer leichten Böschungen gut erkennbar. In diesen Bereichen ist aber auch ein leichtes System-Rauschen sichtbar, welches sich in Höhenschwankungen mit einer Amplitude von ca. 0.2-0.3 m manifestiert. Artefakte in Form von Dreiecksstrukturen sind in Waldbereichen zu erkennen, wo mangels Durchdringung der Vegetationsdecke als Folge des ungünstigen Befliegunszeitpunktes eine teilweise manuelle Nachbearbeitung vorgenommen wurde. Dieser Effekt ist in Abbildung 2 entlang der Emme deutlich zu sehen.

Oberflächen-Modell aus Laserscanning

In diesem Datensatz beschränken sich die Dreiecksstrukturen auf den praktisch vernachlässigbaren Bereich von Waldrändern entlang von Flussläufen: Aufgrund der fehlenden Laser-Echos von Wasserflächen musste hier über grössere Distanzen hinweg interpoliert werden. Wie beim Geländemodell ist auch das Systemrauschen als quer zur Flugrichtung verlaufende Rippelmarken mit ähnlicher Amplitude erkennbar. Ansonsten besticht dieses Modell durch seine Detailtreue und seinen immensen Informationsgehalt. Besonders der detaillierte Vergleich von Höhenprofilen zeigt diesen auf eindrückliche Weise.

Die Genauigkeit der horizontalen Lage beider Laser-Modelle wurde mittels Vektordaten überprüft und liegt innerhalb der Maschenweite von 2 m. Die Häufigkeitsverteilungen beider Modelle zeigen über den ganzen Höhenbereich keine Artefakte.

InSAR-Oberflächenmodelle

Die InSAR-Modelle verfügen zwar ebenfalls über eine grosse Informationsdichte, jedoch nicht mit derselben Detailtreue wie man sie bei den Laser-Modellen antrifft. Gebäude und einzelne Bäume sind zwar erkennbar, jedoch nicht als solche identifizierbar. Dementsprechend werden auch Waldränder je nach Aufnahmerichtung mehr oder weniger scharf wiedergegeben. Diese Unschärfen zeigen sich nicht nur als abgeschrägte Objekte, sondern aufgrund sogenannter Layover- und Mehrweg-Effekte auch als zusätzliche Vertiefungen und Überhöhungen im Oberflächenmodell. Die horizontale Lage beider Modelle sowie ihre Verteilungen sind einwandfrei.

Im Vergleich zum AeS-Modell ist beim DoSAR-Modell das Systemrauschen etwas deutlicher ausgeprägt und umfasst einen Höhenbereich von ca. 20-30 cm. Zusätzlich sind bei diesem Datensatz noch Überreste von ungenügend unterdrückten range-sidelobes als Nord-Süd-verlaufende Störungen erkenbar. Der Anteil an fehlenden Höhenwerten liegt beim AeS-Modell bei 0.6%, beim DoSAR-Modell bei 4.9%. Dazu gehören nicht nur durch Radarschatten sondern auch durch Spiegelungen auf glatten Oberflächen verlorengegangene Informationen. Da es sich dabei meist um annähernd horizontale (Asphalt-)Flächen handelt, lassen sich diese durch eine angepasste Nachbearbeitung leicht beseitigen.

Vergleich der Modelle

Der flächenhafte Vergleich der Modelle mittels Differenz-‘Bildern’ sowie der Vergleich von Profilen bestätigt im Wesentlichen die bereits auf visuelle Art gemachten Erfahrungen. Sowohl beim Vergleich des Laser-Geländemodells mit dem photogrammetrischen Modell als auch zwischen dem Laser-Oberflächenmodell und den SAR-Modellen zeigen sich die grössten Unterschiede im Waldbereich. Diese können bis zu mehrere Meter betragen und sind bei den Terrain-Modellen auf die Interpolation des Laser-Modells bzw. den Einsatz von DHM25-Information beim photogrammetrischen Modell zurückzuführen. Beim Vergleich der Oberflächenmodelle sind es vor allem die geringere Detailtreue der SAR-Modelle sowie die unterschiedlichen Eindringtiefen und Reflexionsmechanismen der Radarsignale an der Vegetationsdecke, welche zu Höhendifferenzen von mehreren Metern führen (s. Abbildung 4).

Dank dieser Vergleiche konnten die Hersteller der SAR-Modelle auf Systemschwächen aufmerksam gemacht werden, welche denn auch in der Zwischenzeit korrigiert wurden: Beim DoSAR-Modell waren dies neben dem Rauschen und den range-sidelobes Wellen mit einer Länge von über 1 km und einer Amplitude von ca. 1 m, welche quer zur Flugrichtung verlaufend als Folge von Interaktionen zwischen den Antennen und dem Flugzeugrumpf auftraten. Beim AeS-Modell waren es mit der Terrainhöhe zunehmende Höhenfehler, welche auf Schwächen bei der Bewegungskompensation der Radarsignale hindeuteten.

Der interessanteste Vergleich zwischen den Modellen und zugleich die am meisten Aufschluss gebende Untersuchung war die Überprüfung mittels Lagefixpunkten. Tabelle 1 zeigt die entsprechende Zusammenstellung. Die unterschiedliche Anzahl Punkte ist im Wesentlichen auf die Unterschiedliche Ausdehnung der verschiedenen Produkte zurückzuführen. Kolonne 2 beinhaltet die gemittelten, Abweichungsbeträge. Sie zeigt, dass die Laser-Modelle mit Genauigkeiten zwischen 15 und 20 cm aufwarten. Jedoch auch das photogrammetrische Modell mit ca. 0.5 m und die InSAR-Oberflächenmodelle mit 0.8 m erreichen die von der L+T geforderte Genauigkeit. Die Streuungen sowie die Extremwerte verhalten sich ähnlich.

Bewertung

Grundsätzlich erreichen alle Methoden in der offenen Flur die verlangte Höhengenauigkeit von 1 m (mittlerer Fehler). Das Laserscanning besticht durch sein detailliertes, genaues Auflösungsvermögen, insbesondere auch im Wald, die zeitgleiche Erfassung von Terrain- und Oberflächenmodell sowie die ausgereifte Produktionsleistung.

Das InSAR-Verfahren erreicht die Genauigkeitsvorgaben nur knapp, ist aber sehr effizient in Folge der grossen, am Boden erfassbaren Streifenbreite und insbesondere auch durch seine Allwettertauglichkeit. Problematisch sind natürliche oder künstliche Reflektoren welche als Antennen wirken und die Daten lokal verfälschen können.

Die Photogrammetrie erreicht die geforderte Genauigkeit gut, allerdings unter Einsatz vieler manueller und somit teuerer Erfassungsarbeit. Leider können mit dem vorhandenen Fotomaterial über Waldflächen keine besseren Informationen erhoben werden.

Fazit: Bei gleichen Kosten kann mit den neuen Techniken auch der Waldboden miterfasst werden. Weil für das Projekt LWN die Ausscheidung zwischen Wald und Nichtwald ab Orthofotos verlangt ist, kann mit der Bestimmung sowohl des Terrain- wie auch des Oberflächenmodells und den damit automatisch bestimmten Waldgrenzen eine wichtige Zusatzinformation mitgeliefert werden.

 

Dr. Erich Meier
Prof. Dr. Daniel Nüesch
Remote Sensing Laboratories
Universität Zürich-Irchel
Winterthurerstrasse 190
CH-8057 Zürich
e-mail: meier@rsl.geo.unizh.ch, nuesch@rsl.geo.unizh.ch

Dipl.Ing. Christoph Käser
Bundesamt für Landestopographie
Sektion Photogrammetrie und Fernerkundung
Seftigenstrasse 264
CH-3084 Wabern
e-mail: Christoph.Kaeser@lt.admin.ch

 

Vollständige Version siehe VPK 8/2000
Bestellung VPK: verlag@geomatik.ch


IKONOS-2 CARTERRA™ GEO – erste geometrische Genauigkeitsuntersuchungen in der Schweiz mit hochaufgelösten Satellitendaten

Mit dem erfolgreichen Start des kommerziellen Satelliten IKONOS-2 im September 1999 stehen seit Januar 2000 auch dem öffentlichen Anwender hochaufgelöste digitale Satellitenbilder auf Bestellung zur Verfügung. In einem innovativen Projekt hat die Swissphoto AG in Zusammenarbeit mit Ernst Basler & Partner AG (Zollikon ZH) und der ETH Zürich (Institut für Geodäsie und Photogrammetrie) das geometrische Genauigkeitspotential der ersten panchromatischen und multispektralen Satellitenbilder von der Schweiz (Gebiet Kanton Zug) untersucht, indem aus den gelieferten Bilddaten mit verschiedenen Methoden Orthophotos generiert wurden. Ein Vergleich mit Kontrollpunkten aus Referenzdaten zeigte, dass mit der erreichten Lagegenauigkeit von ± 2m sowohl für panchromatische, als auch für multispektrale Orthophotos die Genauigkeit der ursprünglichen CARTERRA-GEO Daten um ca. das Vierfache verbessert werden konnte, obwohl genaue Informationen über Sensor- und Orbit-Parameter fehlten. Durch Benutzung von genaueren Passpunkten könnte die Genauigkeit sogar auf 1m oder besser erhöht werden, was in neuen Tests allerdings noch überprüft werden muss.

Th. Kersten, E. Baltsavias, M. Schwarz, I. Leiss

Einleitung

Am 24 September 1999 ist es der Firma Space Imaging (SI) gelungen, mit IKONOS-2 den ersten kommerziellen, hochauflösenden Fernerkundungssatelliten zu starten. Damit wird ein neues Zeitalter im Fernerkundungsmarkt anbrechen, das dem Anwender hochaufgelöste panchromatische (PAN) und multispektrale (MSI) Satellitenbilder von der Erdoberfläche bringt, die als Rohdaten jeweils eine Auflösung von ca. 0.85m aufweisen. Daraus werden unter dem Produktnamen CARTERRA™ verschiedene (ortho-) rektifizierte Produkte abgeleitet. Diese Produkte werden mit einer Bodenauflösung sowohl von 1m (PAN, PAN+MSI kombiniert, seit kurzem sogar MSI), als auch von 4m (MSI) in unterschiedlicher Genauigkeit und mit entsprechendem Preis angeboten. Die in dieser Arbeit benutzten kostengünstigsten GEO-Produkte ($18/km2) haben gemäss SI eine Lagegenauigkeit von 50m (Circular Error, 90% Wahrscheinlichkeit) oder RMS (Root Mean Square) von 23.6m, wobei Fehler durch das Terrainrelief nicht berücksichtigt werden. Für die Erstellung der genauesten und teuersten PRECISION-Produkte werden ein DTM und Passpunkte verlangt, die normalerweise vom Kunden geliefert werden oder für deren Herstellung extra bezahlt werden muss. Diese Produkte haben eine Genauigkeit von 4.1m (CE, 90%) oder 1.9m RMS und kosten $99/km2. Darüber hinaus gibt es noch die PRECISION-Plus-Produkte mit einer um den Faktor 2 besseren Genauigkeit, jedoch ist der Preis dafür unbekannt. Die neuen 1m MSI-Produkte kosten je nach Verarbeitungsstufe und Lizenz $18-28/km2 (GEO) und $99-150/km2 (PRECISION). Mehr Details über technische Spezifikationen, über Produkte und Preise sind in Space Imaging (2000) und Fritz (1999) zu finden.

Seit Januar 2000 können Daten auch von der Schweiz bestellt werden. Swissphoto AG ist für SI Europe in Athen einer von vier lokalen Vertriebspartnern in der Schweiz, über die diese neuen Satellitendaten bestellt werden können. Die Daten sind sehr gut geeignet für die Integration ins GIS und eröffnen in vielen Anwendungsbereichen neue Möglichkeiten. Sie weisen unter anderem folgende Eigenschaften auf: aktuelles Aufnahmedatum, schnelle Lieferung, digitale Grundlage, gute Wiederholbarkeit, hohe Auflösung, vier Spektralbereiche, grosse Flächenabdeckung. Als Nachteil erweisen sich momentan folgende Aspekte: die gelieferten 16-bit Daten können nicht von allen Systemen eingelesen bzw. verarbeitet werden; Unterstützung von nur wenigen Ellipsoiden und Projektionen; hoher Preis. Allerdings setzt die GIS-Integration voraus, dass die Bilder orthorektifiziert werden können. Bisher liegen keine Veröffentlichungen über Untersuchungen in der Schweiz mit IKONOS-Produkten vor.

Die GEO-Bilder werden auf ein vordefiniertes Ellipsoid und eine vordefinierte Kartenprojektion mit einer einheitlichen Pixelgrösse entzerrt. Sie haben den Nachteil, dass die geländebedingten Verzerrungen, die besonders in bergigen Gebieten gross sind, nicht korrigiert werden. Ausserdem wird eine nachträgliche Orthorektifizierung erschwert, da keine genauen und vollständigen Kenntnisse über das Sensormodell und die Orbitparameter verfügbar sind.

Die Swissphoto AG hat PAN und MSI GEO-Bilder vom Kanton Zug bestellt, um erste Erfahrungen mit diesen neuen Daten zu sammeln. Diese Arbeit soll das Potential der GEO-Bilder hinsichtlich radiometrischer und geometrischer Qualität aufzeigen. Ausserdem sollten bereits entwickelte Methoden, die trotz fehlender Informationen des Sensormodells und der Orbitparameter eine präzise Orthorektifizierung der Daten ermöglichen, getestet werden. Die Bearbeitung des Projektes erfolgte in einer Zusammenarbeit zwischen Swissphoto AG, Ernst Basler & Partner AG (EBP) und dem Institut für Geodäsie und Photogrammetrie (IGP) der ETH Zürich.

Grundlagen

Untersuchungsgebiet

Für die Untersuchung der IKONOS-Daten wurde das Gebiet des Kanton Zug aus folgenden Gründen als Testgebiet ausgewählt:

  • Geeignete Grösse (ca. 240 km2 ) für die Abdeckung eines ganzen Kantons
  • Heterogene Bodenbedeckung (bebautes Gebiet, landwirtschaftliche Flächen, Wald, Seen, usw.)
  • Heterogene Topographie (flaches, bewegtes, bergiges Gelände)
  • Vorhandene Referenzdaten (flächendeckend und genau)

Satellitendaten

Die IKONOS-Daten wurden im Januar 2000 für den gewünschten Aufnahmezeitraum vom 25.2. bis 10.3.2000 mit den in Tab. 1 aufgeführten technischen Spezifikationen bestellt. Das gewünschte Gebiet wurde durch ein Polynom in Form einer Koordinatenliste definiert. Die aufzunehmende Fläche ist in Abb. 1 skizziert. Die Satellitenbilder (4 Bilder PAN 1m und 3 Bilder MSI 4m) wurden erst am 25.3. und 8.4.00 aufgenommen und am 16.4.00 geliefert. Abb. 2 zeigt den Ausschnitt aus einem MSI GEO-Bild, der für die ersten Untersuchungen ausgewählt wurde. Für die weitere Verarbeitung der Satellitenbilder wurden verschiedene Grundlagedaten wie Orthophoto, DTM und Vektordaten verwendet.

Orthophoto

Aus den Swissphoto Orthophotos DOP75 wurden die Passpunkte extrahiert, die für die Orthorektifizierung verwendet werden sollten. Das DOP75 wurde als erstes flächendeckendes Orthophoto über die ganze Schweiz von 1995 bis 1998 bei der Swissphoto AG erstellt. Als Grundlage für die Berechnung dieser Orthophotos dienten Luftbilder im Massstab 1:27'000 (Mittelland), die im Sommer 1995 beflogen wurden, und das editierte und leicht verbesserte DHM25 der Landestopographie. Die Aerotriangulation dieser Bilder ist in Kersten (1999) beschrieben, während die Produktion der Orthophotos im Rahmen des Projektes Swissphoto sowie die technischen Spezifikationen in Kersten (1996) und Kersten et al. (1999) zusammengefasst sind. Die Lagegenauigkeit der Orthophotos beträgt in dem Gebiet Kanton Zug ca. 1-3m im Durchschnitt und die Bodenauflösung 75cm. Für die geometrische Genauigkeitsuntersuchung wurden neben Vektordaten (siehe 2.2.1.4) auch hochaufgelöste Orthophotos mit einer Bodenauflösung von 25cm verwendet (die Originalauflösung der verwendeten Orthophotos beträgt sogar 12.5cm). Diese Orthophotos wurden aus aktuellen Luftbildern (März 2000) im Massstab 1: 5'000 und mit einem sehr genauen DTM aus Bruchkanten und Einzelpunkten (siehe 2.2.1.3) generiert. Die geschätzte Genauigkeit dieser Orthophotos (Original) beträgt ca. 1-2 Pixel, was ca. 25cm am Boden entspricht.

Digitales Terrainmodell

Das digitale Terrainmodell wurde aus den Luftbildern (Bildmassstab 1: 7'000) der Kantonsbefliegung 1995 am analytischen Plotter in Form von Bruchkanten und Einzelpunkten ausgewertet. Die empirische Genauigkeit des DTMs, die durch stichprobenartigen Vergleiche mit Triangulations- und Polygonpunkten des Kantons Zug ermittelt wurde, beträgt ca. 40cm. Für die Verarbeitung der Satellitendaten wurde das DTM in ein regelmässiges Punktraster mit einer Gitterweite von 5m interpoliert, um die Datenverarbeitung zu vereinfachen und die Datenmenge zu reduzieren.

Vektordaten

Vektordaten wurden für die geometrische Genauigkeitsuntersuchung der verschiedenen IKONOS-Orthophotos eingesetzt, indem diese Daten den digitalen Orthophotos überlagert wurden. Dazu wurden die Bruchkanten (besonders die Strassen/Wege) des in Punkt 2.2.1.3 erwähnten DTM’s verwendet. Zusätzlich wurden Vektordaten von den Zuger Autobahnen, die aus den Luftbildern der Kantonsbefliegung für die Datenbank STRADA am analytischen Plotter erfasst wurden, für die Genauigkeitsanalyse benutzt. Die Genauigkeit der DTM-Bruchkanten und der STRADA-Vektordaten ist besser als 0.3m.

Radiometrische Untersuchung

Am IGP wurden in einem PAN GEO-Bild einige erste Untersuchungen zur Bildqualität unternommen, um gewisse Charakteristiken der verwendeten Bilder kennenzulernen. Dabei zeigte sich, dass durch die hohe Auflösung einerseits sogar Schatten von Stromkabeln zu erkennen sind (siehe Abb. 3a), wenn der Kontrast zum Hintergrund gross genug ist, dass andererseits trotz der 1m Auflösung die Grauwertkanten nicht gut definiert sind (siehe Abb. 3b). Das letzte führt besonders bei automatischer Bildanalyse, wie z.B. bei Kantenextraktionen zu Problemen. Ausserdem sind viele kleine Objekte im Bild abgebildet, aber nicht erkennbar.

Differenzen in der Objekterkennung und Definition zwischen dem IKONOS-Bild und dem DOP75 (aus Luftbildern generiert) sind in Abb. 4 ersichtlich, obwohl der Bodenaufloesung-Unterschied (1m vs. 0.75m) relativ klein ist. Für die Darstellung wurden beide Bilder auf die gleiche Grösse gezoomt. Das Rauschen im IKONOS-Bild ist auch sichtbar (oben links), während das DOP75 (rechts) leicht unscharf wirkt.

Das Rauschen im PAN-Bild ist in Abb. 5a in einer homogenen Oberfläche (Zuger-See) sichtbar. Wie bei den meisten Satellitensensoren mit linearen-CCDs weist es ein schachbrettartiges Muster auf. Abb. 5b zeigt ähnliches Rauschen in Feldern und einen weissen, fast vertikalen Streifen. Solche Streifen existieren an mehreren Stellen und gehen fast durch das ganze Bild. Wahrscheinlich wurden sie aufgrund einer ungenügenden Kalibrierung (Normalisierung) der Sensorelemente erzeugt. Die hellen vertikalen Streifen hatten einen Unterschied zu ihren Nachbarn von 4-8 Grauwerten.

In Abb. 6 ist das Histogramm des PAN-Bildes (11-bit) dargestellt. Es deckt ziemlich gut den ganzen dynamischen Bereich (2048 Grauwerte) ab. Allerdings ist dieser dynamische Bereich so erst durch eine radiometrische Vorverarbeitung von SI entstanden. Das Originalbild könnte einen wesentlich kleineren Grauwertbereich abdecken, wie dies bei anderen satellit- und flugzeuggestützten linearen-CCDs der Fall ist (z.B. SPOT, IRS, MOMS). Die 11-bit Daten wurden für die weitere Verarbeitung bei unseren Untersuchungen linear auf 8-bit skaliert.

Geometrische Verarbeitung

Die geometrische Verarbeitung der gelieferten GEO-Bilder erfolgte am IGP und bei EBP. Während bei EBP sowohl eine einfache Georeferenzierung durch eine Projektion auf das Schweizer Landeskoordinatensystem (SLK) als auch eine Orthorektifizierung mit einem eigenen Algorithmus für die PAN- und MSI-Szenen durchgeführt wurden, wurde am IGP ein Orthophoto von einem PAN GEO-Bild mit Hilfe der Polynome von Kratky (Baltsavias und Stallmann, 1992) generiert.

Methode 1: Georeferenzierung mittels Umprojektion (EBP)

Die Testbilder wurden bei EBP mit Hilfe der Bild-Metadaten-Information von UTM (WGS 84) auf die Geometrie des SLK transformiert. Dieses Verfahren ist standardmässig im Bildverarbeitungssystem PCI enthalten. Diese Methode benötigt keinerlei Passpunkte und erlaubt eine sehr schnelle und kostengünstige geometrische Prozessierung. Der Nachteil der Methode liegt in der Vernachlässigung der höhenbedingten Verzerrungen. Die Umprojektion eignet sich vor allem für Gebiete mit flacher Topographie sowie für Anwendungen mit niedrigen Anforderungen an die geometrische Genauigkeit.

Methode 2: Orthophoto-Generierung mit Polynomen von Kratky (IGP)

Zur Herstellung eines Orthophotos aus dem GEO-Bild wurde am IGP ein Sensormodell von Kratky (Kratky, 1989) benutzt, das für verschiedene Satellitensensoren eingesetzt werden kann (SPOT, IRS, JERS-OPS, Landsat). Das zugehörige Computerprogramm kann für andere lineare-CCD Sensoren erweitert werden, solange gewisse Parameter für den Sensor und für die Bahn des Satelliten bekannt sind. Diese Parameter waren für IKONOS zum grössten Teil bekannt. SI verkauft jedoch keine Rohbilder, die eigentlich für das Kratky-Modell erforderlich sind. Daher wurde durch Messung von Passpunkten aus dem DOP75 eine genau genug und schnell ausführbare Approximation der Bildorientierung des PAN-Bildes durch eine sogenannte "Polynomial Mapping Function" (PMF) berechnet. Solche PMF benutzen die Höhe als Parameter und sind somit keine ebenen (2-D) Transformationen. Mit Hilfe dieser Bild- und Objektpunkte wurden die Koeffizienten der PMF mittels Kleinste-Quadrate-Ausgleichung geschätzt. Eine detaillierte Beschreibung der PMFs ist Baltsavias und Stallmann (1992) zu finden. Untersuchungen zur Genauigkeit der PMFs sowie ihr erfolgreicher Einsatz mit SPOT und MOMS-02 Bildern sind in Baltsavias und Stallmann (1992, 1993, 1996) publiziert. Für die Transformation vom SLK in das GEO-Bild (Orthorektifizierung) wurde eine PMF (4. Grad mit 14 Koeffizienten) bestimmt. Die Passpunkte sollten nicht nur in der Lage, sondern auch in der Höhe (in diesem Fall war der Höhenbereich 395-990m) gleichmässig verteilt sein. Das Auffinden von gut definierten Punkten im DOP75 und im GEO-Bild war wegen des grossen Zeitabstandes zwischen den Aufnahmen (ca. 5 Jahre), wegen der unterschiedlichen Jahreszeit, Tageszeit, Beleuchtung und Auflösung, sowie wegen des unterschiedlichen Blickwinkels und der sehr unterschiedlichen Grauwerte vieler Objekte sehr schwierig. Die grossen Unterschiede zwischen den Bildern sind in Abb. 7 exemplarisch ersichtlich. Es zeigt jeweils links das DOP75 und rechts das GEO-Bild. Im letzterem sind Strassen und Dächer dunkler sowie Felder heller als beim DOP75.

Im Wald und in gebirgigen Regionen wurden keine oder sehr wenig geeignete Passpunkte gefunden. Die Punkte wurden im DOP75 manuell gemessen und dann halb-automatisch im GEO-Bild mit einem für multi-temporale Unterschiede modifizierten Least-Squares-Matching (LSM) übertragen. Falls das Matching falsch war, wurden die Punkte durch manuelle Messung übertragen. Es wurden insgesamt 107 gut verteilte Punkte gemessen. Sie waren vor allem gut definierte Schnitte von Linien bei Strassenkreuzungen, Strassenmarkierungen und selten Feldgrenzen (sind nicht stabil), sowie auch die Basis von Pfosten (Stromleitungen etc.). Alle Punkte sollten auf dem Boden liegen, da im DOP75 alle nicht-DTM Objekte radial verschoden waren.

Die Pixelkoordinaten des DOP75 wurden in Landeskoordinaten umgewandelt, wobei die Höhe durch bilineare Interpolation aus dem in Punkt 2.2.1.3 beschriebenen regelmässigen DTM berechnet wurde. Von den 107 gemessenen Passpunkten befanden sich nur 84 innerhalb des DTM-Perimeters. Aus den 84 Objektpunkten und den entsprechenden GEO-Bildpunkten wurde die Transformation (PMF) vom Objektraum in den Bildraum bestimmt. Zusätzlich wurde eine zweite Version mit nur 27 Objektpunkten gerechnet, um die Genauigkeitsunterschiede dieser zwei Versionen zu untersuchen. Damit sollte auch eine Aussage getroffen werden können, ob eventuelle Genauigkeitsunterschiede einen wesentlich höheren Aufwand für die Passpunktmessungen gerechtfertigen. Auf der Grundlage des DTMs wurden mit Hilfe der PMFs (84 und 27 Passpunkte) und einer bilinearen Grauwertinterpolation zwei Orthophotos (ORT84, ORT27) mit einer Bodenauflösung von 1m mit einem am IGP entwickelten Programm generiert. Die CPU-Zeit für die Produktion jedes 200 MB Orthophotos war 9 min auf einer Sun Workstation Ultra 60.

Methode 3: Georeferenzierung mittels empirischer Orthorektifizierung (EBP)

Die empirische Orthorektifizierung wurde ursprünglich für Landsat TM Szenen entwickelt (Bitter, 1990) und später für SPOT HRV und weitere Landsat TM-Daten getestet (Ehrler, 1993; Leiss, 1995; Kellenberger, 1996). Um auch IKONOS-Daten verarbeiten zu können, wurde dieses Verfahren bei EBP im Rahmen dieser Arbeit weiterentwickelt und im Bildverarbeitungssystem PCI implementiert.

Das Verfahren basiert auf einer Affintransformation unter Berücksichtigung des reliefbedingten Versatzes. Diese lineare Abbildung besitzt sechs Unbekannte und kann Translationen, Rotationen und Massstabsänderungen unabhängig von der x- und y-Richtung ausführen. Mittels eines DTMs wird der reliefbedingte Lageversatz korrigiert, indem die zentralperspektifische Zeileninformation anhand eines Korrekturvektors in eine Orthogonalprojektion überführt wird. Die Korrektur geschieht einerseits bei jedem Passpunkt, damit die Berechnung der Affintransformation nicht von Reliefverzerrungen negativ beeinflusst wird. Andererseits wird ein solcher Korrekturvektor auch bei der eigentlichen Transformation jedes einzelnen Bildelementes angewendet.

Für dieses Verfahren werden folgende Parameter benötigt: Flughöhe des Satelliten, Radius der Erde, Pixelgrösse, Pixel- und geographische Koordinaten des Szenezentrums, Inklination und Blickwinkel. Für diese Parameter können einerseits Nominalwerte, andererseits die Angaben aus den Bild-Metadaten verwendet werden. Da mit dieser Methode auch die reliefbedingten Verzerrungen berücksichtigt werden, eignet sie sich für Anwendungen, bei welchen hohe Anforderungen an die geometrische Genauigkeit der Daten gestellt werden.

Ähnlich wie in Methode 2 wurden für die PAN und MSI-Szene 34 bzw. 39 gut verteilte Passpunkte in dem Swissphoto DOP75 und in den Satellitenbildern mit PCI manuell gemessen. Die Lagekoordinaten konnten direkt aus den Messungen im Swissphoto DOP75 verwendet werden, während die jeweilige Z-Koordinate aus dem DTM interpoliert wurde. Mit Hilfe dieser Passpunkte wurden die jeweiligen Affintransformationen berechnet. Die Orthorektifizierung basierte anschliessend auf dem gegebene DTM. Die von EBP generierten PAN/MSI Orthophotos stellen nur einen Teil der verfügbaren Szene (Raum Steinhausen/Zug) dar.

Geometrische Genauigkeitsanalyse

Das Resultat der verschiedenen geometrischen Korrekturen wurde bei Swissphoto am Bildschirm überprüft, indem den korrigierten Bildern genaue Vektordaten als Referenz überlagert wurden (siehe Abb. 9 als Beispiel). Bei dieser visuellen Überprüfung zeigte sich, dass die mit Methoden 2+3 generierten Orthophotos recht gut zu den Referenzdaten passten, dass jedoch die Qualität lokal unterschiedlich ist.

Eine empirische geometrische Genauigkeitsuntersuchung der generierten IKONOS-Orthophotos wurde mit Hilfe der Vektordaten durchgeführt. Dazu wurden die PAN und MSI Orthophotos (Methode 1-3) in Microstation/IRAS-C mit den entsprechenden Vektordaten überlagert. Es wurden insgesamt 65 gut verteilte Kontrollpunkte über das gesamte Gebiet, dass durch die verschiedenen Orthophotos abgedeckt wurde, gemessen. Dabei wurde auch darauf geachtet, dass die Kontrollpunkte eindeutig in den Bildern identifizierbar waren und dass dieselben Kontrollpunkte je nach Gebietsabdeckung für alle IKONOS-Orthophotos verwendet wurden. Für die Orthophotos von EBP blieben wegen der geringeren Gebietsgrösse 26 Kontrollpunkte übrig. Für die beiden PAN Orthophotos von der ETH wurden nur die Kontrollpunkte verwendet, die innerhalb des umhüllenden Perimeters der verwendeten Passpunkte lagen. Die Ergebnisse dieser Vergleichsmessungen der Kontrollpunkte sind in Tab. 2 zusammengefasst.

Für die mit Methode 1 transformierten PAN-Bilder lag die Genauigkeit (RMS) bei 5 bis 8m (maximal Wert bei 12m), was ungefähr 5 bis 8 Pixel entspricht. Das IKONOS MSI-Bild (Methode 1) wies eine Genauigkeit von ca. 10-11m im Mittel auf, was einem Fehler von 2.5-3.0 Pixel entspricht. Die maximalen Abweichungen in einer Lagekoordinate lagen hier bei 18m. Für dieses Produkt wurde die Angaben vom Hersteller für die Lagegenauigkeit bei weitem übertroffen.

Dagegen liegen die RMS-Werte sowohl für die PAN- als auch für die MSI-Orthophotos aus Methode 2+3 bei 1.5-2.5m, was ungefähr dem Genauigkeitsniveau der DOP75 (siehe M4 in Tab. 2) entspricht, aus denen die Lagekoordinaten der Passpunkte für die Orthophoto-Generierung extrahiert wurden. Die Genauigkeit des DOP75 hat direkt die IKONOS-Orthophotos beeinflusst. Die hohen Mittelwerte der Abweichung für DOP75 zeigen grosse systematische Fehler besonders in Y. Diese Systematik in Y ist fast identisch in den IKONOS-Orthophotos zu sehen. Die maximalen absoluten Fehler sind in allen Fällen kleiner als 3 RMS. Grobe Fehler können deshalb ausgeschlossen werden. Die erreichte Genauigkeit der IKONOS-Orthophotos von ca. ± 2m entspricht der Genauigkeitsspezifikation von SI für das 5.5mal teuere PRECISION-Produkt.

Betrachtet man die mit Methode 1 transformierten Daten als Ausgangsdaten, so wurde durch die orthogonale Entzerrung mit Methode 2 bzw. 3 eine Genauigkeitssteigerung von Faktor 3-4 bei dem PAN-Bild und von Faktor 5-6 für das MSI-Bild erreicht.

Durch das Genauigkeitsniveau des DOP75 wurde das Genauigkeitspotential der mit den Methoden 2+3 generierten IKONOS-Orthophotos hier nicht ganz ausgeschöpft. Zur weiteren Kontrolle des DOP75 wurden die Passpunkte, die für Methode 2+3 im DOP75 erfasst wurden, mit hochaufgelösten Orthophotos der Gemeinde Steinhausen verglichen (siehe 2.2.1.2). Das RMS von 20 Vergleichsmessungen im Gebiet Steinhausen liegen bei 1.4m in X und 2.4m in Y und die Mittelwerte +0.57 in X und –2.04 in Y, was die oben aufgeführte Vermutung bestätigte. Die Standardabweichungen in der Tab. 2 zeigen, dass das Genauigkeitspotential der Methoden 2 und 3 bei 1m liegen dürfte, wenn die Passpunkte des DOP75 keine systematischen Fehler in den IKONOS-Orthophotos eingeführt hätten.

Das Orthophoto ORT27 (IGP) ist nicht wesentlich schlechter als das ORT84. Dennoch hat die visuelle Überprüfung verschiedener Regionen gezeigt, dass es sich lohnt, eine genügende Anzahl gut verteilter Passpunkte zu haben, um lokale Fehler bzw. Abweichungen zu verringern. Bei der Methode 2 kann eine Extrapolation, d.h. Prozessierung von Regionen ausserhalb des umhüllenden Passpunktperimeters, zu grossen Fehlern führen (siehe dazu Methode 2b mit 69 Kontrollpunkten in Tab. 2). Methode 3 hingegen braucht weniger Passpunkte und nicht so strenge Kriterien bei ihrer Auswahl. Mögliche Extrapolationsfehler konnten hier nicht überprüft werden, da die IKONOS-Orthophotos eine kleine Region innerhalb der Passpunkte abdeckten.

Die Ergebnisse der MSI-Orthophotos sind leicht besser als die für PAN, obwohl erstere 4mal schlechtere Auflösung haben. Die MSI GEO-Daten werden jedoch aus MSI-Rohdaten mit ca. 0.85 m Auflösung generiert, wobei die 4m-Pixel durch Resampling bikubisch interpoliert werden. Dieses Vorgehen führt zu einer Reduktion des Rauschens und einem besserem Signal-Rausch-Verhältnis. Ausserdem erlauben die MSI-Bilder wegen der Farbinformation eine bessere Erkennbarkeit der Passpunkte, die so ausgewählt wurden, so dass sie in allen GEO-Bildern gut sichtbar waren. Das Genauigkeitsniveau von DOP75 erlaubt jedoch keine definitive und zuverlässige Aussage über einen Vergleich zwischen PAN und MSI-Daten. Es ist aber wichtig anzumerken, dass SI für PAN (1m) und MSI (4m) identische Genauigkeitsspezifikationen angibt.

Schlussfolgerungen und Ausblick

Die drei Projektpartner Swissphoto AG, Ernst Basler & Partner AG und das Institut für Geodäsie und Photogrammetrie der ETH Zürich haben erste Erfahrungen mit den IKONOS GEO-Produkten gesammelt. Die von SI gelieferten Daten konnten trotz fehlender Informationen des Sensormodells und der Orbitparameter transformiert bzw. orthorektifiziert werden, so dass sie in einem GIS als wichtige Grundlage für zahlreiche Anwendungen dienen können. Durch die Orthophoto-Generierung von PAN- und MSI-GEO-Daten wurde eine Lagegenauigkeit von ± 2m erreicht, die der Genauigkeitsspezifikation von SI für das PRECISION-Produkt entspricht. Zur Herstellung dieser Orthophotos sind zwar zusätzliche Daten (DTM, Passpunkte) und zusätzlicher Aufwand erforderlich, jedoch ist dieser Aufwand für die Produktion von PRECISION-Produkten durch SI finanziell gesehen ungleich grösser. Allerdings darf ein Benutzer oder Vertriebspartner wegen der strengen Lizenzbestimmungen nur nach Genehmigung (und eventuell gegen Bezahlung) aus GEO-Daten bessere Produkte ableiten.

Das geometrische Genauigkeitspotential der IKONOS-Bilder dürfte noch besser sein, wenn genauere Passpunkte verwendet werden. In weiteren Studien sollten die Passpunkte aus bereits orientierten Luftbildstereomodellen oder durch GPS-Messungen im Feld bestimmt werden. Es sind Passpunkte mit einer Genauigkeit von unter 0.5m notwendig, wobei das DTM zur Orthorektifizierung auch eine Genauigkeit um die 0.5m, zumindest in der Region von Pass- und Kontrollpunkten, haben sollte. Folgende weitere Untersuchungen werden noch mit der Methode 3 (EBP) durchgeführt, um das grosse Potential dieser Methode aufzuzeigen: grössere Orthophotoflächen, weniger Passpunkte, Orthophotoregion ausserhalb von Passpunkten. Ausserdem kann durch das ausgewählte Testgebiet (westlicher Teil des Kantons Zug) mit einem Höhenunterschied von 600m keine allgemein gültige Aussage über das Genauigkeitspotential der IKONOS GEO-Bilder gemacht werden. Dazu bedarf es weiterer Untersuchungen in bergigeren Gebieten.

Die radiometrischen Untersuchungen haben aufgezeigt, dass durch die grosse Flughöhe und das Rauschen in den Bildern die Objektdefinition und -erkennung schlechter im Vergleich zu vergleichbaren Luftbildern ist. Weitere Untersuchungen mit unterschiedlichen Bilddaten sind allerdings erforderlich, um eine allgemein gültige Aussage treffen zu können.

Gespannt darf der Benutzer der IKONOS-Daten sein, wie sich die für das Jahr 2000 geplanten Starts von anderen hochauflösenden Satelliten (Orbview-4, Quickbird, EROS) auf die Informations-, Lizenz- und Preispolitik von SI auswirken werden.

Dank

Wir bedanken uns beim Vermessungsamt des Kantons Zug für die Bewilligung, das DTM und die Vektordaten als Grundlagedaten bei der Bearbeitung der IKONOS-Satellitendaten verwenden zu können. Unser ganz besonderer Dank gilt Yvonne Bumbacher (Studentin der Kulturtechnik an der ETH Zürich) und Sandra Bujak (Studentin des Vermessungswesens an der FH Dresden) für ihre Arbeiten in diesem Projekt im Rahmen eines Praktikums bei der Swissphoto AG.

 

Thomas Kersten
Swissphoto AG
Dorfstrasse 53
CH-8105 Regensdorf-Watt
e-mail: thomas.kersten@swissphoto.ch

Dr. Emmanuel Baltsavias
Institut für Geodäsie und Photogrammetrie
ETH Zürich
CH-8093 Zürich
e-mail: manos@geod.baug.ethz.ch

Dr. Ivo Leiss, Markus Schwarz
Ernst Basler und Partner AG
Zollikerstrasse 65
CH-8702 Zollikon ZH
e-mail: ivo.leiss@ebp.ch, markus.schwarz@ebp.ch

 

Vollständige Version siehe VPK 8/2000
Bestellung VPK: verlag@geomatik.ch


IKONOS – Hochauflösende Satellitenbilder auf Bestellung

Lange wurden sie erwartet, nun sind sie endlich da: Die Satellitendaten mit einer Auflösung von weniger als 1 Meter. Diese hochauflösenden Daten und Bilder werden verfügbar durch den Erdbeobachtungs-Satelliten IKONOS und dessen High-Tech-Kamerasystem. Rasche Verfügbarkeit der Daten und hohe Aktualität, günstige Preise sowie gute Qualität lassen die Daten für viele bekannte und auch für neue Anwendungen zu einer hervorragenden Informationsquelle werden.

Martin Probst (1999)

Das Projekt

Im Jahre 1994 erteilte die amerikanische Regierung zum ersten Mal privaten Firmen eine Konzession für die Plazierung eines kommerziellen Erdbeobachtungs-Satelliten auf einer Erdumlaufbahn. Unter anderem bewarb sich die Firma Space Imaging um eine solche Konzession. Diese Firma mit Sitz in Denver, Colorado, hat sich mit potenten Partnern und Investoren umgeben: Lockheed Martin Corp., der grösste amerikanische Luft- und Raumfahrtkonzern, Raytheon Company, führend in Kommunikationstechnik, Eastman Kodak Company, weltbekannt für Optik und Photographie, Mitsubishi Corporation, Hyundai Space & Aircraft sowie weitere internationale Konzerne und Grossfirmen beteiligten sich an diesem ehrgeizigen Projekt, welches 2 steuerbare Erdbeobachtungs-Satelliten mit einer Auflösung von weniger als 1 Meter, superschnelle Datenübertragung zur Erde und Bodenstationen auf allen Kontinenten der Erde vorsieht.

Der Raketenstart

Von der kalifornischen Vandenberg Air Force Base erfolgte der Start der Trägerrakete des Typs Athena II der amerikanischen Firma Lockheed Martin mit dem Satelliten IKONOS an Bord. Der Start erfolgte am Vormittag des 24. September 1999. Nach der Zündung der Triebwerke und dem Abheben des Raumfahrzeugs von der Start-rampe erfolgte die Beschleunigung der Rakete mittels den ersten beiden Raketenstufen. 4 Minuten 27 Sekunden nach dem Start wurde die Nutzlastverkleidung abgeworfen, welche den Satelliten in der unteren Atmosphäre vor Beschädigungen schützte. Dieses heikle Manöver fand in einer Höhe von 146,8 km bei einer Geschwindigkeit von 2.9 km pro Sekunde statt. Die 3. und die 4. Stufe dienten dazu, den Satelliten auf die vorgesehene Umlaufbahn auf einer Höhe von 681 Kilometer zu befördern. Die Trennung der Nutzlast von der letzten Raketenstufe erfolgte 58 Minuten nach dem Start in einer Höhe von 569 km bei einer Geschwindigkeit von 6.3 km pro Sekunde.

Der beschriebene Bilderbuchstart war allerdings nicht der geradlinige Weg zum Erfolg. Am 27. April 1999 erfolgte der Start einer Athena II Rakete mit IKONOS I an Bord. Der Start, welcher wie der zweite Start, live via Internet mitverfolgt werden konnte, verlief scheinbar ausgezeichnet. Erst als die anschliessend an den Start vorgesehene Pressekonferenz verschoben wurde, schöpften die Zuschauer Verdacht. Bald wurde bekanntgegeben, dass es eine "Anomalie" beim Start gegeben hatte. Tage später erfuhren die interessierten Beobachter, dass sich die Nutzlastverkleidung der Trägerrakete nicht gelöst hatte, sodass der Satellit, weil zu schwer, die vorgesehene Umlaufbahn nicht erreichen konnte und in den Süd-Pazifik abstürzte. Dies war ein harter Rückschlag, sowohl für Space Imaging als auch für die für den Start verantwortliche Firma Lockheed Martin. Umso grösser war die Freude, als man am 24. September dieses Jahres den perfekten und erfolgreichen Start von IKONOS II bekanntgeben konnte.

Der Satellit

Der 720 Kilogramm schwere Satellit bewegt sich auf einer nahezu polaren, kreisförmigen und sonnen-synchronen Umlaufbahn um die Erde. Die Flughöhe beträgt 681 Kilometer bei einer Inklination von 98.1 Grad und einer Geschwindigkeit von nahezu 7 km pro Sekunde. Dies ergibt eine Umlaufzeit von 98 Minuten. Die Wiederholfrequenz in Abhängigkeit der Auflösung beträgt 3 Tage mit 1 Meter Auflösung und 1.5 Tage mit 1.5 Meter Auflösung. Die Steuerung des Satelliten kann in der Spur und quer zur Spur erfolgen.

Die Kamera

Das digitale Kamerasystem, welches mit einer Bauzeit von 3 Jahren von Kodak erstellt wurde, besteht aus 4 Hauptkomponenten: Das optische Teleskop, welches die Bilder des 11 x 11 Kilometer grossen Bereichs der Erdoberfläche auffängt und auf die Bildsensoren leitet, die "Focal Plane Unit", welche die panchromatischen und die multispektralen Sensoren in Form von Matrizen (Arrays) beherbergt, die Bildverarbeitungseinheit, welche die Bildkompression vor der Datenübertragung zur Bodenstation vornimmt, sowie die Stromversorgung, welche die Versorgung der Kameraelektronik ab Satellit gewährleistet. Das ganze Kamerasystem hat einen Stromverbrauch von lediglich 350 Watt, ist also vergleichbar mit einem PC.

Die Spiegel

Das optische Teleskop mit 10 Meter Brennweite besteht aus insgesamt 5 Spiegeln und ist ca. 2 Meter lang. Die Spezialoptik ist so konzipiert, dass sie ein optimales Bild für die relativ grosse Bildfläche liefert, bei gleichzeitiger Minimierung der Verluste und der Verzerrungen. Der Durchmesser des Primärspiegels beträgt 70 cm bei einer Dicke von 10 cm. Er ist in die Form eines nicht-axialen asphärischen Paraboloids geschliffen und seine Oberfläche fängt das Licht der Erdoberfläche ein und spiegelt es auf den Sekundärspiegel, welcher das Bild vergrössert zurück ins Zentrum des Primärspiegels reflektiert. Durch das 152 mm grosse Loch im Zentrum des Primärspiegels wird das Licht auf den Tertiärspiegel geleitet, welcher die Aufgabe hat, das Fokusfeld des Bildes abzuplatten, um dieses in die optimale Form für die Sensor-Arrays zu bringen.

Die computergestützte Erstellung der Spiegel ist eine höchst präzise Aufgabe, welche zum Ziel hat, eine nahezu perfekte Oberfläche zu erzeugen. Kodak hat zur Lösung dieser Aufgabe einen High-Tech-Prozess entwickelt, welcher Oberflächenunebenheiten bis in die Grössenordnung der atomaren Struktur aufspüren und korrigieren lässt. Die erreichte Genauigkeit lässt sich mit folgendem Vergleich visualisieren: Wenn der Spiegel auf einen Durchmesser von 160 Kilometer vergrössert würde, spürte ein Fahrzeug, welches die Oberfläche abfahren würde, lediglich Unebenheiten von bis zu 2 Millimetern.

Dass die verwendeten Baustoffe wie Glas und umhüllendes Metall sorgfältigst ausgelesen wurden und aus Materialien bestehen, welche eine extrem niedrige Temperaturausdehnung ausweisen, versteht sich von selbst. Der Sekundärspiegel ist so aufgehängt, dass er zur Anpassung der Brennweite mit einer Schrittweite von 0.25 Micron justierbar ist.

Die Bildsensoren

Die Montageplattform der Sensoren (Focal Plane Unit) misst 25 x 23 x 23 cm und enthält die Sensoren samt Elektronik. Jedes Element ist synchronisiert mit der Fortbewegungsgeschwindigkeit des Satelliten, damit die Bewegungsunschärfe ausgeschaltet und gestochen scharfe Bilder erzeugt werden können. Der 1-Meter-Sensor für die panchromatischen Bilddaten besteht aus einem linearen CCD mit 13‘500 Pixel, je 12 Micron gross. Der 4-Meter-Sensor für die multispektralen Bilddaten ist ein Array von 3375 Photodioden, je 48 Micron gross. Die Bilddaten mit "Farbtiefe" von 11 Bit werden in der Bildverarbeitungseinheit mit einem Spezialverfahren auf ca. 2.6 Bit pro Pixel verlustfrei komprimiert, mit einer Verarbeitungsgeschwindigkeit von 115 Millionen Pixel pro Sekunde, vergleichbar mit 115 modernen Megapixel-Kameras und entspricht einer verarbeiteten Datenmenge von einer vollen CD alle 17 Sekunden. Diese Verarbeitung erlaubt einen Real-time Datentransfer zur Bodenstation. Die Auflösung der Sensoren beträgt grundsätzlich 1 Meter panchromatisch (11 Bit Graustufen) innerhalb eines Winkels von 26 Grad ab Nadir und 4 Meter multspektral.

Die Bilddaten

Der Öffnungswinkel der Kamera deckt im Nadir eine Länge von 11 Kilometer ab, weshalb ein Einzelbild (Szene) eine Fläche von 11 x 11 km abdeckt. Es können Streifen von 11 x 100 km bis 11 x 1000 km auf einmal aufgenommen werden oder Flächen als Mosaike bis zu 12‘000 km2. Pro Überflug könne bis zu 2 Mosaike zu je 10‘000 km2 aufgenommen und verarbeitet werden.

Space Imaging hat für die an den Kunden ausgelieferten Datenprodukte folgende Genauigkeitsangaben freigegeben: Die Lagegenauigkeit eines Bildpunktes beträgt ohne Passpunkte (GCP) horizontal 10 Meter und vertikal 12 Meter. Sobald bei der Bildverarbeitung Passpunkte verwendet werden, verbessert sich die Lagegenauigkeit auf horizontal 2 Meter horizontal und vertikal 3 Meter.

Die Bodenstation

Die primäre Bodenstation steht in Denver, Colorado, USA, ganz in der Nähe des Firmensitzes von Space Imaging. Auf jedem Kontinent steht mindestens eine weitere Bodenstation, welche jeweils von einer Betreiberfirma (Regional Affiliate) in Verbindung mit Space Imaging betrieben wird. Die Bodenstation für Europa steht in der Nähe von Athen. Sowohl die primäre Station in den USA als auch die regionalen Stationen können den Satelliten steuern (Tasking), Daten ab Satellit empfangen (Downlink), Daten zu Produkten weiterverarbeiten und zum Vertriebspartner transportieren.

Die digitalen Produkte

Als erste Stufe der Bildbearbeitung bzw. Datenaufbereitung werden die Bilddaten direkt nach dem Empfang in der Bodenstation radiometrisch korrigiert und die Bilder abgeglichen. Die Bilddaten werden anschliessend geometrisch korrigiert und in ein standardisiertes Projektionssystem eingerechnet. Gleichzeitig wird die Auflösung standardisiert. Diese Produkte, welche ohne Passpunkte und ohne Berücksichtigung eines digitalen Höhenmodells erstellt werden, heissen "CARTERRA TM Geo Image" und sind als Mono Bildprodukte oder als Stereo Bildprodukte erhältlich. Die nächste Stufe der Bildverarbeitung umfasst die Orthorektifizierung der Bilder. Diese Produkte heissen "CARTERRA TM Ortho Image" und sind in den zwei Qualitätsstufen "Pro" (Berechnung unter Berücksichtigung eines 15 x 15 Meter Höhenmodells) oder "Precision" (Berechnung unter Berücksichtigung eines 10 x 10 Meter Höhenmodells) erhältlich.

Die Anwendungen

Die Anwendungen sind einerseits die heute bereits mit schlechter aufgelösten Satellitenbildern und –daten arbeitenden Disziplinen: Kartenherstellung, Raumplanung, Umwelt-Monitoring und Erdwissenschaften oder auch Telekommunikation und Transportwesen. Neu könnten aufgrund der raschen Verfügbarkeit der Bilder und der guten Auflösung auch Landwirtschaft, Forstwesen, Krisenstäbe bei Notfällen und Katastrophen, Tourismus oder Medien mit diesen Daten beliefert werden. Ein Teil dieser neuen Märkte wird allerdings durch Substitution der bisher verfügbaren, aber teureren Technologie der Luftbild-Photogrammetrie dazukommen.

Die Satellitenbilder und -daten werden ab Ende 1999 auch in der Schweiz und für die Schweiz verfügbar sein.

 

Martin Probst
dipl. Vermessungsingenieur HTL/STV, Betriebswirtschaftsingenieur HTL/NDS
Geschäftsführer GEOLine
GEOLine / GEO-Zentrum
Worbstrasse 164
CH-3073 Gümligen
e-mail: GEOLine@geozen.ch

Vollständige Version siehe VPK 11/99
Bestellung VPK: verlag@geomatik.ch


CyberCity Modeler - ein System zur halbautomatischen Generierung von 3D-Stadtmodellen

3D-Stadtmodelle nehmen im Geodatenmarkt eine immer grössere Bedeutung ein. Vor allem in den Bereichen Stadt- und Regionalplanung, Mobilfunk und Tourismus ist ein entsprechender Bedarf geweckt worden. An der ETH Zürich wurde mit dem CyberCity Modeler (CCM) eine Methode und die dazugehörige Software entwickelt, die es gestattet, auf photogrammetrischem Wege 3D-Stadtmodelle halbautomatisch zu generieren. Mit CCM können 3D-Stadtlandschaften wirtschaftlich, genau und mit beliebigem Detaillierungsgrad erfasst werden. Im vorliegenden Artikel wird die Methode beschrieben und Ergebnisse vorgestellt.

A. Grün, F. Steidler, X. Wang (1998)

Einführung

In stark zunehmendem Umfang verlangen viele Disziplinen wie Stadt- und Regionalplanung, Telekommunikation, Umweltwissenschaften, Versicherungswesen, Tourismusindustrie, Denkmalschutz, etc. nach 3D-Daten städtischer und ländlicher Bereiche in digitaler und strukturierter Form. Die Planung und Entwicklung von komplexen urbanen Projekten erfordert die Berücksichtigung vieler Faktoren wie die historische Entwicklung, Gebäude, Topographie, Vegetation, Landnutzung, Verkehrswege, aber auch Informationen über die politischen, sozialen, gesetzlichen und ökonomischen Verhältnisse. Eine Grundvoraussetzung für Stadtplanungsprojekte ist ein weitgehend vollständiges und genaues 3D-Stadtmodell der urbanen und periurbanen Gebiete für Simulation, Analyse und Entwurf, das möglichst alle Informationen enthält. Das System dient Architekten, Stadt- und Verkehrsplanern zur Visualisierung ihrer Objekte in der natürlichen Umgebung und zur Berechnung von Immissionen und damit zur Verhinderung von Einsprachen. Weiterhin hilft es Tourismusmanagern zur Darstellung von Sehenswürdigkeiten, Restaurants und Hotels. Energieversorger benötigen es zur optimalen Ausrichtung von Solarzellenanlagen, Mobilfunkbetreiber zur Bestimmung von Antennenstandorten, Versicherungen zur Beurteilung und Simulation von Risiken bei gefährlichen Transporten oder Naturkatastrophen.

Die erforderlichen Daten müssen sehr schnell flächendeckend gewonnen werden können. Viele der Daten sind implizit bereits vorhanden und können entsprechend eingebunden werden. Dazu gehören die Grundrissdaten von Gebäuden und anderen Objekten aus Karten oder digitalen Datenbeständen sowie die Höhendaten aus dem DTM.

Der Anwender kann wie folgt vorgehen:

  • Erheben des bestehenden Datenbestands
  • Festlegen der erforderlichen Auflösung und Genauigkeiten für Teilgebiete
  • Festlegen der neu zu erfassenden Gebiete
  • Festlegen der Methoden der Datenerfassung
  • Datenerfassen
  • Nachführen im Falle höherer Genauigkeitsanforderungen und im Falle neuer Objekte

Sind beispielsweise die Grundrissdaten aus der Grundbuchvermessung vorhanden, kann die Höhe der Gebäude geschätzt werden. Hierzu gibt es verschiedene Ansätze. Die geschätzte Anzahl der Geschosse wird mit einer ungefähren Geschosshöhe multipliziert und das Resultat als Gebäudehöhe angenommen. Es kann weiterhin die Nachbarschaft berücksichtigt werden. So werden in Wohngebieten die Gebäudehöhen in etwa gleich gross sein. Auf Grund solcher Hypothesen können für Gebiete, an welche keine grossen Genauigkeitsanforderungen gestellt werden, Blockmodelle generiert werden, welche auf die vektorisierten Gebäudegrundrisse aufgesetzt werden.

Die Genauigkeit wird durch das Verfahren des Laserscannings gesteigert. Laserscanning allein bringt eine Lagegenauigkeit von ca. 1 m und eine Höhengenauigkeit von besser als 20 cm. Das Ergebnis des Laserscannings ist ein Oberflächenmodell, welches eine Umhüllung der Gebäude, der Vegetation und anderer Erhebungen darstellt. Diese müssen weiter interpretiert werden, was durch eine Kombination mit bestehenden Grundrissdaten möglich ist.

Die Photogrammetrie erlaubt eine weitere Steigerung der Genauigkeit und vor allem des Detaillierungsgrads. Sie liefert zudem eine hochauflösende natürliche Bildtextur zur photorealistischen Wiedergabe der Stadtmodelle.

Im folgenden wird die Generierung von 3D-Stadtmodellen mit der Photogrammetrie erklärt und aufgezeigt, wie die Ergebnisse weiterverwendet werden können.

An der ETH Zürich wurde am Institut für Geodäsie und Photogrammetrie eine Software (CyberCity Modeler) zur effizienten Datenerfassung und Datenstrukturierung entwickelt. Sie erlaubt, die erwünschten Daten in 3D-Form, flächendeckend, aktuell, geometrisch genau und schnell zu erheben. Mit modernen Auswertegeräten der analytischen und digitalen Photogrammetrie erfolgt die Datenerfassung halbautomatisch. CyberCity Modeler (CCM) ist ein Softwarepaket zur Strukturierung von 3D--Objekten, welche durch planare Oberflächen begrenzt sind. Es verarbeitet photogrammetrisch erfasste Punktwolken. Der Operateur misst die wesentlichen Punkte des Gebäudedaches im photogrammetrischen Stereomodell. Die Software sorgt für die automatische Generierung der Dachflächen. Traufpunkte werden auf das Digitale Geländemodell projiziert und vervollständigen das Dach zum ganzen Gebäude. Bäume und Sträucher werden im Stereomodell durch einen zentralen Wipfelpunkt markiert und durch CAD-Objekte dargestellt. Das Programm erzeugt eine eigene Datenstruktur. Konvertierugsmodule zu üblichen CAD- und Visualisierungsprogrammen sind vorhanden. Das Verfahren erlaubt bezüglich Datenerhebung, Modellierung und Repräsentation einen beliebigen Detaillierungsgrad. Nach diesem richtet sich der Aufwand des Operateurs.

Im folgenden Kapitel wird der gesamte Datenfluss des CCM beschrieben. In Kapitel 3 werden praktische Beispiele erläutert.

Datenfluss des CCM

Um eine 3D-Beschreibung von Objekten aus Luftbildern zu erhalten, werden zwei Hauptkomponenten benötigt: Photogrammetrische Messung und automatische Strukturierung. Beim CCM erfolgt die Identifikation der Objekte und deren Messung manuell durch den Operateur an einem Analytischen Plotter oder einer digitalen Photogrammetriestation. Bei der Datenerfassung werden die Einzelpunkte des Objekts nach zwei Typen entsprechend ihrer Funktion und Struktur kodiert: Dachbegrenzungspunkte und innere Punkte (siehe Abbildung 1). Die Begrenzungspunkte werden als geschlossene Polygone erfasst, die inneren Punkte können in einer beliebigen Reihenfolge gemessen werden. Es liegt in der Verantwortung des Operateurs, den Detaillierungsgrad je nach Aufgabenstellung selbst zu bestimmen. So können für jede Objektart unterschiedliche Detaillierungsniveaus in der Erfassung gewählt werden, je nachdem ob es sich um Gebäude, Strassen, Wasserwege, Bäume oder andere Objekte handelt.

CCM ist ein automatischer Topologiegenerator für 3D-Objekte. Die Hauptkomponenten sind in Abbildung 2 dargestellt. Der erste Schritt nach Messung der Punktwolken ist das Preprocessing, welches die Reihenfolge der Messung kontrolliert, redundante Punkte aufdeckt und eliminiert und die Bestimmung der möglichen Gruppen von Flächen aufgrund von Nachbarschaftsanalysen durchführt. Der nächste Schritt ist die Bildung der Oberfläche des 3D-Objekts, beispielsweise wird bestimmt, aus wieviel Einzelflächen das Objekt besteht, welche Punkte die Umrisse definieren und welche räumlichen Relationen die Einzelflächen bilden. Dies geschieht durch den sogenannten Consistent Labelling Algorithmus, welcher in Grün, Wang, 1998 detailliert beschrieben ist. Als Ergebnis des Consistent Labelling liefert der CCM sämtliche Oberflächenbeschreibungen. Es schliesst sich eine Simultanausgleichung nach der Methode der kleinsten Quadrate an, in welcher die individuellen Flächen optimal an die gemessenen Punkte angepasst werden. Die Ausgleichung schliesst auch Bedingungen für Rechtwinkligkeit von Linienpaaren ein. Letztlich erhält man eine Beschreibung des 3D-Objekts, welche in einer selbstentwickelten Datenstruktur (V3D-) abgelegt wird. Für eine später folgende Visualisierung werden die Daten in einer TIN (triangular irregular network) Struktur wiedergegeben. Obwohl die Prozedur automatisch abläuft, kann der Operateur dennoch interaktiv eingreifen. Der algorithmische Ablauf ist im einzelnen in Grün, Wang, 1998 beschrieben.

V3D-besitzt eine Vektordatenstruktur, welche das Facettenmodell der Objekte abbildet. Das Grundelement in dieser Struktur ist der Punkt. Die Punkte bilden die Liniensegmente und die Flächen. Durch Hinzufügen von Attributen werden Polylines oder Objekte einer Entitätsklasse zugeordnet.

Zusätzlich verfügt der CCM über die Fähigkeit, Bilder mit natürlicher oder künstlicher Textur auf das 3D-Objekt abzubilden. Diese Texturen werden der entsprechenden Fläche als Attribut beigestellt. Das DTM ist in einer eigenen Entitätsklasse in V3D-abgelegt. Mit Hilfe von Schnittstellenprogrammen können verschiedene Datenformate erzeugt werden wie IV, VRML, DXF und AutoLisp, welche von AutoCAD, Microstation, Polytrim, ArcView 3D-Analyst und VRML-Browsern lesbar sind.

CCM ist auf UNIX-Workstations (Sun SPARC) unter X-Windows und OSF/Motif implementiert. Für eine entsprechende NT-Version ist lediglich die Benutzeroberfläche (GUI) anzupassen.

Abbildung 3 zeigt die Benutzeroberfläche des CCM. CCM kann optional automatisch oder interaktiv ablaufen. Im interaktiven Modus können die 3D-Objekte mit Hilfe von 2-D oder 3D-Ansichten editiert werden, falls Fehler bei der Datenerfassung festgestellt wurden. In der 2-D Sicht projiziert CCM die Vektordaten auf das Luftbild zur Qualitätskontrolle. Im 3D-Modus wird das Objekt als Drahtmodell abgebildet.

CCM ist ein allgemeiner Topologiegenerator. Er kann ausser zur Rekonstruktion von Gebäuden auch für andere Objekte wie Wasserwege, Brücken, Bäume, Strassen eingesetzt werden. Darüber hinaus erlaubt CCM die Verbindung der 3D-Objekte mit einem 2.5-D DTM.

Praktische Beispiele und Visualisierung

Der CCM wurde in mehreren Projekten (Zürich Hauptbahnhof, Dietikon, Regensdorf) für den produktiven Einsatz erprobt. Die Angaben zu den Projekten sind in der Tabelle 1 wiedergegeben. "Automatisch strukturiert" bedeutet die Anzahl von Dacheinheiten, welche CCM durch den automatischen Prozess erstellte; "interaktiv strukturiert" bezieht sich auf die Anzahl Dacheinheiten, die manuell nachbearbeitet werden mussten. Somit ist die Erfolgsrate bei CCM bei über 95%. Die verbliebenen Dächer können durch konventionelle Editierwerkzeuge rekonstruiert werden. Die Hauptfaktoren für die Performance sind der menschliche Operateur und der Detaillierungsgrad. Der Operateur muss sich mit den Techniken der Datenerfassung an Analytischen Plottern bzw. Digitalen Photogrammetriestationen auskennen. Ein erfahrener Operateur misst pro Tag über 500 Dächer.

Zur Visualisierung können alle Softwarepakete verwendet werden, die VRML, IV oder DXF-Formate lesen können. Hier sind zu nennen: ArcView-3D-Analyst, AutoCAD, Cosmo-Player, Inventor, Microstation und Polytrim.

Abbildung 4 zeigt das mit dem CCM generierte Stadtmodell um den Hauptbahnhof Zürich. Es enthält Gebäude, Gewässer, Bäume und das DTM. Die Abbildung 5 zeigt Regensdorf.

Zur realistischeren Darstellung können die Vektordaten mit den Rasterdaten des Orthophotos verknüpft werden. Ferner können Fassaden mit Videokameras aufgenommen und auf die Wände der Gebäude transformiert werden. Beispiele dafür finden sich u.a. in Grün, 1996.

Schlussfolgerungen

Das Softwarepaket CCM (CyberCity Modeler) ist zur halbautomatischen Generierung von Stadtmodellen sehr gut geeignet. Abhängig von der Komplexität der Szene, dem gewünschten Detailreichtum und der Erfahrung des Operateurs lassen sich mehrere hundert Dacheinheiten pro Tag in hoher Auflösung und Genauigkeit erfassen. Die Interfaces zu gängigen CAD- und Visualisierungsprogrammen stehen zur Verfügung.

Weiter stellt sich im Rahmen des Arbeitsprozesses die Aufgabe der Nachführung der Daten bei Veränderungen. Neubauten und Umbauten sind schnell zu berücksichtigen. Es lohnt sich nicht, jeweils Neubefliegungen für Laserscanning und/oder Photogrammetrie durchzuführen. Hier sollte die Verwaltung beim Eingang von Bauanträgen Änderungen direkt über CAD-Funktionalität an das Stadtmodell weitergeben. Bei grösseren Objekten liefert der Architekt bereits CAD-Objekte mit seinem Bauantrag.

Die Verknüpfung mit einem GIS kann über die Visualisierungssoftware wie z.B. ArcView 3D-Analyst erfolgen. Die Verbindung wird über die Objekte geschaffen, deren Grundrisskoordinaten abgefragt werden können. Ueber den räumlichen Zugriff lassen sich die Attribute aus der GIS-Datenbank bestimmen und erlauben so auch aus der Perspektivdarstellung heraus direkte kombinierte Raum- und Sachdatenanalysen. Daneben ist ein eigenes 3D-Datenmodell in Vorbereitung, welches auf einem Datenbankmanagementsystem realisiert wird und Analysen mit 3D-Daten erlaubt.

 

Prof. Dr.-Ing. Armin Grün
Xinhua Wang
ETH Zürich
ETH Hönggerberg
CH-8093 Zürich
e-mail: agruen@geod.ethz.ch

Dr.-Ing. Franz Steidler
born & partner AG
Hohle Gasse 10
CH-5454 Bellikon
e-mail: born@bluewin.ch

Vollständige Version siehe VPK 9/98
Bestellung VPK: verlag@geomatik.ch


Hochauflösende digitale Orthophotos in der Planungs- und Ingenieurpraxis

Digitale Orthophotos bilden eine wichtige und aktuelle Grundlage für viele Anwendungen in Geographischen Informationssystemen. In der letzten Zeit werden die digitalen Orthophotos auch in der Planungs- und Ingenieurpraxis zunehmend eingesetzt, da sich viele Arbeitsprozesse effizienter durchführen lassen und bei der Datenbeschaffung und -analyse für Ingenieurprojekte viele Synergien durch Orthophotos genutzt werden können. In diesem Beitrag stellen wir den Einsatz von hochauflösenden digitalen Orthophotos bei Anwendungen innerhalb der Gesamtmelioration für eine Gemeinde im Berggebiet vor. Es wird diskutiert, welche Abklärungen für einen Einsatz von Orthophotos erforderlich sind. Der Ablauf der Datenproduktion zur Generierung von digitalen Orthophotos wird am Beispiel der Gemeinde Vals GR dargestellt und die Einsatzmöglichkeiten werden an Beispielen aufgezeigt. Abschliessend werden die Vor- und Nachteile von digitalen Orthophotos in der Planungs- und Ingenieurpraxis beurteilt.

M. Calörtscher, Th. Kersten (1998)

Einleitung

Der zunehmende Kostendruck führt auch in der Planungs- und Ingenieurpraxis dazu, dass nach effizienten und innovativen Lösungen gesucht wird, um für die Projektbearbeitung aktuelle, genaue, einfach und schnell zu erfassende, günstige und grossmassstäbige Geodaten zur Verfügung zu haben. Gerade bei Gesamtmeliorationen spielt die Datenbeschaffung besonders für Gemeinden in Berggebieten eine zentrale Rolle, da dort teilweise die Grundlagedaten noch fehlen oder veraltet sind. Als effiziente Ergänzung zur amtlichen Vermessung erfüllen digitale Orthophotos (DOPs) Kriterien wie Aktualität, Genauigkeit, Homogenität und volle Gebietsabdeckung. Von Däniken und Blatter (1994) stellen die Verwendung von Orthophotos als Ergänzung zur amtlichen Vermessung im Kanton Solothurn vor.

Für die Schweiz werden zur Zeit flächendeckend digitale Orthophotos in Farbe mit einer Pixelauflösung von 75 cm am Boden hergestellt (Kersten, 1996). Doch diese Grundlagedaten können in der Planungs- und Ingenieurpraxis Melioration und ebenfalls in der amtlichen Vermessung wegen der geringen Auflösung nur im begrenzten Masse eingesetzt werden. Hochauflösende digitale Orthophotos (Pixelgrösse < 20 cm) bieten sich dagegen für verschiedene Anwendungsmöglichkeiten in vielfältigen und interdisziplinären Ingenieurprojekten wie beispielsweise bei Gesamtmeliorationen an.

Orthophotos weisen folgende Merkmale / Eigenschaften auf:

  • Hohe Genauigkeit, Stabilität und Informationsgehalt
  • Erfassung/Darstellung grosser Flächen in kurzen Zeitabständen
  • Kurze Produktionszeit, niedrige Kosten, hohe Effizienz
  • Flexibilität in der Produktion der Orthophotos und Ableitung von Folgeprodukten
  • Computergestützte Informationsextraktion mit Möglichkeiten zur Automation
  • Einfache radiometrische Manipulationen (hohe Bildqualität, Mosaikherstellung, Farbmanipulationen, digitales Dodging)
  • Integration von Zusatzinformationen (Schrift, Rahmen, etc.) durch digitale Bildverarbeitung
  • Steigerung des Nutzens durch Kombination mit bestehenden Vektordaten

Digitale Orthophotos haben aus folgenden Gründen in letzter Zeit zunehmend an Bedeutung gewonnen (Grün et al., 1994):

  • Digitale Daten sind heute flächendeckend als Satelliten- oder Luftbilder leicht verfügbar.
  • Scanner ermöglichen ein qualitativ hochwertiges Digitalisieren von Luftbildern und anderen Daten.
  • Digitale Terrainmodelle als Grundlagedaten für die Herstellung von DOPs sind durch verschiedene Erfassungsmethoden wie digitale automatische Bildkorrelation, Laser-Scanning oder Radar zunehmend in unterschiedlichen Qualitätsstufen verfügbar.
  • Notwendige Passpunktinformationen können durch GPS genau, schnell und kostengünstig erfasst werden.
  • Computer sind heute mit hoher Rechnerleistung und Speicherkapazität kostengünstig erhältlich.
  • Kommerzielle Software für die digitale Orthophoto-Generierung ist von einer Vielzahl von Anbietern erhältlich.
  • Die digitale Kartographie bedient sich für die Kartennachführung zunehmend digitaler Orthophotos.
  • Die amtliche Vermessung bedient sich für die Nachführung von Bodenbedeckungen ausserhalb des Baugebietes und für die Verifikation zunehmend digitaler Orthophotos.
  • Digitale Orthophotos bilden als Rasterdaten eine wichtige und aktuelle Informationsebene in Geo-Informationssystemen.
  • Digitale Orthophotos werden durch günstige Visualisierungssoftware auf PC’s einer breiten Öffentlichkeit zugänglich.

Die allgemeinen Anwendungsmöglichkeiten von digitalen Orthophotos sind vielfältig. Die wichtigsten Anwendungsbereiche sind die Nutzung von Orthophotos als Kartengrundlage, als Hintergrundinformation für verschiedene Vektordaten sowie für die Digitalisierung von neuen Vektordaten aus Orthophotos. Im folgenden werden verschiedene Aufgaben kurz zusammengefasst, für die man digitale Orthophotos einsetzen kann (Baltsavias, 1993):

  • Überprüfung von Daten auf geometrische Richtigkeit und Vollständigkeit durch Überlagerung von Vektordaten auf Orthophotos
  • Neudatenerfassung durch Vektorisierung aus Orthophotos
  • Karten- und Datennachführung aus aktuellen Orthophotos
  • Herstellung von Orthophotokarten
  • 3-D Datenerfassung durch Monoplotting aus Orthophoto und DTM
  • Erstellen von synthetischen 3-D Ansichten (Perspektiven)
  • Verifikation von Änderungen aus Vergleichen von zeitlich unterschiedlichen Orthophotos
  • Verschneiden mit anderen Daten (Raster-, Vektor- oder Sachdaten)
  • Qualitätskontrolle von DTMs durch Stereo-Orthophotos (Grün et al., 1994)
  • Aufbau einer Orthophoto-Datenbank als Land-Basisinformation für Länder, Kantone und Gemeinden

In unserem Beitrag zeigen wir anhand des Beispieles der Gesamtmelioration die Anwendungen von digitalen Orthophotos in der Planungs- und Ingenieurpraxis auf. Im Kapitel 2 werden wichtige Aspekte, welche vor der Orthophoto-Herstellung zweckmässigerweise abgeklärt werden sollten, erörtert, während im Kapitel 3 die Produktion von digitalen Orthophotos anhand der Daten für die Gemeinde Vals GR beschrieben wird. Ausgewählte Anwendungsbeispiele für den Einsatz von digitalen Orthophotos werden in Kapitel 4 vorgestellt. Abschliessend werden die Vor- und Nachteile der digitalen Orthophotos in dem vorgestellten Projekt beurteilt.

Vorabklärungen bei der Projektplanung

In der Phase der Projektplanung sollten folgende Punkte betreffend des Einsatzes von Orthophotos erörtert, beurteilt und berücksichtigt werden:

Projektart, -grösse

Die Verwendung von Orthophotos empfiehlt sich eher bei grossräumlichen Gesamtplanungen und –projekten, in welchen eine Vielzahl an geographischen Informationen aufgearbeitet und analysiert werden müssen. Zusätzlich muss der Orthophoto-Einsatz den Aufwand für Erhebungen, Verifikationen und Begehungen im Feld in erheblichem Masse reduzieren. Vor diesem Hintergrund spielt die Projektart und -grösse bei der Entscheidung über die Erstellung eines Orthophotos eine wesentliche Rolle. Daher empfiehlt es sich ebenfalls, im voraus abzuklären, ob im betreffenden Bearbeitungsgebiet bereits vorhandene Orthophotos mit ausreichender Auflösung und Aktualität verfügbar sind.

Einsatzbereiche des Orthophotos innerhalb des Projektes

Das Orthophoto enthält eine Menge von Informationen, die in der Regel projektspezifisch interpretiert werden müssen. Anhand einer detaillierten Auflistung der einzelnen Projektschritte lassen sich die verschiedenen, möglichen Einsatzbereiche des Orthophotos innerhalb des Projektes "step by step" überprüfen und schliesslich gesamthaft beurteilen. Dadurch kann auch die Frage geklärt werden, welche Informationen mit welcher Genauigkeit für welchen Arbeitsschritt auf dem Photo erkennbar sein sollen.

Massstab und Pixel-Auflösung

Mit der vorausgehenden Bezeichnung des grössten, benötigten Planmassstabes und der gewünschten Pixel-Auflösung am Boden wird die spätere Erkennbarkeit der geographischen Informationen weitgehend mitbestimmt. Diesbezüglichen Abklärungen ist darum ein grosses Gewicht beizumessen. Für die meisten Orthophoto-Anwendungen in der Planungs- und Ingenieurpraxis und insbesondere in der amtlichen Vermessung sowie in der Gesamtmelioration empfehlen die Verfasser eine Auflösung von 10 cm bis 20 cm für das Pixel am Boden.

Bearbeitungsgebiet

Die Oberflächengestalt und die topographischen Verhältnisse in einem Bearbeitungsgebiet sind weitere Bestimmungsfaktoren für die Planung des Bildfluges und die Nutzbarkeit der Bildinformationen. Ungünstig wirken sich vor allem steiles Gelände, Bewaldungen, hohe Gebäude und Siedlungsgebiete aus. Solche Elemente werfen Schatten, die als schwer interpretierbare, dunkle Flächen auf den Photos abgebildet werden. Weiter erscheint ein solches Einzelobjekt je nach Entfernung zum Aufnahmenadir wie ein "schiefer Turm von Pisa", weil die Entzerrung der Luftbilder normalerweise auf Bodenniveau gerechnet wird. Diese Aspekte sollten bei der Entscheidung für oder gegen die Erstellung eines Orthophotos ebenfalls berücksichtigt werden.

Nebenprodukte, Synergieeffekte

Bei der Erstellung eines Orthophotos fällt als Nebenprodukt immer auch ein digitales Höhen- bzw. Terrainmodell (DHM/DTM) an. Falls ein Planungsauftrag bzw. ein Ingenieurprojekt beispielsweise auch bauliche Anlagen im Gelände mit einschliesst, ist ein DTM oftmals eine nützliche Projektierungshilfe. Die im DTM enthaltenen Informationen können auch für weitere Anwendungen genutzt werden. Beispielsweise lassen sich auf einfache Weise auch Pläne mit Flächen gleicher Neigung einfach auswerten und darstellen. Solche Geo-Informationen sind bei verschiedenen Projektierungs- und Planungsarbeiten hilfreich. Im Rahmen von amtlichen Vermessungen ergeben sich weitere Synergieeffekte, wenn die Informationsebenen Bodenbedeckung und Einzelobjekte photogrammetrisch ausgewertet werden. Die Nutzungsmöglichkeiten solcher Synergieeffekte werden darum mit Vorteil zum vornherein ergründet und im Auftrag an den Photogrammeter mitberücksichtigt.

Ausrüstung und Personal

Voraussetzung zur effizienten Nutzung und Weiterverarbeitung der hochauflösenden Orthophotos sind eine leistungsfähige, eigene technische Ausrüstung im EDV/GIS-Bereich (hybride Systeme: Kombination von Vektor- und Rasterdaten) sowie selbstverständlich qualifizierte Mitarbeiterinnen und Mitarbeiter. Als Hardwarekomponenten sollten Computer mit hoher Rechnerleistung (z.B. Taktfrequenz 200 Mhz) und genügend RAM (256 MByte) sowie ausreichender externer Speicherplatz (Disk mit 23 Gbyte) zur Verfügung stehen.

Terminplanung

Idealerweise wird der Bildflug in der Zeit nach der Schneeschmelze und vor Vegetationsbeginn bei wolkenlosem Wetter (kein Schattenwurf) durchgeführt. In dieser Zeitspanne wird der Boden weder durch den Schnee oder durch das Laub der Bäume noch durch den Pflanzenwuchs auf den Feldern verdeckt. Gilt das Interesse nicht dem Boden, sondern beispielsweise dem Pflanzenbewuchs bei einem bestimmten Vegetationsstand, ist der ideale Flugtermin für die Bildaufnahme selbstverständlich in der entsprechenden Vegetationszeit anzusetzen. Allerdings gilt allgemein die Feststellung, dass der kleinste Schattenwurf in den Monaten mit hohem Sonnenstand auftritt. Folglich sind die Spätherbst- und Wintermonate generell ungünstige Befliegungszeiten. Die Terminplanung sollte deshalb den projektspezifisch idealen Flugtermin im voraus berücksichtigen.

Entscheidung für die Verwendung von Orthophotos

Eine Unterstützung der Projektbearbeitung durch die Verwendung von Orthophotos sollte frühzeitig – idealerweise bereits bei der Offertbearbeitung – entschieden werden. Damit lassen sich Doppelspurigkeiten und Wiederholungen vermeiden.

Kostenüberlegungen (Prüfung von Alternativen)

Anschliessend wurden die Farbluftbilder mit modernen Methoden und Techniken der digitalen Photogrammetrie und Bildverarbeitung operationell und weitestgehend automatisiert verarbeitet. Einige Arbeitsschritte wie z. B. der Import der digitalen Bilddaten, die innere Orientierung, sowie die DTM und Orthophoto-Generierung wurden vollautomatisch durchgeführt. Die Datenproduktion unterteilte sich in die Arbeitsschritte Scanning, digitale Aerotriangulation, automatische Generierung digitaler Terrainmodelle (DTM) und Orthophotos (DOP), Mosaiking und Datenabgabe. Für die Datenproduktion wurden digitale photogrammetrische Arbeitsstationen eingesetzt.

Die Kosten für die Orthophoto-Erstellung liegen heute bei einem zu befliegendem Gebiet von beispielsweise rund 400 bis 500 Hektaren in der Grössenordnung von Fr. 30'000.- bis Fr. 40'000.-. Das entspricht einem Hektarpreis von ca. Fr. 75.- für ein hochauflösendes Farborthophoto. Ein Kostenvergleich mit der günstigsten Alternative ohne Orthophoto gibt wesentlichen Aufschluss über den Entscheid zur Erstellung eines Orthophotos. Nach den bislang gemachten Erfahrungen fallen dabei vor allem die unterschiedlichen Kosten bei den Feldarbeiten ins Gewicht. Im Zusammenhang mit den Kosten ist eine Vorbesprechung der Methode der Luftbilder-Orientierung mit dem Photogrammeter ebenfalls empfehlenswert. Beispielsweise hat die Aero-Triangulation gegenüber der Einzelbildeinpassung den Vorteil bedeutend weniger Passpunkte zu benötigen. Dafür ist die Einzelbildeinpassung beim Photogrammeter preisgünstiger. Entscheidend für die Wahl der Methode sind auch hier in den meisten Fällen der Aufwand der Feldarbeiten, namentlich die Kosten der Signalisation und Vermessung der Pass- und der Lagefixpunkte. Insgesamt sind die Verfasser der Meinung, dass die Einzelbildeinpassung sich für kleinere, zugängliche Gebiete mit ca. 2 bis 4 Bildaufnahmen auszahlen könnte. Zur Luftbilder-Orientierung in grösseren oder unwegsameren Gebieten empfiehlt sich hingegen eine Aero-Triangulation.

Zusammenarbeit zwischen Ingenieur- und Photogrammetriebüro

Für eine reibungslose und effiziente Zusammenarbeit zwischen dem Ingenieur- und Photogrammetriebüro wird der Arbeitsablauf und die Arbeitsaufteilung bereits im voraus abgesprochen. Dies betrifft insbesondere die notwendigen Projektangaben für den Photogrammeter: Art der Luftbilder-Orientierung, Signalisation und Vermessung der Passpunkte im Feld, Bildflugplanung, Berechnung der Passpunktkoordinaten, Datenformat und -träger für den Datentransfer usw.

Orthophotoproduktion

Um aktuelle Orthophotos für die Projektbearbeitung einsetzen zu können, wurde die Gemeinde Vals GR am 27. und 30. Mai 1997 im Bildmassstab 1: 9200 beflogen. Die Flug- und Blockdaten des Block Vals sind in Tabelle 1 zusammengefasst. Vor der Befliegung wurden 25 Passpunkte im Gemeindegebiet signalisiert. Die Koordinaten der Passpunkte wurden durch GPS-Messungen bestimmt.

Im folgenden werden die einzelnen Arbeitsschritte zur Herstellung der hochauflösenden Orthophotos über das Beizugsgebiet der Gesamtmelioration Gemeinde Vals (siehe Abb. 1) etwas näher vorgestellt:

Scanning

Die analogen Farbluftbilder wurden mit einem photogrammetrischen Scanner (LH Systems DSW200) digitalisiert, der eine hohe geometrische Stabilität (besser als 5 mm) garantiert. Die Auflösung von 12.5 mm (2032 dpi) verursachte einer Datenmenge von ca. 1 GByte pro Farbbild, was insgesamt einer Datenmenge von 21 GByte für die digitalen Luftbilder entsprach. Die Scanzeit betrug circa 20 Minuten pro Farbbild. Die Auflösung entspricht bei dem gewählten Bildmassstab einer Pixelgrösse von ca. 11.5 cm am Boden.

Digitale Aerotriangulation

Für die Bestimmung der Orientierungsparameter der Bilder wurde eine digitale Aerotriangulation mit der Software HATS (Helava Automated Triangulation System) an der digitalen photogrammetrischen Arbeitsstation DPW770 von LH Systems durchgeführt. Wegen des steilen Berggebietes wurde auf eine automatische Triangulation verzichtet und alle Verknüpfungs- und Passpunkte wurden durch den Operateur interaktiv im semi-automatischen Modus in den Farbbildern gemessen. Die Messungen wurden anschliessend in einer Bündelblockausgleichung mit dem Programmpaket BLUH ausgeglichen. Folgendes Ergebnis wurde mit dem Block Vals erzielt: Sigma aposteriori aus der Ausgleichung s0 = 5.8 mm, Restfehler in den Passpunkten RMS x = 3.3 cm, y = 3.7 cm und z = 3.7 cm. Das erreichte Ergebnis kann für Berggebiete als sehr gut beurteilt werden.

DTM Generierung

Das digitale Terrainmodell (DTM) wurde durch automatische Bildkorrelation in den digitalen Bilddaten (Stereomodell) an der DPW770 in einem 2 m Raster generiert. Anschliessend wurde der Datensatz von groben Fehlern durch manuelles Editieren in den am Bildschirm in 3-D dargestellten Höhenlinien bereinigt. Das DTM wurde durch zusätzliche Bruchkanten, die am Analytischen Plotter SD2000 (LH Systems) gemessen wurden, verstärkt. Eine spezielle Schnittstelle ermöglichte den effizienten Datentransfer der Orientierungsdaten von den digitalen Stationen zu dem Analytischen Plotter.

Orthophoto Generierung

Während das Scanning, die Aerotriangulation und die Generierung des Terrainmodells auf den UNIX basierten photogrammetrischen Stationen (DSW200/DPW770) im VITEC Format durchgeführt wurde, erfolgten die nächsten Arbeitschritte (Orthophoto-Generierung, Mosaiking, Datenabgabe) auf einer PC basierten digitalen Orthophoto-Workstation (DOW) in internen SIO Format. Für die Erstellung der digitalen Orthophotos wurden die digitalen Bilddaten, die Orientierungsparameter aus der Aerotriangulation und das DTM über das Netzwerk auf die DOW übertragen. Für die Übergabe der Orientierungsparameter wurde ein spezielles Interface entwickelt, was einen automatischen Update der Parameterfiles an der DOW erlaubte. Die Orthophoto-Erstellung erfolgte nach der Dateneingabe und einer Perimetereingabe mit der Software SysImage von der kanadischen Firma ISM vollautomatisch pro Bild. Die Berechnung dauerte damals circa 1 Stunde pro Photo. Die DOPs wurden mit einer Pixelgrösse von 15 cm am Boden berechnet.

Mosaiking

Die einzelnen Orthophotos wurden durch Mosaiking zu einem Orthophoto-Mosaik zusammengesetzt, dessen Grösse eigentlich nur durch die vorhandenen Speicherkapazitäten begrenzt wird. Bei diesem Arbeitsschritt wurden die einzelnen Orthophotos aneinander gehängt, so dass sie ein einheitliches und homogenes Orthophoto-Mosaik über das gesamte Beizugsgebiet der Gesamtmelioration ergaben. Bei dem Anhängen der einzelnen Orthophotos wurden leichte Farb- und Helligkeitsunterschiede durch individuelles Einstellen der Helligkeit, des Kontrastes und der Gammakorrektur pro Orthophoto ausgeglichen.

Qualitätskontrolle und Datenabgabe

Die erzeugten Orthophotos wurden einer Qualitätskontrolle unterzogen. Die Genauigkeit von DOPs hängt von der radiometrischen und geometrischen Qualität der gescannten Bilder, von der Genauigkeit der Orientierungsparameter und des DTMs ab. Die gescannten Bilder wurden visuell auf radiometrische und geometrische Fehler untersucht. Die Qualität der AT wurde durch die Ergebnisse der Bündelblockausgleichung analysiert. Das generierte DTM wurde visuell im Stereomodell überprüft, während die Qualität der Orthophotos durch mindestens vier gut verteilte Kontrollpunkte oder durch Überlagerung von vorhandenen Vektordaten kontrolliert wurde. Für die einfachere Datenhandhabung wurden die Orthophotos in vordefinierten 1 km x 1 km Teilflächen, die als regelmässiges Quadratkilometerraster über das Beizugsgebiet der Gesamtmelioration gelegt wurden, im TIFF Format abgespeichert. Pro Farborthophoto-Kachel ergab sich eine Datenmenge von ca. 133 MByte. Für die erstellten 22 Qudratkilometerkacheln ergab sich eine Datenmenge von 2.9 GByte. Das DTM wurde im Punktraster als ASCII-File abgespeichert. Die digitalen Daten wurden auf CD-ROMs an das Ingenieurbüro abgegeben.

Um bei solchen grossen Datenmengen eine schnelle, flexible und effiziente Produktion zu gewährleisten, sind folgende Kriterien massgebend: genügend externen Speicherplatz (Disks), schnelles Netzwerk, leistungsfähige Computer, robuste und bedienungsfreundliche Software sowie gut ausgebildetes Personal.

Ausgewählte Anwendungsbeispiele von digitalen Orthophotos

Die nachfolgende Übersicht zeigt verschiedene Einsatzbereiche und -möglichkeiten von digitalen Orthophotos in der Planungs- und Ingenieurpraxis. Die Auflistung erhebt keinen Anspruch auf Vollständigkeit.

Planung

Im Planungsbereich, namentlich in der Orts- und Regionalplanung, halten Orthophotos aktuelle und lückenlose Hintergrundinformationen bereit, die beispielsweise die Suche nach potentiell geeigneten Standorten für bestimmte Nutzungszwecke wie Deponien, Gewerbestandorte usw. wesentlich erleichtern oder - als weiteres Beispiel - die Feldarbeiten zur Erhebung von Überbauungs- und Erschliessungszuständen auf ein Minimum reduzieren.

Im Bereich der Landschaftsplanung sind Orthophotos - digital auf dem Laptop und/oder als Plot - eine grosse Unterstützung bei den Inventarisierungen im Feld. So bieten sie dem Kartierer zum einen eine ideale Orientierungshilfe im Gelände und zum anderen sind die Abgrenzungen der einzelnen Landschaftsobjekte auf dem massstabstreuen Photoplan grösstenteils sichtbar und auf einfachem und dennoch exaktem Weg zu kartieren.

Bei landwirtschaftlichen Entwicklungsplanungen vereinfacht das Orthophoto beispielsweise die Erfassung der Bodennutzung, die Ermittlung von aktuellen Bewirtschaftungsgrenzen oder eine flächenmässige Zuordnung der einzelnen Bewirtschafter. Überlagert mit dem Parzellennetz der Liegenschaften können im weiteren der Parzellierungsgrad sowie die Eigentums- und Pachtverhältnisse aufgezeigt werden. Aufgrund der ebenfalls im Orthophoto sichtbaren landwirtschaftlichen Gebäude, Wege und Zufahrten lassen sich zudem die Erschliessungssituation und die Lage der Ökonomiegebäude speditiv beurteilen.

Expertisen anhand von Luftbilder und Orthophotos

Eine interessante Verwendung zeigt sich immer wieder auch bei der geologischen Interpretation der Luftbilder. Dem geübten Geologen erlauben stereoskopische Bildbetrachtungen beispielsweise in kurzer Zeit das Erkennen und Abgrenzen von Rutschgebieten oder von anderen geologischen und geomorphologischen Anomalien, die in Orthophotos visualisiert werden können (Siehe Abb. .

Weitere Anwendungsbeispiele im Rahmen von Expertisen sind:

  • die Darstellung faunistischer Untersuchungen (Ausbreitung von Brutvogelvorkommen, Zugvogel-Korridore usw.)
  • die Unterstützung bei der Feststellung von Gletscherbewegungen (Glaziologie)

Vermessung

Im Vermessungsbereich bieten Orthophotos generell wichtige Hintergrundinformationen zur Identifikation von Punkten und Linien. Beispiele ergeben sich im Bereich der Fixpunktvermessung oder bei Verschiebungsmessungen (Darstellung von Verschiebungsvektoren im Massstab 1:1). Auch die Lesbarkeit von Werkplänen / Leitungskataster lässt sich durch die Hinterlegung von Orthophotos wesentlich erhöhen.

Bei amtlichen (Neu-) Vermessungen ist durch die Luftbilder ein Synergieeffekt zu den Orthophotos gegeben, da die Möglichkeit besteht, photogrammetrische Auswertungen der Ebenen Bodenbedeckung und Einzelobjekte, namentlich von natürlichen (und signalisierten) Grenzen, Dachtraufen, Mauern, feste Zäune, Bäche, Kulturengrenzen, Bruchkanten usw. durchzuführen. Terrestrische Aufnahmen beschränken sich heute vielfach auf die nicht luftsichtbaren Gebiete, insbesondere in Siedlungsgebieten und Waldungen.

Bodenordnung

Eine wesentliche Unterstützung bieten Orthophotos im besonderen auch bei Grenzbereinigungen und bei der Klärung von Eigentumsverhältnissen. Die Lesbarkeit der massstabstreuen Photopläne ist dem Übersichtsplan oder anderen Planunterlagen weit überlegen. Bei Bereinigungsverhandlungen mit den Grundeigentümern haben die gemachten Erfahrungen eindrücklich gezeigt, dass sich auch Laien rasch auf den Photoplänen zurecht finden. Insbesondere sind die betreffenden Personen in kurzer Zeit in der Lage, die einzelnen Liegenschaften eigentumsmässig zu identifizieren und fehlende oder falsch eingezeichnete Grenzen zu beanstanden. Aufgrund des exakten und lückenlosen Informationsgehaltes der massstabstreuen Photopläne lässt sich gemeinsam mit den Grundeigentümern ein grosser Teil der Grenzen im Büro berichtigen (siehe Abb. 3). Die Eigentumsverhältnisse lassen sich mit wenigen Ausnahmen gänzlich anhand der Orthophotos klären.

Landumlegung und Gesamtmelioration

Im Rahmen von Landumlegungen, im besonderen bei Güterzusammenlegungen, haben die gemachten Erfahrungen in den letzten Jahren gezeigt, dass das Orthophoto vor allem für die Bodenbewertung und die Bearbeitung der Neuzuteilung wertvolle Dienste leistet. Ähnlich wie bei allgemeinen Landschaftskartierungen ist das Photo für die sogenannten Boniteure eine ideale Orientierungshilfe im Gelände. Zudem sind in sich homogene Bodenarten oftmals auf dem massstabstreuen Photoplan sichtbar, was die Festlegung von Bonitierungs- bzw. Wertgrenzen erheblich erleichtert. Im Rahmen der Neuordnung der Grundstücke sind Orthophotos eine wertvolle Hilfe zur Abstimmung der neuen Grenzen auf die naturgegebene Struktur der Terrainoberfläche. Ausserdem erhöht die Abbildung der neuen Grenzen auf Orthophotos die Lesbarkeit der Neuzuteilung.

Erschliessungsplanung

Die Diskussionen rund um Erschliessungskonzepte wie beispielsweise einem land- und forstwirtschaftlichen Wegnetz oder dem gemeindlichen Wanderwegnetz zeigen immer wieder, dass Photopläne bei der Planung von Erschliessungsanlagen eine grosse Unterstützung sind (siehe Abb. 4). Vor allem ortskundige Personen sind anhand von Orthophoto-Plänen im Massstab 1:1000 bis 1:2000 in der Lage eine bestimmte Linienführung mit einer Genauigkeit von 3 bis 5 Metern zu beurteilen.

Bauprojektierung

Ausserdem leistet das Orthophoto in Verbindung mit dem DTM wertvolle Dienste sowohl zur Detailprojektierung als auch bei Baubesprechungen eines zu realisierenden Weg- oder Strassenstückes. So lassen sich das Trassee verständlich darstellen und die Einpassung des Bauwerkes in die Umgebung weitaus besser als mit jeder anderen Plangrundlage beurteilen (siehe Abb. 5).

Analysen und Interpretationen

Die Überlagerung verschiedener Informationsebenen im GIS bietet bekanntermassen uneingeschränkte Analyse- und Interpretationsmöglichkeiten. Mit der Abbildung auf dem Orthophoto kann die Aussagekraft zusätzlich verstärkt werden. Beispielsweise lassen sich Konfliktkarten und Projektoptimierungen im Rahmen von Umweltverträglichkeitsprüfungen dokumentieren.

Vor- und Nachteile

Die beim Ingenieurbüro Cavigelli und Partner bisher gemachten Erfahrungen mit digitalen Orthophotos zur Unterstützung der Ingenieur- und Planungsprojekte sind überwiegend als positiv zu bezeichnen. Die Vor- und Nachteile sind nachfolgend zusammengefasst aufgezählt:

Vorteile

  • Das Orthophoto ist eine zum Zeitpunkt der Aufnahme aktuelle, realitätsbezogene, exakte und lückenlose, qualitativ hochstehende Abbildung eines geographischen Raumes. Es besteht keine Gefahr, ein Element zu vergessen. Jedes vorhandene Objekt ist abgebildet.
  • Der Informationsgehalt ist weder vorinterpretiert noch in irgendeiner Weise generalisiert. Entsprechend sind die Geo-Informationen fehlerfrei und wirklichtkeitstreu.
  • Orthophotos sind massstabstreue Abbildungen (Orthogonalprojektion) im Gegensatz zu herkömmlichen Photos (Zentralprojektion).
  • Die Lesbarkeit der Orthophotos ist dem Übersichtsplan oder anderen graphischen Planunterlagen weit überlegen. Auch Laien finden sich rasch auf den Photoplänen zu recht.
  • Als Nebenprodukt der Orthophoto-Erstellung steht immer auch ein digitales Höhen- bzw. Terrainmodell (DHM/DTM) zur Verfügung.
  • Bereits in einem frühen Stadium eines Projektes kann über eine vollständige geographische Abbildung des Bearbeitungsgebietes verfügt werden.
  • Eine Vielzahl an Plangrundlagen können in beliebiger Kombination mit dem Orthophoto selbst erstellt werden. Mit der Abbildung auf dem Orthophoto wird die Aussagekraft zusätzlich verstärkt. Dies erlaubt einfache, flexible und rasche Analysen, Interpretationen, Projektoptimierungen usw.
  • Der Orthophoto-Einsatz reduziert den Aufwand für Erhebungen, Verifikationen und Begehungen im Feld erheblich.
  • Thematische Feldaufnahmen sind einfach und exakt zu kartieren, da die Elemente auf dem massstabstreuen Photoplan grösstenteils sichtbar sind.
  • Orthophotos sind eine ideale Orientierungshilfe im Gelände.
  • Projektbesprechungen auf der Grundlage von Orthophotos sind effizienter als auf jeder anderen Plangrundlage.
  • Planausgaben sind einfach, beliebig wiederholbar und preisgünstig.

Nachteile

  • Für die Nachführung der Orthophotos ist ein neuer Bildflug erforderlich. Doch es ist keine Signalisierung von Passpunkten und keine Aerotriangulation notwendig, da die Orientierungen der neuen Luftbilder aus den alten Orthophotos und dem vorhandenen DTM abgeleitet werden können. Das DTM muss nur bei signifikanten Änderungen des Geländes angepasst werden.
  • Die Datenmenge der erstellten Orthophotos (ca. 130 Mbyte pro Quadratkilometer bei einer Pixelauflösung von 15 cm) erfordert eine Arbeitsplatzausstattung mit entsprechender Hardware (leistungsstarke Computer und genügend Speicherplatz).
  • Die Herstellung von sogenannten "wahren" (true) Orthophoto ist durch die notwendige Erfassung der 3-D Dachlandschaften mit erheblichen Mehraufwand verbunden. Hierbei empfiehlt sich auch, die Befliegung mit einer ausreichenden Überdeckung quer zur Streifenrichtung durchzuführen, um bei der Korrektur der Häuser für sichttote Räume genügende Informationen aus anderen Bildern zu haben.

 

Schlussbemerkungen

Die vorliegende Publikation zeichnet ein Bild zum Thema "Orthophoto in der praktischen Anwendung" gemäss den im Ingenieurbüro Cavigelli und Partner bis heute gemachten Erfahrungen. Sie stehen zudem mit Planungen und Ingenieurprojekten im Zusammenhang, welche typisch für das Berggebiet und die Praxis im Kanton Graubünden sind. Die vorliegende Schrift kann deshalb dem Anspruch der Allgemeingültigkeit nicht genügen. Generell empfehlen die Verfasser aber dennoch den vermehrten Einsatz von digitalen Orthophotos in der praktischen Planer- und Ingenieurtätigeit. Die Vorteile dieses Hilfsmittels sind insgesamt überzeugend und zukunftsweisend.

 

Dr. Martin Calörtscher
Ingenieurbüro Cavigelli und Partner
Via Santeri 1
CH-7130 Ilanz
e-mail: martin.caloertscher@bluewin.ch

Thomas Kersten
Swissphoto Vermessung AG
Dorfstrasse 53
CH-8105 Regensdorf-Watt
e-mail: thomas.kersten@swissphoto.ch

Vollständige Version siehe VPK 9/98
Bestellung VPK: verlag@geomatik.ch

© 1998-2017 Geomatik Schweiz created by webartig.ch, Thalwil, Thomas Glatthard, Luzern
Webmaster: Thomas Glatthard. Letzte Änderung: 15.12.2012
27.02.2017