Veröffentlicht am

By

Mit der Einführung neuer Produkte beschleunigt sich der technologische Wandel, wobei bahnbrechende Innovationen häufig zu disruptiven Veränderungen führen. Mit diesem technologischen Wandel geht eine explosionsartige Zunahme an Daten aus neuen Quellen einher, die für den georäumlichen Bereich relevant sind, darunter Bildmaterial, Sensor-Feeds und Echtzeit-Tracking-Daten. Organisationen im öffentlichen, privaten und dritten Sektor müssen flexibel und widerstandsfähig bleiben, um in dieser aufstrebenden Landschaft erfolgreich zu sein.

Die Einführung neuer technologischer Innovationen in großen, kontrollierten IT-Unternehmen kann aufgrund der damit verbundenen Kosten, Integrationsprobleme und Prozesse eine Herausforderung darstellen. Das Open Geospatial Consortium (OGC) ist ein Standardisierungsgremium, das seit 30 Jahren an der Innovation und Schaffung von gemeinschaftsorientierten Standards im Geodatenbereich arbeitet. Diese Standards sollen sicherstellen, dass Daten und Dienste auffindbar, zugänglich, interoperabel und wiederverwendbar (FAIR) sind, während gleichzeitig sichergestellt wird, dass die entwickelten Standards für den Zielbereich geeignet und einfach zu übernehmen sind. FAIR-Prinzipien können auch auf die Integration neuer Technologien in große Unternehmen angewendet werden, um sicherzustellen, dass Interaktionsmuster mit neuen Technologien bekannt sind und die Komponenten, die die Technologie anbieten, austauschbar sind.

Standardisierung von KI/ML-Trainingsdaten

Ein OGC-Standard, der ein ausgesprochen neues Phänomen unterstützt, ist der OGC Training Data Markup Language for Artificial Intelligence. Künstliche Intelligenz (KI), maschinelles Lernen (ML) und verwandte Anwendungen sind seit den 1990er Jahren und früher Gegenstand der Forschung. Allerdings stehen erst seit kurzem die notwendige Rechenleistung und – was wichtig ist – die Daten zum Trainieren von KI-Modellen zur Verfügung. Trainingsdaten sind das Lebenselixier der KI. Wie das alte Sprichwort sagt: „Garbage in, Garbage out“ – und bei KI-Modellen ist das nicht anders. Darüber hinaus können KI-Modelle und ihre Funktionsweise undurchsichtig sein, was den „Blackbox“-Effekt auf die Ein- und Ausgaben auslöst. Daher ist die Standardisierung der Verwaltung von Trainingsdaten für wissenschaftliche Bemühungen wichtig, nicht zuletzt für die Wiederholbarkeit, sondern auch für die FAIR-Prinzipien.

Neben der Nutzung von KI für typische georäumliche und bildliche Arbeiten sehen wir auch, dass KI verwendet wird, um simulierte Daten für Schulungszwecke oder sogar für schändliche Zwecke zu erstellen. Das Aufzeichnen von Informationen über die Eingabedaten für ML-Modelle auf standardisierte Weise hilft bei der Verwaltung und Authentizität der Ausgaben. Als Beispiel zeigt das folgende Bild eine völlig fiktive Landschaft, die mit einigen Trainingsdaten einer britischen Stadt und einem Generational Adversarial Network (GAN) erstellt wurde. Durch die Standardisierung der Metadaten des Trainingsdatensatzes können andere ihre eigenen simulierten Daten mit demselben Gefühl erstellen und gleichzeitig die Eingabeparameter und wahrscheinlichen Ergebnisse verstehen.

Quanten-Computing

Während KI/ML ein aktueller Technologietrend ist, der ein großartiges Beispiel dafür bietet, wie sich die technologische Landschaft über Nacht ändern kann, wie etwa mit der Veröffentlichung von ChatGPT im Jahr 2022, ist das Quantencomputing ein weiterer disruptiver Technologiebereich, der sich seit Jahrzehnten am Horizont abzeichnet.

Obwohl es unwahrscheinlich ist, dass Quantencomputer die klassische Computertechnik vollständig ersetzen können, bietet das Potenzial, die Lösung von Problemen, die für die klassische Computertechnik schwierig zu bewältigen sind, exponentiell zu beschleunigen. Dies liegt nicht unbedingt daran, dass Quantencomputer beschleunigt im Sinne des Supercomputings ist es, dass ihr Ansatz zur Problemlösung sich grundlegend vom klassischen Computing unterscheidet. Klassisches Computing funktioniert durch die Manipulation Bits die sich entweder in einer 1- oder einer 0-Position befinden, ermöglicht die Verkettung genügender dieser Operationen es Computern, nützliche Arbeit zu leisten. Quantencomputer unterscheiden sich dadurch, dass ihr grundlegender Baustein die Qubit die in einer Überlagerung von 1 und 0 existieren können. Es gibt auch verschiedene Arten von Quantencomputern. Schaltungsbasierte Quantencomputer sind diejenigen, die die schlagzeilenträchtige Faktorisierung großer Zahlen durchführen können und daher in der Lage sein werden, die RSA-Verschlüsselung zu knacken (die auf dem Prinzip basiert, dass Die Faktorisierung großer Zahlen ist schwierig). Die zweite Art des Quantencomputings ist Quantenglühen or adiabatisches Quantencomputing das sich zur Lösung von Optimierungsproblemen eignet.

Der georäumliche Bereich ist voller Optimierungsprobleme, ein typisches Beispiel ist die Problem des Handlungsreisenden wenn ein Verkäufer mehrere geographisch verteilte Standorte besuchen muss, mit der Einschränkung, dass er jeden Standort nur einmal besuchen muss und die Route mit dem geringste Kosten (kürzeste Distanz, schnellste Fahrzeit). Ein weiteres Optimierungsproblem ist die Problem des strukturellen Ungleichgewichts wo ein Algorithmus versucht, ein soziales Netzwerk (oft mit einem georäumlichen Element) in freundliche Gruppen aufzuteilen, wobei in einem ausgeglichenen Graphen alle Beziehungen . Die Gruppen sind freundlich, während alle Beziehungen zwischen die Gruppen sind feindselig. In der realen Welt ist es normalerweise nicht möglich, ein perfektes Ergebnis zu erzielen. Dies hebt Beziehungen hervor, die nicht in das Modell passen (angespannt), was ein Indikator für Konflikte sein kann.

Praktisches Quantencomputing ist jetzt möglich. Es gibt mehrere Anbieter wie Rigetti, D-Wave und Unternehmen wie Amazon, Google und Microsoft, die beginnen, ihre Quantencomputing-Ressourcen über die Cloud verfügbar zu machen. Obwohl keiner der Quantencomputer groß genug ist, um einen Quantenvorteil im Optimierungsbereich zu bieten, sind neue Quantencomputer geplant, die dazu in der Lage sein werden. Als Überbrückung gibt es klassische/quantenbasierte Hybridansätze, die Vorteile des Quantencomputings bieten, aber praktische Probleme lösen können.

Wie bei vielen neuen Technologien sind die Interaktionsmuster für diese neuen Quantencomputer und Hybridlöser noch nicht standardisiert und werden bis auf die Hardware maßgeschneidert. Das D-Wave-System mit dem Ocean SDK für Quantencomputing verfügt über Muster und Aufrufe, die viele der Optimierungsaufrufe abdecken, für die man einen Quantenlöser verwenden könnte. Vielleicht besteht der nächste Schritt für das OGC darin, die Auswirkungen des Quantencomputings durch eine Domänenarbeitsgruppe zu verstehen, um georäumliche Optimierungsprobleme durch eine Gruppe zu unterstützen, die sich dem Quantencomputing und den damit verbundenen Möglichkeiten widmet.

Wohin verreisen?

Wenn man neue Technologien genau im Auge behält und bei der Einführung immer einen Schritt voraus ist, können Standards geschaffen werden, die bei der Integration helfen und für sinnvolle Veränderungen in Organisationen sorgen können. Die Technologie ist das Spannende und kann ungeahnte Möglichkeiten bieten. Und je schneller und reibungsloser diese Technologien in den Organisationen, die sie nutzen, übernommen werden können, desto besser ist der Nutzen für Unternehmen, Benutzer und Bürger. Eine gute, domänengesteuerte Standarddefinition ist der Schlüssel zu einer gerechteren Technologielandschaft.

Eine Ad-hoc-Sitzung zum Thema Quantencomputing findet am 15. März 30 um 27:2024 Uhr MEZ statt im Rahmen der 128. OGC-Mitgliedertreffen in Delft, Niederlande, um die Möglichkeit der Standardisierung im Bereich des Quantencomputings zu diskutieren. 
Das Gesamtthema des Treffens lautet „Geo-BIM für die gebaute Umwelt“ und umfasst darüber hinaus einen Geo-BIM-Gipfel, eine Sondersitzung zur Landverwaltung, eine Sondersitzung zu Beobachtungsdaten, eine gemeinsame Sitzung zur gebauten Umwelt, ein Treffen des Europa-Forums sowie die üblichen SWG- und DWG-Treffen und gesellige Veranstaltungen und Networking-Events. Erfahren Sie mehr und registrieren Sie sich hier.

Sam Meek ist Chief Technology Officer bei Helyx Secure Information Systems Ltd.

Diesen Artikel

Neueste Blogs