Zu kurz gesprungen

Künstliche Intelligenz und Daten

Consultants und Executives lieben griffige Slogans und Statements, mit denen sie Kompetenz und Weitsichtigkeit vermitteln können. Doch das häufig gehörte Mantra, dass Daten das neue Gold oder Öl seien, ist aus technologischer Sicht leider zu kurz gesprungen. Warum das so ist, erläutert Sebastian Westphal, DSAG-Fachvorstand Technologie.

Die gesteigerte, branchenübergreifende Aufmerksamkeit für Unternehmensdaten und die immer häufiger an die IT-Abteilungen gestellte Frage, wie die Fachabteilungen den größten Nutzen aus ihren Daten ziehen können, hat einen positiven Effekt: Das Thema gewinnt im operativen Geschäft an Relevanz. In vielen Unternehmen wird auch heute noch immer nur ein kleiner Teil der vorhandenen Daten verwendet, auch wenn die IT-Abteilungen seit Jahren mit dem Tempo des technologischen Fortschritts – und dem gleichzeitig exponentiell steigenden Datenvolumen – Schritt halten müssen.

Druck auf die Netzwerke erhöht sich

Sebastian Westphal,
DSAG-Fachvorstand Technologie

So stehen bereits die nächsten Herausforderungen an: Mit der logischen Weiterentwicklung von der (in vielen Unternehmen noch geplanten) Cloud-Architektur sorgen die damit verbundenen Datenanforderungen für weiteren Druck auf die Netzwerke. Denn mit der Adaption von Cloud-Computing-Technologien und -Services gilt es, nicht nur die organisatorischen Voraussetzungen im Unternehmen zu schaffen. Man muss sich auch mit den damit einhergehenden Fragen bzgl. der Sicherheit und des Datenschutzes auseinandersetzen. Gleiches gilt für die Verfügbarkeit und Performance der ausgewählten Cloud-Services sowie deren Integrationsfähigkeit in die bereits bestehende IT-Infrastruktur und die nahtlose Unterstützung der vorhandenen Geschäftsprozesse.

Die Datensätze, die zudem benötigt werden, um beispielsweise neue Geschäftsmodelle über das Internet der Dinge (IoT) zu realisieren, werden darüber hinaus zahl- und umfangreicher. Daraus wächst die angesichts der Leistungsfähigkeit bestehender Netzwerktechnologien schon heute große Herausforderung noch weiter, die Daten aus einer Vielzahl von Datenquellen zusammenzutragen.

Nächstes technologisches Level sichtbar

Aus technologischer Sicht ist das nächste Level schon ersichtlich: Industrien und Wertschöpfungsketten werden aufgrund regulatorischer Anforderungen und unter dem Eindruck der aktuellen weltpolitischen Lage kontinuierlich vernetzt, um Geschäftsprozessen effizienter zu machen und deren Resilienz sicherzustellen. Die Datenmengen, die erforderlich sind, um diese Ziele zu erreichen, werden enorm sein – und viele neue Anwendungen und Dienste erfordern.

Eine zentrale Herausforderung des Cloud-Computings ist zudem eine ganz Grundsätzliche: Die Distanzen zwischen dem Anwender und den Cloud-Services führen zu einer höheren Latenz beim Datentransfer – in Deutschland gerne auch in Kombination mit einer nicht ausreichenden Bandbreite sowie Protokollen, die nicht für weite Strecken ausgelegt sind. Dies führt dazu, dass die Geschwindigkeit der Unternehmensprozesse nicht hinreichend gewährleistet ist – gerade bei hochverfügbaren Business-Modellen und optimierten Produktionsprozessen ein Show-Stopper.

Zentrale Aufgabe der IT-Abteilung unverändert

Erste Aufgabe der IT-Abteilung als Treiber der digitalen Transformation bleibt somit eine altbekannte: Sie muss hoch-performante Infrastrukturen und (Daten-)Architekturen auf Basis der jeweils aktuellen Generation verfügbarer Komponenten, Technologien sowie Integrations- und Kommunikationsstandards bereitstellen. Wenn es darum geht,  die  fachlichen Anwendungsszenarien im Rahmen der digitalen Transformation zu unterstützen, kommt unweigerlich ein weiteres Buzzword ins Spiel: Künstliche Intelligenz (KI).

KI als Schlüssel zu neuen Anwendungen?

Aus Sicht von Strategieberatungen ist Künstliche Intelligenz der Schlüssel zu neuen Anwendungen und Diensten. Als Beweis dafür werden gerne erste Beispiele für maschinelles Lernen aus einzelnen Bereichen des täglichen Lebens herangezogen. Diese Erfolge, wie beispielsweise autonom fahrende Autos, menschenähnliche Bots oder Systeme, die komplexe Spiele beherrschen, sind populär und vermitteln den Eindruck, als könne KI jede Problemstellung lösen.

Im wissenschaftlichen Sinne sprechen wir aber bei allen bisherigen Anwendungsfällen von Algorithmen, die eine schwache Künstliche Intelligenz abbilden, um bestimmte Aufgaben zu erfüllen, anstatt die vollen kognitiven Fähigkeiten des menschlichen Gehirns zu besitzen. Letztendlich sind diese Algorithmen nur darauf trainiert, Daten zu klassifizieren – und zwar basierend darauf, wie sie trainiert wurden. Es gibt also kein Abweichen vom programmierten Weg. Diese enge KI ist so programmiert, dass sie innerhalb von vordefinierten Funktionen arbeitet. Algorithmen, die z.B. entwickelt wurden, um damit Artikel in einem Lagerhaus zu kommissionieren, sind nicht in der Lage, Zahlungseingänge zu offenen Forderungen zuzuordnen, ohne dass ihre Programmierung geändert werden muss.

Ausloten der Grenzen von KI

Im geschäftlichen Kontext dehnen Unternehmen bereits die Grenzen des Möglichen durch KI weiter aus. Die weltweit größten Technologieunternehmen, insbesondere Apple, Amazon, Facebook, Tencent oder Google, investieren Milliarden in Künstliche Intelligenz, um intelligente Lösungen, aber insbesondere intelligente Such- und Analyse-Algorithmen zu entwickeln. Allerdings ist hier die wichtigste Triebfeder nicht die IT-Abteilung, sondern die Unternehmensstrategie bzw. das zugrundeliegende Geschäftsmodell und das permanente Streben der Unternehmen nach neuen Geschäftsmodellen und Use Cases.

KI-Potenziale heben

Hierin zeigt sich die Crux für die mittelständischen Unternehmen, ihre bestehenden Geschäftsmodelle ebenso weiterzuentwickeln und die hierzu erforderlichen Datenmodelle und -Analysen zu konzipieren. Die Aufgabe der IT-Abteilungen ist es, das Potenzial von KI zu heben – z. B. um analytische Herausforderungen, wie beispielsweise. in Branchen wie dem Gesundheitswesen und der Genomik. Zudem ist die beschriebene, besonders leistungsfähige Infrastruktur nötig, um diese Innovationen zu ermöglichen.

In diesem Kontext wird sicherlich mit Spannung die Entwicklung rund um die sprachbasierte ChatGPT-Lösung zu beobachten sein, deren Maschinenlernmodell durch (selbst-)überwachtes Lernen trainiert wurde. Auf Basis des heutigen Reifegrads lassen sich die hieraus erwachsenen Einsatzszenarien und benötigten Server-Kapazitäten bereits erahnen, die spätestens mit der in Entwicklung befindlichen, noch leistungsfähigeren Software GPT-4 auch für den Einsatz in Unternehmen relevant werden.

Aber unabhängig von der Branche oder der eingesetzten Plattform gilt es für die IT-Abteilungen, einen Mehrwert für das Unternehmen darzustellen, in dem sie aktuelle oder historische Daten nützlich verarbeiten. Doch dies darf kein Selbstzweck werden. Wenn Fachabteilungen diese nützlichen Daten identifiziert und extrahiert haben, können Unternehmen sie nutzen, um sich effektiver im Wettbewerb zu behaupten. Gleichzeitig können sie neue Geschäftsmodelle validieren oder entwickeln, Innovationen vorantreiben oder die Kundenbindung verbessern.

Skalierbare Performance notwendig

Wenn es darum geht, diese Daten zu verarbeiten, ist aktuell wie auch in Zukunft eine einfache, skalierbare und leistungsfähige Rechenzentrumsumgebung einer der mächtigsten strategischen Vermögenswerte, die jedes Unternehmen bereitstellen kann. Wenn sich die IT-Abteilungen rasant in die neuen Cloud-Realitäten bewegen, bringt dies neue Anforderungen an die Speicherung und Verfügbarkeit mit sich. Der Grund: Es wird ein hohes Maß an skalierbarer Performance benötigt. Eine Datenumgebung muss sich daher darauf konzentrieren, den Wert von Daten durch einen schnelleren und zuverlässigeren Zugriff exponentiell zu erweitern. Dies ermöglicht es den Unternehmen, eine neue Klasse von Anwendungen zu erstellen, um neue Erkenntnisse aus Daten zu extrahieren und Technologieentwicklungen wie KI zu nutzen.

Grenzen der aktuellen Cloud-Realitäten

Unternehmen, die sich auf eine digitale Geschäftsreise begeben haben, erkennen bereits die Grenzen der aktuellen Cloud-Realitäten. Um die Anforderungen an die digitale Geschäftsinfrastruktur zu erfüllen, wird künftig wieder ein dezentralerer Ansatz Einzug in die IT-Architekturen finden. Denn mit zunehmendem Datenvolumen und zunehmender Geschwindigkeit steigt auch die Ineffizienz, all diese Informationen zur Verarbeitung in eine Cloud oder ein Rechenzentrum zu streamen.

Edge-Computing, also die Dezentralisierung der Rechenleistung bzw. Verlagerung an den Punkt, an dem Daten generiert werden, ist die Zukunft der heutigen hybriden Architekturen aus klassischen Rechenzentren und Cloud-Plattformen. Denn oft können die Daten effizienter verarbeitet werden, wenn die Rechenleistung in der Nähe des Objekts oder der Person liegt, die sie erzeugt. Im Kontext des Internet-of-Things (IoT) sind die Quellen der Datengenerierung bereits weit verteilt – durch verbaute Sensoren oder eingebettete Geräte. Neben diesen statischen Szenarien kann man aber auch – z. B. in Fahrzeugen oder Smartphones – mobil sein, da sie bereits vor Ort analysieren und Empfehlungen geben, ohne eine permanente Verbindung zur Cloud oder zum Rechenzentren herstellen zu müssen.

IT-Abteilungen werden somit künftig auch mit der Verwaltung dieser Lösungen beauftragt und sollten deren Geschäftswert und die damit verbundenen Risiken sehr gut kennen. Sobald die Unternehmen ihre digitale Präsenz mit Edge-Computing erweitern, erhöht sich die Oberfläche für Angriffe exponentiell. Denn schon heute werden unsichere Endpunkte bei verteilten Denial-of-Service-Angriffen oder als Einstiegspunkte in Kernnetzwerke verwendet.

Übersicht in Datenbestände bringen

Wenn es in den hybriden, modernen Architekturen aber kaum noch an der Quantität der Daten mangelt, sind die neuen zentralen Herausforderungen an IT-Abteilungen, Übersicht in die stets wachsenden Datenbestände zu bringen. Außerdem sollen sie möglichst selbstständig wertvolle Erkenntnisse für die Anwender:innen und Fachabteilungen gewinnen und diese mit intelligenten Handlungsableitungen versorgen. Intuitiv von Nutzer:innen durch komplexe Datenbestände zu navigieren, mithilfe von Künstlicher Intelligenz – wie beispielsweise mittels Google Analytics und entsprechenden Ask-Intelligence-Features (also dem Übersetzen von Fragestellungen in passende Metriken und Dimensionen der Suche) ist bereits technisch möglich. Während dieses Feature jedoch meist deskriptive Antworten auf gezielte Fragestellungen liefert, ist das zweite große Anwendungsfeld moderner Analytics-Tools, Datenzusammenhänge automatisiert zu interpretieren.

Hier gilt es für die IT-Spezialist:innen, Algorithmen zu entwickeln, die nicht nur Entwicklungen beschreiben, sondern auch deren Ursachen interpretieren. Diese vollautomatisch interpretierenden KI-Tools sind derzeit gegen ihre menschliche Konkurrenz noch im Hintertreffen. Aber Lösungen der assistierten Interpretation durch Algorithmen, wie sie z.B. schon mit dem Feature Quick Insights der Power BI-Plattform geliefert werden, zeigen erste überzeugende Einsatzszenarien. Diese Lösungen liefern zeitsparend Muster und Anomalien, die meist nicht durch die klassische Analytics-Architektur abgedeckt werden.

Smart durch unternehmenseigene Daten navigieren

IT-Abteilungen können also schon heute mehr, als technische Voraussetzungen zu schaffen, indem sie neue Plattformen im Analytics-Bereich frühzeitig bereitstellen. Sie können dabei helfen, smarter durch die unternehmenseigenen Datenmengen zu navigieren, sie effektiver zu interpretieren und durch Interaktion mit den Algorithmen die Fachabteilungen unterstützen, bei Bedarf schneller zu handeln. Hier ist das Ende der Entwicklungen noch lange nicht erreicht und viele Software-Anbieter positionieren derzeit Produkte und Plattformen, um sich mit dieser neuen Generation des Datenmanagements zu profilieren.

So hat der Software-Hersteller SAP am Mittwoch, 08.03.2023, unter dem Namen „SAP Datasphere“ ein System angekündigt, das Geschäftskund:innen die Verarbeitung und Analyse geschäftskritischer Informationen erleichtern soll.

Markt für Datenmanagement stark umkämpft

Um bei dem anfänglichen Ausspruch, dass Daten das neue Gold oder Öl seien, zu bleiben – ist dies eine prominente Bereitstellung neuer Explorationstechniken. Das neue Angebot soll die komplexe Nutzung von Daten in der Unternehmenswelt durch eine Zusammenführung, Katalogisierung und Speicherung von Daten aus verschiedenen Quellen an einem Ort vereinfachen – und damit den Bedarf nach einem ganzheitlichen und integrierten Überblick über die Geschäftsabläufe unterstützen.

Der Markt für Datenmanagement ist aktuell extrem umkämpft. Zudem wird er neben den Software-Anbietern insbesondere von Consultants mit griffigen Slogans und Statements adressiert. So wie SAP mit dem neuen Lösungsangebot werden alle Hersteller und Hyperscaler versuchen, ihre Kund:innen an sich zu binden, um einen Großteil der Unternehmensdaten auf ihren Plattformen zu verwalten und damit ein unverzichtbarer Bestandteil der zunehmend digitalisierten Geschäftsmodelle zu werden.

Es wird spannend zu verfolgen, wem die als komplex geltende Integration von Daten aus Systemen anderer Hersteller am besten und auf Basis der immer hybrideren Architekturmodelle der Unternehmen gelingt – als Voraussetzung dafür, dass Daten wirklich als wertvoller Rohstoff dienen können.