Anzeige

Daten

Die COVID-19-Pandemie gehört zu den gravierendsten Ereignissen der letzten Jahrzehnte und hat weitreichende gesellschaftliche Folgen. Auch Unternehmen mussten sich schnellstmöglich auf die veränderten Bedingungen einstellen – und konnten dabei innovative Lösungen finden.

Auch wenn sich die Situation in Zukunft wieder normalisiert, darf es kein Zurück zum „Business as usual“ geben. Stattdessen sollten Unternehmen weiter auf Innovation setzen und sich die Digitalisierung konsequent zunutze machen, um sich weiterhin für die Zukunft zu rüsten.

Die digitale Transformation kam in Deutschland lange Zeit eher schleppend voran – erst die Pandemie hat bei vielen Unternehmen zu einem Umdenken geführt. Inzwischen sind Begriffe wie „Cloud-Computing“, „VPN“ oder „Machine Learning“ längst keine Fremdworte mehr, die die IT-Abteilung immer wieder erklären muss. Mehr noch: Unternehmen setzen zunehmend auf neue Technologien, um ihre Innovationskraft zu steigern, sei es, weil sie interne Prozesse optimieren oder neue Produkte und Dienstleistungen entwickeln können.

Enterprise AI braucht verlässliche Daten in Echtzeit

Eine dieser Technologien ist Künstliche Intelligenz (KI), die auf zwei verschiedene Arten Anwendung findet:

  • Consumer AI  - hierbei wird KI eingesetzt, um den Kunden einen Mehrwert zu liefern, etwa indem sie den Personalisierungsgrad von Produkten erhöht oder die Kundenerfahrung verbessert.
  • Enterprise AI - hierbei wird KI in interne Geschäftsprozesse eingebettet, um diese zu automatisieren und zu beschleunigen.

Während KI schon lange in der ersten Form eingesetzt wird, beispielsweise für Chatbots im Kundenservice, gewinnt Enterprise AI zunehmend an Bedeutung. Als Basis dienen dabei Geschäftsdaten, die mittlerweile in jedem Unternehmen in großen Mengen vorhanden sind. Machine-Learning-Algorithmen können darin Muster erkennen und Verknüpfungen bilden, um Probleme zu identifizieren und direkt zu lösen.

Allerdings sind Daten heute mehr denn je über verschiedene Speicherorte hinweg verteilt, auch weil Unternehmen in den letzten Monaten die Vorteile der Cloud entdeckt haben. Entsprechend liegen ihre Daten nun nicht mehr nur On-Premises, sondern häufig auch auf mehreren Cloud-Plattformen. Gleichzeitig kann sich die Qualität der Daten in dieser hybriden Multi-Cloud-Architektur erheblich unterscheiden. Die Folge: ihnen fehlt ein Single Source of Truth – ein allgemeingültiger, qualitativ hochwertiger Datenbestand. Ohne diesen können Unternehmen sich nicht auf ihre Daten und Erkenntnissen, die aus ihnen gewonnen werden, verlassen. Zudem scheitern herkömmliche Technologien zur Datenintegration daran, die konsolidierten Daten für AI/ML in Echtzeit bereitzustellen.

Zur Single Source of Truth mit Datenvirtualisierung

Datenvirtualisierung kann dieses Hindernis überwinden: Bei dieser Lösung werden die Datenkonsumenten von den Datenquellen entkoppelt und eine einzige logische Datenschicht für den Datenzugriff geschaffen. Durch diese Fähigkeit kann Datenvirtualisierung als „Klebstoff“ fungieren, der komplexe und heterogene Datenarchitekturen und Enterprise AI verbindet:

  • Der Speicherort spielt keine Rolle – die Daten werden virtuell integriert, unabhängig davon, wo sie in der hybriden Multi-Cloud-Architektur tatsächlich gespeichert sind.
     
  • Die Daten sind aktuell und eindeutig – weil die Daten weder bewegt noch physisch repliziert werden müssen.
     
  • Datenlieferung in Echtzeit – da die Daten jederzeit genauso dargestellt werden, wie sie momentan in den zugrundeliegenden Datenquellen aussehen, kann die Enterprise-AI-Software immer auf Basis der aktuellsten Daten arbeiten.

Schon heute sind hybride Multi-Cloud-Architekturen aufgrund ihrer beschleunigten digitalen Transformation bei vielen Unternehmen ein wichtiger Bestandteil, während Enterprise AI in den kommenden Jahren noch weiter an Bedeutung gewinnen wird. Ein Zurück in die Zeiten ohne Cloud und KI können Unternehmen sich nicht mehr leisten, zu wichtig sind diese Technologien für die Innovationskraft geworden. Mithilfe von Datenvirtualisierung können sie einen virtuellen Single Source of Truth schaffen, um noch mehr aus ihren Daten herauszuholen und so Prozesse und Produkte kontinuierlich zu verbessern und ihre Zukunftsfähigkeit zu sichern.

Otto Neuer, Regional VP Sales bei Denodo

www.denodo.com/de


Weitere Artikel

2022

Daten-Trends 2022: Machine Learning, Data Lakes und Open Source

Instaclustr, Managed-Platform-Anbieter für Open-Source-Technologien, sieht drei Trends, die die Datennutzung im Jahr 2022 prägen werden. Dazu zählen der ML-Einsatz im Datenbankbereich, Data Lakes und Data Mesh sowie neue Angebote der Open-Source-Community.​
Datenmanagement

Was hat Datenmanagement mit Klimaschutz zu tun?

Wie sieht es aktuell in Unternehmen im Hinblick auf Datenmanagement und Nachhaltigkeit aus und welche Möglichkeiten stehen Unternehmen zur Verfügung um den Klimaschutz zu unterstützen? Ein Interview mit Roman Eckschlager, MD Sales & Marketing bei Aparavi…
Daten

Den Fakten ins Auge blicken

Zurückblicken und Analysieren ist gut. Es ist ein wichtiger Baustein, Modelle für die Zukunft zu entwickeln. Im Anschluss sollten die Entscheider jedoch in der Lage sein, zu handeln.
Datenanalyse

Ineffiziente Datenanalyse kostet Unternehmen Zeit und Geld

Fivetran, Anbieter von automatisierter Datenintegration, hat gemeinsam mit Wakefield Research eine weltweite Umfrage zum aktuellen Stand im Datenmanagement durchgeführt. Den Ergebnissen zufolge investieren Unternehmen im Durchschnitt 44 % ihrer Zeit mit dem…
Achselzucken

Datenethik? Mir egal!

48 Prozent der Arbeitnehmenden in Deutschland, die tagtäglich mit Daten arbeiten, glauben nicht, dass Wissen rund um das Thema Datenethik für ihre Rolle relevant ist. Ihre Daten-Skills wollen 82 Prozent verbessern – dabei priorisieren sie jedoch eher…

Anzeige

Jetzt die smarten News aus der IT-Welt abonnieren! 💌

Mit Klick auf den Button "Zum Newsletter anmelden" stimme ich der Datenschutzerklärung zu.