Suche
Die EU verfolgt ehrgeizige Ziele bei der digitalen Transformation: So sollen unter anderem bis 2030 drei Viertel der europäischen Unternehmen Cloud Computing, Big Data und Künstliche Intelligenz (KI) nutzen. Ersteres hat sich zumindest in Deutschland schon weitgehend durchgesetzt, bei Letzterem sieht dies aktuell jedoch noch anders aus.
Wer Digitalisierung ernst meint und KI auf breiter Basis nutzen will, braucht hochwertige und konsistente Datenbestände. Hier drängen sich seit Jahren Data Lakes auf. Richtig, sagt Yannick Pfeiffer von der Unternehmensberatung microfin – aber es lauern reichlich Untiefen unter der attraktiven Oberfläche.
Anzeige
Prozesse automatisieren auf No-Code-Basis
Die Studie „SAP im Mittelstand“ von Theobald Software zeigt die enorme und stark wachsende Relevanz von Cloud-Lösungen im SAP-Kontext.
Anzeige
Alternativen zum günstigen Management
Vielen Unternehmen wächst nicht nur das Datenvolumen über den Kopf, sondern auch die Kosten für Storage und Data Management. Eine zentrale Rolle in dieser Problematik nehmen Data Warehouses ein. Ein Data Warehouse (DWH) ist eine Datenspeicherlösung, die für die Erfassung, Verarbeitung und Analyse der Daten eines Unternehmens konzipiert ist.
Zunehmender Bedarf an agileren Systemen
Datenanalytik und die Speichersysteme, die Datenanalytik-Workloads ermöglichen, haben sich im letzten Jahrzehnt stark weiterentwickelt. Zu Beginn der 2010er Jahre wurden Big-Data-Frameworks wie Hadoop mit den wachsenden Datenmengen immer beliebter.
Daten stellen für Unternehmen eine unschätzbare Quelle potenziellen Wachstums dar. Immer mehr Organisation versuchen deshalb, sich durch datengesteuerte Entscheidungsfindung auf Erfolgskurs zu bringen. Die Umwandlung von einer intuitiv getriebenen zu einer datengesteuerten Unternehmenskultur bedarf jedoch einer Infrastruktur, die die Anwendungen auch präzise unterstützen kann.
Anzeige
Perspektiven und Trends

Wir leben in einer Welt, die nach wie vor stark von der Pandemie geprägt wird. Das Wachstum unstrukturierter Daten nimmt weiterhin exponentiell zu und zwingt in der Folge Unternehmen, sich anzupassen, um wettbewerbsfähig zu bleiben.

Schlechte Datenqualität ist ein permanentes Problem vieler Unternehmen. Doch es gibt strategische Interventionen, die diese Negativ-Spirale aufbrechen. Paul Dietrich von Collibra erklärt die sechs häufigsten Ursachen und Probleme in Bezug auf mangelnde Datenqualität und wie Sie diese vermeiden.  

Instaclustr, Managed-Platform-Anbieter für Open-Source-Technologien, sieht drei Trends, die die Datennutzung im Jahr 2022 prägen werden. Dazu zählen der ML-Einsatz im Datenbankbereich, Data Lakes und Data Mesh sowie neue Angebote der Open-Source-Community.​

ISG-Studie

Der Einsatz von Data Analytics-Lösungen in deutschen Unternehmen wird unter anderem durch den Mangel verfügbarer Data Scientists und Data Engineers gebremst. Deshalb investieren die am Markt agierenden Serviceanbieter derzeit verstärkt in die entsprechende Qualifizierung ihrer Mitarbeiter.

Anzeige

Veranstaltungen

19.02.2025
 - 20.02.2025
Berlin
26.02.2025
 
Würzburg
05.03.2025
 - 06.03.2025
Heidelberg
Anzeige

Meistgelesene Artikel

Anzeige
Anzeige
Anzeige
Anzeige