Die EU verfolgt ehrgeizige Ziele bei der digitalen Transformation: So sollen unter anderem bis 2030 drei Viertel der europäischen Unternehmen Cloud Computing, Big Data und Künstliche Intelligenz (KI) nutzen. Ersteres hat sich zumindest in Deutschland schon weitgehend durchgesetzt, bei Letzterem sieht dies aktuell jedoch noch anders aus.
Wer Digitalisierung ernst meint und KI auf breiter Basis nutzen will, braucht hochwertige und konsistente Datenbestände. Hier drängen sich seit Jahren Data Lakes auf. Richtig, sagt Yannick Pfeiffer von der Unternehmensberatung microfin – aber es lauern reichlich Untiefen unter der attraktiven Oberfläche.
Prozesse automatisieren auf No-Code-Basis
Die Studie „SAP im Mittelstand“ von Theobald Software zeigt die enorme und stark wachsende Relevanz von Cloud-Lösungen im SAP-Kontext.
Anzeige
Alternativen zum günstigen Management
Vielen Unternehmen wächst nicht nur das Datenvolumen über den Kopf, sondern auch die Kosten für Storage und Data Management. Eine zentrale Rolle in dieser Problematik nehmen Data Warehouses ein. Ein Data Warehouse (DWH) ist eine Datenspeicherlösung, die für die Erfassung, Verarbeitung und Analyse der Daten eines Unternehmens konzipiert ist.
Zunehmender Bedarf an agileren Systemen
Datenanalytik und die Speichersysteme, die Datenanalytik-Workloads ermöglichen, haben sich im letzten Jahrzehnt stark weiterentwickelt. Zu Beginn der 2010er Jahre wurden Big-Data-Frameworks wie Hadoop mit den wachsenden Datenmengen immer beliebter.
Daten stellen für Unternehmen eine unschätzbare Quelle potenziellen Wachstums dar. Immer mehr Organisation versuchen deshalb, sich durch datengesteuerte Entscheidungsfindung auf Erfolgskurs zu bringen. Die Umwandlung von einer intuitiv getriebenen zu einer datengesteuerten Unternehmenskultur bedarf jedoch einer Infrastruktur, die die Anwendungen auch präzise unterstützen kann.
Anzeige
Perspektiven und Trends

Wir leben in einer Welt, die nach wie vor stark von der Pandemie geprägt wird. Das Wachstum unstrukturierter Daten nimmt weiterhin exponentiell zu und zwingt in der Folge Unternehmen, sich anzupassen, um wettbewerbsfähig zu bleiben.

Schlechte Datenqualität ist ein permanentes Problem vieler Unternehmen. Doch es gibt strategische Interventionen, die diese Negativ-Spirale aufbrechen. Paul Dietrich von Collibra erklärt die sechs häufigsten Ursachen und Probleme in Bezug auf mangelnde Datenqualität und wie Sie diese vermeiden.  

Instaclustr, Managed-Platform-Anbieter für Open-Source-Technologien, sieht drei Trends, die die Datennutzung im Jahr 2022 prägen werden. Dazu zählen der ML-Einsatz im Datenbankbereich, Data Lakes und Data Mesh sowie neue Angebote der Open-Source-Community.​

ISG-Studie

Der Einsatz von Data Analytics-Lösungen in deutschen Unternehmen wird unter anderem durch den Mangel verfügbarer Data Scientists und Data Engineers gebremst. Deshalb investieren die am Markt agierenden Serviceanbieter derzeit verstärkt in die entsprechende Qualifizierung ihrer Mitarbeiter.

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Data Lakes

Anzeige

Veranstaltungen

15.05.2024
 
Berlin und Online
15.05.2024
 - 16.05.2024
Berlin & Online
Stellenmarkt
  1. Data Governance Manager/in (w/m/d)
    Stadt NÜRNBERG, Nürnberg
  2. Ingenieur/-in (m/w/d) Versorgungstechnik
    Stadt Ingolstadt, Ingolstadt
  3. Systemadministrator (m/w/d)
    DFN-CERT Services GmbH, Hamburg
  4. (Senior) IT Systems Engineer (Load Balancer Specialist) (m/w/d)
    noris network AG, Nürnberg, Berlin, Aschheim, remote
Zum Stellenmarkt
Anzeige

Neueste Artikel

Meistgelesene Artikel

Anzeige
Anzeige
Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Anzeige
Anzeige