Der Weg zu erfolgreichen Big-Data-Projekten von Autor:  Paul Griffin, Connect Product Manager bei Progress Software

Es ist nicht damit zu rechnen, dass Big Data wieder aus der IT-Diskussion verschwinden wird und nur eine vorübergehende Mode ist. Der Begriff beschreibt Herausforderungen, die viele Unternehmen umtreiben: explodierende Datenmengen, die Geschwindigkeit, mit der neue Daten entstehen, die Unterschiedlichkeit der Quellen und Inhalte und nicht zuletzt der steigende Bedarf an Echtzeit-Analysen. Sowohl die aus internen Beständen, aber auch die aus externen Quellen stammenden Datenmengen, wie solche von RFID-Lesegeräten, aus Sensornetzen in der Fertigung und aus Social-Media-Plattformen, bieten Unternehmen vielfältige Möglichkeiten für neue, geschäftsrelevante Erkenntnisse.

Sicher ist: Big Data verändert die Arbeitswelt. Entscheidend ist, mit den richtigen Methoden und Werkzeugen die Datenberge zu bearbeiten, wobei die Größe für jedes Unternehmen relativ ist. Bei Kleinunternehmen und im Mittelstand können schon mehrere Gigabyte an Daten eine ungewöhnlich große Menge darstellen, die möglichst in Echtzeit zu analysieren ist. Für Konzerne beginnt Big Data erst bei einer Datenmenge von mehreren Hundert Terabyte.

Gesucht wird dabei immer nach Mustern, Ähnlichkeiten, Zusammenhängen und Diskrepanzen. Produzierende Unternehmen aus der Konsumgüterbranche etwa wollen verstehen, wie Verbraucher auf ihre Produkte oder eine konkrete Vertriebskampagne reagieren. Dazu müssen Daten aus internen und externen Quellen in Echtzeit zusammengeführt werden. Handelsunternehmen können Sonderaktionen auch bei umfangreichem Produktportfolio und einem großen Filialnetz in großer Präzision und Geschwindigkeit planen, deren Wirkung kontrollieren und bei Bedarf nachsteuern. Wichtig dabei ist, auch alle relevanten Einflussfaktoren wie lokaler Wettbewerb, Kundenstruktur oder andere unvorhergesehene Ereignisse zu berücksichtigen.

Dafür müssen Unternehmen aber die technischen Voraussetzungen schaffen, insbesondere auf den Gebieten Daten-Connectivity und Middleware. Beim Datenimport und -export gilt es die traditionellen relationalen und transaktionalen Systeme, aber auch neuere Verfahren wie NoSQL sowie hochskalierbare Analyseplattformen wie Hadoop oder Map-R einzubeziehen, die eine parallele Verarbeitung großer Datenmengen ermöglichen. Dabei geht es um typische Einsatzgebiete von Business Intelligence wie Data Warehousing, Data Migration, Data Replication und Data Analysis. Die Datenbankzugriffe und deren Performance sind entscheidend für den Erfolg von Big-Data-Projekten. Unternehmen benötigen daher standardbasierte, vollständig interoperable Datenbanktreiber,  mit denen sie ihre Applikationen funktional erweitern können, ohne dass sie den Programmcode der Anwendungen ändern müssen. Im Bereich der Daten-Connectivity bildet der hochperformante, standardbasierte Zugriff auf alle wichtigen relationalen Datenbanken via ODBC, JDBC oder ADO.NET ein Herzstück. Damit entsteht eine ausbaufähige Infrastruktur für einen schnellen und effizienten Datenaustausch bei Big-Data-Anwendungen.

Kiteworks and Kasm partner to provide secure data management for distributed teams and partner...
Red Cactus and Tollring launch AI conversation analytics to support CRM integration across over 200...
F5 reveals new AI-driven security features in its ADSP that aim to enhance application protection...
Teleport’s infrastructure identity platform has been named a 2026 SC Awards Finalist in the Best...
WSO2 unveils a fresh focus on supporting agentic enterprises, aiming to strengthen AI deployment...
ServiceNow introduces AI innovations, Autonomous Workforce and EmployeeWorks, aiming to enhance...
NTT DATA and Ericsson collaborate to deploy enterprise private 5G networks, enabling edge AI and...
ElevenLabs and Google Cloud strengthen collaboration to offer advanced AI voice tools for global...