Der Begriff „Big Data“ und was er wirklich bedeutet, ein Blick hinter die Kulissen

Der Begriff „Big Data“ und was er wirklich bedeutet, ein Blick hinter die Kulissen
1 (20%) 1 vote

Der Begriff „BIG Data“ wurde erstmals im 4. Quartal 2010 erwähnt und es gab kaum Anwendungsbeispiele außerhalb von Silicon Valley. Ich nahm daher zunächst an, dass es sich hierbei erneut um ein klassisches Beispiel einer Erfindung von Marketing getriebenen Unternehmen oder Analysten handelt.

Um Big Data zu diskutieren, sollten wir uns zuerst den Begriff selbst ansehen. Ich gebe zu, dass wir in unserer Branche häufig irreführende Begriffe verwenden: Erstens der Begriff „Big“ ist offensichtlich ein relativer Begriff – das was heute groß ist, muss morgen nicht mehr unbedingt als groß angesehen werden. Warum nennen wir es nicht „massive data“? Hinzu kommt dass das was für die eine Organisation groß ist, für eine andere größere Organisation dennoch klein sein kann. Und zweitens ist „Big“ nur ein Aspekt, was neue Datentypen und -analysen betrifft. Leider verwenden IT Firmen „big data“ für jede modernere Form von Analysen oder missbrauchen gar diesen Begriff für ihr Berichtswesen. Das heißt, sobald wir über Big Data im Zusammenhang von „Daten-gesteuerter Entscheidungsfindung“ sprechen, verwenden wir im Grunde Ideen die zwar wertvoll und nützlich aber nicht unbedingt neu sind.

Ich habe vor kurzem meine alten Bücher zur „Informationstheorie“ und „Datenanalyse“ in die Hand genommen – sie sind inzwischen einige Jahrzehnte alt. Jedenfalls habe ich begonnen alte Begriffe wie zB.:„Entscheidungshilfe“, „Management Unterstützung“, „analytische online Verarbeitung“, „Business Intelligence“, „Analytik“ etc. mit „Big Data“ zu ersetzen und – siehe da – einige brandneue Publikationen haben sich auf wundersame Weise vor meinem geistigen Auge aufgetan.

Viele Leute die ich kenne und mit denen ich regelmäßig diskutiere teilen meine eher zurückhaltenden Ansichten zur Begrifflichkeit von Big Data. Viele haben das Gefühl, dass sie schon seit Jahren mit Big Data zu tun haben und fragen wo nun die eigentliche Innovation steckt. Einer meiner ehemaligen Professoren im MBA Programm hat folgende Aussage zu diesem Thema veröffentlicht: „Big Data ist wie Sex bei Jugendlichen: jeder redet darüber, niemand weiß wie es wirklich geht, jeder glaubt alle anderen tun es, und deswegen sagt jeder dass es super ist.“ Wir brauchen aus meiner Sicht mehr wirklich informierte Quellen.

Zusammenfassend glaube ich, dass dieser Begriff eine relativ kurze Lebensdauer haben wird. Ich bin aber auch davon überzeugt, dass die zugrundeliegenden Konzepte wie man zeitgemäße Datenbestände – welche zunehmend unstrukturiert sind – analysieren und auswerten kann eine sehr lange Lebensdauer haben werden. Diese nicht-strukturiertheit von Daten bedeutet neue Herausforderungen aber auch neue Geschäftsmöglichkeiten, die durch den Begriff „Big Data“ adressiert werden. Wenn der Begriff Big Data also Energie und Motivation für die gesamte Branche bedeutet, dann hat er schon seinen Zweck erfüllt. Aber es sei hier nochmals darauf hingewiesen, dass dieser Begriff von Start-Up Unternehmen oder Medienvertretern erfunden wurde und daher wird er meiner Ansicht nach auch nicht lange existieren. Der nächste spannend klingende Begriff kommt bestimmt bald. Die Konzepte dahinter sind das was zählt.

Ein Gedanke zu “Der Begriff „Big Data“ und was er wirklich bedeutet, ein Blick hinter die Kulissen

  1. Averell

    Wie du natürlich in deinem Blog-Eintrag richtig feststellst, ist „groß“ keine exakt quantifizierbare Menge an Daten und darüber hinaus – wie alle Bereiche der IT – Moore’s Law, und damit dem Wandel der Zeit unterworfen. Was als „groß“ bezeichnet werden kann, hängt viel mehr von der Art und Verwendung der Daten, dem technischen Umfeld, Unternehmen und dem Verständnis der mit der Datenverarbeitung betrauten Personen, ab.
    Das 3V-Modell von Gartner bezieht neben der reinen Größe als erstes V – „Volume“ – auch noch die Parameter „Velocity“ – also die Geschwindigkeit mit der die Daten verarbeitet werden (sollen) – und „Variety“ – also die „Unterschiedlichkeit“ der Daten – mit in die Betrachtung ein. Auch wenn die Gartner Analysten „High Volume“ noch näher damit beschreiben, dass es sich dabei um solche Mengen handelt, bei denen herkömmliche Methoden nicht mehr ausreichen um „Business Value“ zu generieren, so bleibt dieser Parameter doch eher vage. Für die „High Velocity“ ist jedoch noch näher spezifiziert, dass primär auf die variable Geschwindigkeit, also die veränderlichen Raten der Daten-Anlieferung, zu fokussieren ist. Diese variable Geschwindigkeit in Verbindung mit der geforderten Kosteneffektivität impliziert aber technische Strukturen, die kleinteilig und flexibel genug sind, um nach Bedarf parallel für Auswertungen genutzt zu werden. Entsprechend groß dimensionierte Hardware wäre in der Lage mit einer hohen Last umzugehen, im Falle geringer Last wäre sie aber überdimensioniert und damit zu teuer. Verteilt, parallel arbeitende Systeme hingegen, könnten je nach Anforderung einzelne Nodes hinzunehmen oder wieder frei geben, was damit auch eines der wesentlichen Merkmale heutiger Big Data Architekturen wie der von Hadoop erklärt.
    Der dritte Aspekt den Gartner nennt – „Variety“ oder auch „Highly variant information assets“ – beschreibt das eines der hervorstechendsten Merkmale von Big Data: Daten mit mehreren, unterschiedlichen Strukturen von strukturiert, über semistrukturiert bis hin zu unstrukturiert. Darüber hinaus nennt Gartner auch noch Daten, die bisher noch kaum verwertet wurden und deren Nutzung durch neue oder Innovative Arten der Verarbeitung sinnvoll erscheint. Erst die gemeinsame Verwendung von Daten, aus unterschiedlichen Quellen, mit unterschiedlicher Struktur und Formaten, ohne vorherigen ETL-Prozess, unterscheiden Big Data Technologien wesentlich von bisherigen Data Warehouse -Systemen.
    Erst durch die Notwendigkeit der ganzheitlichen Verarbeitung von (großen) Datenmengen mit unterschiedlichen Strukturen wurden neue Technologien geschaffen, die in der Lage sind mit diesen umzugehen.
    Ich glaube, dass sich auch unterschiedlichen Bereichen des IT Service Managements diese neuen Big Data Methoden und Ansätze bewähren können. Ich denke da an das Event Management, das heutzutage riesige Mengen von „Sensorinformationen“ zur Erkennung von Ereignissen verarbeiten muss. Auch die forensische Suche nach der Root Cause kann wesentlich unterstützt werden.
    Es gibt viele Gebiete, die ohne Big Data mit klassischen Datenverarbeitungsansätzen nicht beherrschbar sind.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

By continuing to use the site, you agree to the use of cookies. more information

The cookie settings on this website are set to "allow cookies" to give you the best browsing experience possible. If you continue to use this website without changing your cookie settings or you click "Accept" below then you are consenting to this.

Close