Big Data - Der nächste große Trend?

Foto: MMchen / Quelle: Photocase.de
Big Data

›Big Data‹ birgt einige Probleme – und neue Chancen

Riesige Datenmengen überfordern vielfach die Technik

Mit der Größe ist das so eine Sache, wenn es um Computer geht. »640 kilobytes should be enough for anybody«, hat Microsoft- Gründer Bill Gates vor 31 Jahren gesagt. Heute kann man darüber nur müde lächeln. 2011 wurden mit 1,8 Zettabyte so viele digitalisierte Daten aufgezeichnet wie noch nie, vermeldete die Frankfurter Allgemeine Zeitung (FAZ). Es bräuchte 57,5 Milliarden Tabletcomputer, um all die Daten zu speichern. aufeinandergestapelt ergäben diese eine Mauer von 4.000 Kilometern Länge und 31 Metern Höhe. Berechnungen zufolge verzehnfacht sich die verfügbare Datenmenge alle fünf Jahre. Zur Bewältigung dieser Mengen sind Computer notwendig, die mit speziellen Speicher- und Verarbeitungstechniken arbeiten, weil Standard-Datenbanken zunehmend überfordert sind. Dieses Phänomen nennt man ›Big Data‹.

 

Das IT-Wirtschaftsmagazin CIO und fünf internationale Marktforschungs- und Analyseinstitute haben Big Data jüngst zum Megatrend der IT-Welt erhoben. Laut einer weltweiten Studie der Beratung Capgemini glauben neun von zehn Geschäftsführern, dass neben Arbeit, Boden und Kapital Informationen zum vierten Produktionsfaktor geworden sind. Natürlich, die Chancen von IT wurden schon oft falsch eingeschätzt. »Alle zwei, drei Jahre kommt eine neue Mode auf, die wird dann in den Medien rauf- und runtergeschrieben «, sagte Jim Goodnight, Statistikprofessor und Chef des weltgrößten privaten Softwarehauses SAS, kürzlich der FAZ. Auch für Hans Ulrich Buhl, Professor für BWL und wissenschaftlicher Leiter des Kernkompetenzzentrums Finanz- und informationsmanagement der Uni Augsburg sowie der Fraunhofer-Projektgruppe Wirtschaftsinformatik, ist Big Data erstmal ein Hype. Von einer Revolution mag er schon gar nicht sprechen.

Andererseits sind stetig wachsende Datenberge eine Tatsache

Jim Goodnight, SAS Big DataNicht zuletzt dadurch, dass Rechenleistung heute sehr günstig zu haben ist. Goodnights Firma SAS setzt daher auf die Hochleistungs-Analysen riesiger Datenmengen. Die braucht es, um endlich eine Schneise der Ordnung in den ständig wachsenden Datendschungel zu schlagen. Gerade haben der Computerhersteller Lenovo und der Speicherspezialist EMC deshalb eine Partnerschaft geschlossen, um die Geschäfte mit Speicher- und Netzwerkrechnern sowie großen Datensätzen zu forcieren. IBM will ebenfalls weiter in Big Data investieren. Rund 100 Millionen Dollar sollen in der nächsten Zeit fließen.

Diese Investitionen könnten sich auszahlen: Zwei Drittel der rund 600 von Capgemini befragten Manager gaben an, dass Daten in ihrem Unternehmen einen hohen Stellenwert haben. Zwar empfinden 42 Prozent der Befragten unstrukturierte Daten als schwer interpretierbar, dennoch stützt sich die Mehrheit der Führungskräfte auf genau solche Daten. Zugleich glauben die meisten Befragten nicht, dass die wachsende Datenmenge die größte Herausforderung ist, sondern schlicht die Fähigkeit, sie zu analysieren.

Im Phänomen Big Data geht es jedoch nicht um die Menge der Daten allein

Da ist die wachsende Zahl der Anwender oder Nutzer der Technik, firmeninterner wie externer User. Da ist der Zeitdruck: Unternehmen müssen, wenn es geht, in Echtzeit und auf der Basis umfangreicher Datenanalyse reagieren. Die Komplexität und Struktur der Daten, die zudem in immer kürzeren Abständen aktualisiert werden, stehen der schnellen Reaktionszeit im Weg. Da gibt es Telekommunikationsdaten und solche von wissenschaftlichen Versuchen, Daten von Lesegeräten, Kameras, Mikrofonen und Sensoren, Finanz- und Verbrauchsdaten, Informationen aus Logistikketten und Social-Media-Plattformen. Und da gibt es komplexe Anfragen, die vieles von dem miteinander verbinden wollen. So entstehen Zusammenhänge, die vorher unbekannt waren. In der Automobilindustrie und bei den Energieversorgern, In der Konsumgüterbranche oder in der Chemieindustrie – überall existieren entsprechende Ansätze. Big-Data-Systeme sollen Trends und Muster identifizieren und dabei bislang unbekannte oder nur vermutete Beziehungen entdecken.

 

»Die Möglichkeiten, große, unstrukturierte Datenmengen IT -gestützt und günstig zu verarbeiten, wachsen unaufhaltsam«, sagt Hans Ulrich Buhl.

 

Heute sei möglich, was noch vor zehn Jahren undenkbar war. Die Frage, ob ein Unternehmen immer mehr über seine Kunden in Erfahrung bringen oder auf weniger, aber relevantere Daten setzen sollte, stelle sich dabei aber schon lange.

 

»Es ist überhaupt nicht klar, ob man mit mehr Daten automatisch bessere Ergebnisse erzielt«, so Buhl.

 

Ohne ein hohes Maß an Datenqualität bringe Big Data dabei keinen Mehrwert. »Wenn Daten falsch sind, entscheide ich damit nicht besser. Im Retail Banking etwa waren in den letzten 15 Jahren diejenigen erfolgreicher, deren Geschäftsmodell auf der Nutzung weniger Kundendaten basierte.« Zugleich verändere sich der Markt sehr rasch durch die immer weitere Verbreitung von Smartphones: »Hier werden neue Geschäftsfelder verteilt«, sagt Buhl, und zwar auf der Basis von einigen Klicks, bei denen nur wenige Daten neu eingegeben, aber viele genutzt werden. Das funktioniert vor allem, wenn Unternehmen schon einiges über ihre Kunden wissen, etwa im Versicherungsgeschäft. »Big Data ist nur die Basis, aber nicht der Erfolgsgarant«, meint Buhl. Geschäftsmodell, Prozesse, Anwendungssysteme und IT müssten aus einem Guss sein.

 

Zwar spielt sich die Datensammelwut vieler Firmen oft noch undurchdacht ab, doch richtig aufbereitet und analysiert sind die Potenziale von Big Data riesig, wie die Unternehmensberatung McKinsey erkannt hat: So könnten Handelsunternehmen ihre Marge um rund 60 Prozent verbessern. Europäische Behörden würden jährlich bis zu 250 Milliarden Euro einsparen. Und mit Hilfe von Lokalisierungsdaten ließen sich weltweit jährlich etwa 100 Milliarden Dollar mehr Umsatz erzielen. Zugleich fehlten allein in den USA über 140.000 Mitarbeiter mit analytischen Fähigkeiten. Weitere 1,5 Millionen Manager müssten sich darauf vorbereiten, mithilfe von Big Data Entscheidungen zu treffen. Derzeit werden laut CIO-Magazin nur fünf Prozent des weltweiten Datenmaterials tatsächlich ausgewertet.

 

»Am Horizont sind Möglichkeiten intelligenter Anwendungen zu erkennen, deren Potenzial kaum absehbar ist«, sagte der Informatik- Professor Lars Schmidt-Thieme von der Uni Hildesheim laut Branchendienst Heise jüngst auf einer Tagung.

 

So könne etwa die Echtzeit-Auswertung von Sensordaten im Auto die Unfallrisiken deutlich verringern. Als weiteres Anwendungsbeispiel nannte Schmidt-Thieme die personalisierte Therapie in der Medizin. Aber: »Wir müssen jedes System dahingehend prüfen, inwieweit es missbraucht werden kann.« Hype hin oder her – Hans Ulrich Buhl möchte den Ball zunächst noch flach halten und beruhigt:

 

»Big Data ist erst einmal ein Modewort.«

Big Data Grippe
Teile diese Seite

Jobs für Informatiker:

Artikelsuche

Stellenangebote zu "Big Data"

Hol dir alle audimax-Ausgaben in einer App fürs Tablet und Smartphone!

Jetzt herunterladen:

Foto: Pixabay / CC0

Welche Informatik-Studiengänge gibt es? Wie finden andere Studenten das Studium? Wir haben Erfahrungsberichte gesammelt!


Übersicht "Studium Informatik"