Von der Beschreibung zur Erklärung: Was können Big Data und Algorithmen leisten?

In allen möglichen Branchen und Unternehmen wachsen Informationen exponentiell: Sensoren, Social Media, Finanztransaktionen, Aktivitäten auf Smart Devices und viele andere Quellen generieren eine Unmenge an Daten. Der Umgang mit ihnen ist sowohl für Unternehmen, deren Wertschöpfung und Geschäftsmodell auf datenbasierten Insights beruhen, als auch für Unternehmen deren Kerngeschäft ein anderes ist, die aber mit Big Data ihre Leistungen verbessern wollen, eine Herausforderung. Mit Big Data können nicht nur die Effizienz in verschiedensten Bereichen wie Produktion oder Logistik gesteigert werden, sondern über Customer Insights auch neue Produkte und Geschäftsbereiche identifiziert werden.

So werden Informationen zusehends zu einem Kern-Asset. Über Big Data verfügt mittlerweile fast jedes Unternehmen. Die rohen Daten allein bringen aber noch keinen Nutzen. Mit dem Kern-Asset Information muss somit richtig umgegangen werden, um darauf bedeutende Managemententscheidungen zu begründen.

Network Visualization, Quelle: www.flickr.com, Photographer: Luke Wroblewski

Die Basis jeder guten Analyse sind ganz grundlegend gute Daten. Viele Unternehmen laufen Gefahr, blindes Vertrauen in Zahlen zu setzen, ohne Hintergründe über ihre Qualität zu kennen. Die besten Algorithmen sind wertlos, wenn sie mit schlechten oder irrelevanten Daten gefüttert werden. Nur gute Daten bringen gute Insights. Das bedeutet, das Datenqualitätsmanagement spielt eine entscheidende Rolle: Validität, Reliabilität, Konsistenz und Zeitlichkeit der Daten muss für die jeweilige Entscheidung, für die die Daten herangezogen werden, stimmen. Andernfalls sind Daten ebenso in der Lage, erheblichen Schaden anzurichten, wenn sie unreflektiert für wichtige Entscheidungen herangezogen werden.

Aufbauend auf der nötigen Datenqualität muss eine sinnstiftende Analyse der Daten erfolgen. Peter Sondergaard, Senior Vice President bei Gartner und Global Head of Research sagt: „Data is inherently dumb. It doesn’t actually do anything unless you know how to use it, and how to act with it”. Algorithmen übernehmen diese nutzenstiftende Auswertung der unvorstellbaren Datenmengen und zeigen den Nutzern relevanter Informationen auf. Intelligente, selbstlernende Algorithmen gehen noch einen Schritt weiter: Sie lernen aus Erfahrung, erkennen Gesetzmäßigkeiten und können verallgemeinern. So entstehen künstlich intelligente Systeme, die allgemein als “maschinelles Lernen” oder “Deep Learning” bekannt sind. Interessierten Lesern empfehlen wir in diesem Zusammenhang unseren Artikel über künstliche Intelligenz vom Juli 2015. Maschinelles Lernen ist kein neues Phänomen, Experten gehen aber davon aus, dass die Bedeutung von künstlicher Intelligenz enorm wachsen wird.

Um als Mensch die immer größere Anzahl an Insights durch Big Data verarbeiten und überblicken zu können, erlangt neben der Analyse durch intelligente Algorithmen auch die Visualisierung der Daten eine immer größere Bedeutung. Ein Beispiel einer Software, der das sehr gut gelingt, ist Quid. Quid sammelt Millionen von Daten, wertet sie aus und setzt sie in Beziehung. Das ist nicht neu — das Besondere, wodurch sich die Software von vielen anderen unterscheidet, ist die Aufbereitung: Die Analysen werden nicht in Tabellen oder Zahlenübersichten dargestellt, sondern als interaktive Netzwerkkarten visualisiert, die es dem Nutzer erlauben, komplexe Zusammenhänge zu überblicken. So führt die Software den Nutzer dazu, die strategisch wichtigen Fragen zu erkennen. Dementsprechend lautet auch der Slogan von Quid: “Your intelligence amplified”.

Doch selbst mit den hochwertigsten, umfangreichsten Daten und den intelligentesten Algorithmen ist in vielen Bereichen der Mensch trotzdem nicht zu ersetzen. Sicherlich werden sich viele Berufsbilder in der kommenden Zeit weiter drastisch verändern, wie beispielsweise im Marketing und in der Produktentwicklung digitaler Services. Das bekannte Moorsche Gesetz, nachdem sich die Leistung von Computerchips alle zwei Jahre verdoppelt, und das seit 1970 ungebrochen ist, lässt erahnen, dass wir uns jetzt kaum vorstellen können, was in 15 Jahren mit Informatik möglich sein wird. Komplexe strategische Entscheidungen jedoch, bei denen auch Kreativität, Empathie und Intuition gefragt sind, können Menschen nach wie vor besser treffen. Ob ein Computer dazu jemals imstande sein wird, ist sehr fraglich. Solange gilt: Die Algorithmen machen die Fließbandarbeit — sie summieren Informationen und machen auf bestimmte Themen aufmerksam. Das bedeutet, Algorithmen identifizieren das “Was”. Es braucht aber weiterhin den Menschen, der die Frage nach dem “Warum” beantwortet. Um mit Big Data komplexe Managemententscheidungen treffen zu können braucht es somit viererlei: Hohe Datenqualität, starke Algorithmen, gute Visualisierung und den menschlichen Verstand, der die richtigen Schlüsse zieht und den Daten strategische Bedeutung beimisst. Damit liegt der neuralgische Punkt beim Einsatz von Big Data am Anfang eines jeden Projektes, denn hier muss schon die Frage nach dem “Warum” erfolgen, damit das “Was” auch zielgerichtet erhoben werden kann. Das “Warum” sollte dabei Antwort auf die strategische Zielsetzung des Projektes geben und die Hintergründe und Implikationen berücksichtigen. Dies sind jedoch häufig Fragen, die im Vorfeld von Big Data noch qualitativ und mit Unternehmens-, Markt- und Zielgruppenverständnis gelöst werden müssen.

One clap, two clap, three clap, forty?

By clapping more or less, you can signal to us which stories really stand out.