Themen

Zurück
Big Data

Der Begriff Big Data (Massendaten) beschreibt im Allgemeinen eine Datenmenge, die zu groß, zu komplex, zu schnelllebig oder zu schwach strukturiert ist, um sie mit herkömmlichen Methoden der Datenverarbeitung auswerten zu können.

Als Sammelbegriff unterliegt „Big Data“ in seiner Bedeutung einem stetigen Wandel und steht nicht nur für große Datenmengen, sondern auch für deren Nutzung, Sammlung, Verwertung und Vermarktung. Dabei beschreibt es wie kaum ein anderer Begriff die neue Ära digitaler Kommunikation und Technologie, die global in technischer, wie auch sozialer Hinsicht für große gesellschaftliche Umbrüche sorgt.

Die gesammelten Daten, die als „Big Data“ bezeichnet werden, können aus verschiedensten Quellen stammen und in vielfältigen Bereichen der Wirtschaft, in Unternehmen aber auch im öffentlichen und privaten Leben aufkommen. So z.B. aus Aufzeichnungen durch Überwachungssysteme, Nutzung von Bank- oder Kundenkarten, jegliche elektronische Kommunikation und Nutzung elektronischer Geräte wie Smartphones oder Smartwatches, Social Media, Vernetzte Technik in Häusern und Fahrzeugen, usw.

Die Frage, wie mit Big Data in Verarbeitung und Analyse umzugehen ist, ist eine der größten Herausforderungen der aktuellen Softwareentwicklung, da klassische Datenbanksysteme, sowie Statistik- und Visualisierungsprogramme, oft nicht in der Lage sind, damit zu arbeiten.

Sie suchen nach einer individuellen Lösung, um die Potenziale von Big Data für Sie nutzbar zu machen? Bei IDA sind Sie richtig!

Mit Complex Event Processing (CEP) haben wir eine neuartige Technologie, die Tiefgreifendes bewirken wird. Mit CEP ist es jetzt möglich, große Datenmengen aus unterschiedlichen Quellen in Echtzeit zu analysieren.

Anwendungen müssen dazu in der Lage sein, eine große Menge einströmender Daten fortwährend, unter fachlichen und zeitlichen Kriterien zu analysieren. Datenbankgestützte Applikationen sind derzeit allerdings noch nicht so konzipiert, dass sie diese Anforderung bewerkstelligen können.
CEP bietet Hilfestellung bei der Echtzeitverarbeitung und -analyse prozessorientierter Informationen (sogenannte Ereignisströme), um Zusammenhänge und Abhängigkeiten (Ereignismuster) zwischen auftretenden Prozessereignissen zu erkennen und vorhersagen zu können. Die Ergebnisse bezeichnet man als komplexe Events. CEP setzt dabei nicht auf traditionelle Datenbanktechnik, sondern auf neuartige Algorithmen, die im Hauptspeicher ablaufen und inkrementell die eintreffenden Elemente verarbeiten. Die/der EndbenutzerIn formuliert die notwendigen Schritte in Form „kontinuierlicher“ Anfragen.

Wir sind in der Lage, aus Daten die richtigen Informationen zu gewinnen!

CEP
Industrie 4.0

Der Begriff "Industrie 4.0" ist in aller Munde. „Plattform Industrie 4.0“ stellt folgende Definition auf:

 

»Der Begriff Industrie 4.0 steht für die vierte Industrielle Revolution, eine neue Stufe der Organisation und Steuerung der gesamten Wertschöpfungskette über den Lebenszyklus von Produkten. Die zunehmend individualisierten Kundenwünsche lassen sich nur durch ein lebenszyklusübergreifendes Management nachhaltig umsetzen. Diese Zyklusbetrachtung umfasst alle Phasen von der Idee, dem Auftrag über die Entwicklung und Fertigung, die Auslieferung eines Produkts an den Endkunden bis hin zum Recycling, einschließlich der damit verbundenen Dienstleistungen.«²

 

Basis für diese Begriffsdefinition ist ein umfassendes Management auf Grundlage von permanenter Verfügbarkeit aller relevanten Informationen in Echtzeit, die Vernetzung aller an der Wertschöpfung beteiligten Instanzen sowie die Fähigkeit, aus den Daten den zu jedem Zeitpunkt optimalen Wertschöpfungsfluss abzuleiten. Die Verbindung von Menschen, Objekten und Systemen ermöglicht den Aufbau wandlungsfähiger, echtzeitoptimierter und sich selbst organisierender, unternehmensübergreifender Wertschöpfungsnetzwerke, die sich nach unterschiedlichen Kriterien wie bspw. Kosten, Verfügbarkeit und Ressourcenverbrauch optimieren lassen. Diese Vision des Aufbaus und der Funktionsweise von Industrie 4.0-Systemen stellt eine konsequente Weiterentwicklung der Verknüpfung intelligenter Objekte dar, die sich im Konzept des Internets der Dinge wiederfindet.

Der Trend in Richtung vernetzter Welten und Industrie 4.0 wird vor allem durch die rasante Entwicklung der Anzahl vernetzungsfähiger Geräte getrieben.

Ein Schlagwort, das aktuell in jeder Branche unumgänglich ist. Auch wenn es keine allgemeingültige Definition gibt – im Kern beschreibt Das Internet der Dinge (Internet of Things) die Kommunikation intelligenter Geräte untereinander.

Die beteiligten Dinge unterhalten sich in der Regel mikroprozessorgesteuert untereinander, um Statusinformationen über sich und ihre unmittelbare Umgebung zu sammeln und an weitere, angebundene Objekte (beispielsweise Computer, Sensoren und Maschinen) zu senden. So wird eine synchrone Auswertung und Weiterverarbeitung der gesammelten Daten ermöglicht und der Grundstein für eine weiterentwickelte, an die Bedürfnisse der KundInnen angepasste Technik gelegt. So entsteht für die KundInnen Mehrwert in vielfältiger Form: von E-Health (z.B. Fitnessarmbänder, intelligente Herzschrittmacher), über Smart Home (z.B. intelligente Beleuchtung, zentrale Steuerung und Benachrichtigungen über eine App...), und smarte Autos (selbstfahrende Autos, Assistenzsysteme).

Auch die Produktion in der Industrie 4.0 profitiert und erfährt enormen Aufwind: werkelten früher Maschinen stumpf vor sich hin, so sind heute ganze Werkshallen von vorne bis hinten vernetzt. Das erleichtert nicht nur die Steuerung und Überwachung ganzer Fertigungsstraßen, sondern es sind auch schnelle Wechsel zwischen verschiedenen Produkten bis hin zu individualisierten Waren in Form von kleinen Serien oder Einzelstücken möglich. Durch Just-in-time-Herstellung schrumpfen Lager. Die smarte Produktion unterstützt das komplette Supply Chain Management, inklusive der Auswahl von Liefer-Unternehmen.

Das Internet der Dinge
Predicitve Maintenance

Predictive Maintenance beschreibt das vorrausschauende Instandhalten eines Produktionsprozesses mittels intelligenter Datenanalysen. Dabei werden Maschinen, Produkte und Komponente des am Produktionsprozess beteiligten Systeme vernetzt – man macht sich also das Internet der Dinge nutzbar.

Durch den Einsatz von Sensoren dient diese Vernetzung dazu, Zustandsdaten von Maschinen zu erfassen und sie mit Informationen aus Drittsystemen (ERP-, CRM-Systeme) zu kombinieren. Die Zielsetzung ist dabei, auf Störung hindeutende Muster rechtzeitig zu erkennen und entsprechende Maßnahmen präventiv einleiten zu können. Drohende Fehler, Ausfälle und dadurch entstehende Stillstandzeiten im Produktionsprozess können so frühzeitig erkannt und die entsprechende Wartung eingeleitet werden. Die Folge ist, dass unerwartete maschinelle Ausfälle massiv minimiert werden. Predictive Maintenance ist ein wichtiger Baustein in einer 4.0-Umgebung und ist eine Weiterentwicklung klassischer Wartungsstrategien.

Mit der richtigen Auswahl des Systems, der Generierung und Aufbereitung der korrekten Daten, sowie einer passenden Mischung aus Branchenexpertise und Datenanalyse ist der Erfolg einer Predictive-Maintenance-Lösung garantiert. IDA kann Sie dabei unterstützen, die richtige Lösung für Ihr Unternehmen zu entwickeln!

Täglich generieren Systeme von Unternehmen riesige Datenmengen, die jedoch nur teilweise verarbeitet und analysiert werden. Im Security Bereich werden diese mit Software rund um das Thema SIEM (Security Information and Event Management) verarbeitet.

Klassische SIEM-Lösungen werden meist zur Analyse von Log-Dateien genutzt. Dazu werden Regeln entworfen, welche auf bekannte Ereignisse reagieren. Dies bedeutet jedoch im Umkehrschluss, dass auf undefinierte Anomalien und Ereignisse nicht rechtzeitig reagiert werden kann. SIEM-Systeme sind meist auf infrastrukturelle Ereignisse beschränkt, und unterstützen Sie nur bedingt beim Treffen von Entscheidungen. Mit unserer Security Lösungen gehen wir die Schwächen konventioneller SIEM-Lösungen an. IDA bietet ein neuartiges Security-System für konventionelle Serverlandschaften und heterogene Virtualisierungsumgebungen, das die Nachteile aktueller SIEM-Lösungen kompensiert. Durch Abstraktion, Korrelation, Aggregation und Mustererkennung von unternehmensweiten Daten, kann unsere Lösungen eine automatische Verhaltens- und Statistikanalyse mit mehrdimensionalen Analysefunktionen umsetzen. Durch die Überwachung von allen relevanten Vorfällen und Anomalien werden die Nutzer und Systeme des Unternehmens geschützt. Durch die Kombination statistischer Methoden und Heuristiken ermöglichen wir Unternehmen, „normales“ Verhalten in einer beliebigen Kombination der Attribute von BenutzerInnen, Hosts, Anwendungen oder Geräten automatisch zu „erlernen“.

Security
Smart Monitoring

Eine kontinuierliche Überwachung der IT-Landschaft durch eine Smart Monitoring-Lösung ermöglicht eine frühzeitige Erkennung von kritischen Zuständen Ihrer Serversysteme, Dienste und deren Applikationen.

Der Betrieb komplexer IT-Infrastrukturen erfordert den Einsatz professioneller Werkzeuge und ExpertInnen zur Überwachung der Systeme. Ein Ausfall von geschäftskritischen Anwendungen führt unweigerlich zu wirtschaftlichen Einbußen.

Mit dem graphical user interface (GUI) können Vorfälle verfolgt, durchsucht und gefiltert werden. Benachrichtigungen können in Echtzeit per SMTP, SNMP, Syslog oder HTTP POST übermittelt werden. AdministratorInnen haben die Möglichkeit, die Ergebnisse nach Vorfällen, nach Datum oder nach IP-Adressbereichen zu filtern. Es werden nur Daten angezeigt, die dem Aufgabenbereich der AdministratorInnen entsprechen. Benachrichtigungen können auch an SIEM-Tools von Drittanbieter-Firmen gesendet werden.

 

Im Bereich der Prozessoptimierung ist im Moment viel Aufklärungsarbeit zu betreiben, denn gerade mit dem Label Big Data wird teilweise undurchsichtig und unsachgemäß umgegangen. Fakt ist aber, dass es bereits Process Mining Lösungen auf dem Markt gibt, die riesige Datenmengen in Echtzeit verarbeiten können und darüber hinaus in Verbindung mit Business Intelligence (BI) die Prozessoptimierung in starkem Maße vereinfachen und beschleunigen.

Durch das kontinuierliche Analysieren von strukturierten und semi-strukturierten Prozessdaten aus IT-Systemen gewinnen Unternehmen eine ganz neue Entscheidungsgrundlage und können unterschiedliche Erkenntnisinteressen befriedigen - angefangen bei Compliance-Aspekten über Revisionsfragen bis hin zu ganz konkreten Fragestellungen a la "Wie viel Skonto geht mir bei Zuliefer-Firma XY verloren?". Zusätzlich zu den aggregierten und bereinigten Datenbeständen, die klassische BI-Lösungen zur Analyse ausschließlich heranziehen, können Unternehmen auf die tatsächlich ablaufenden Prozessdaten zugreifen, Abläufe analysieren, justieren und in Echtzeit den Erfolg kontrollieren.
Grundlagentechnologien wie Automated Business Process Discovery und Process Business Intelligence sind bereits funktionierende und im Unternehmenseinsatz befindliche 'Big Data'-Ansätze. In naher Zukunft werden diese Ansätze in unterschiedlichen Ausprägungen zu Standardlösungen in Unternehmen - unabhängig von Branche und Größe - werden, da in IT-Daten ein inhärentes Optimierungspotenzial steckt, das mit Hilfe von Prozessdatenanalyse gehoben werden kann.

Marktreife Industrie 4.0-Anwendungen wie Predictive Maintenance haben den Fokus der Fertigungsindustrie stark auf die Produktions-IT gelenkt: Maschinen und Produktionsmittel, die eigenständig Informationen austauschen, sich gegenseitig steuern und selbstständig warten, machen Fabriken immer smarter. IT und Produktion verschmelzen miteinander, automatisieren Produktionsprozesse und verändern die Geschäftsbeziehung zwischen Firmenmitarbeitern, Kunden und Zulieferern. Produzierende Unternehmen, die sich die Segnungen der Digitalisierung zunutze machen möchten, sollten nicht nur ihre Produktions-IT vernetzen. Um die richtigen Informationen zur richtigen Zeit am richtigen Ort verfügbar zu machen, müssen sie zudem eine effiziente und sichere Zusammenarbeit über die gesamte Wertschöpfungskette hinweg sicherstellen. Kaum etwas wirkt sich in der Industrie so nachteilig aus, wie eine schlechte Produktqualität und eine Unterbrechung von Produktionsprozessen. Beides führt zu Stückzahlverlusten und Umsatzeinbußen. Seit die IT Einzug in die Produktion hält, setzen immer mehr Unternehmen intelligente Softwarelösungen ein, um produktions- und prozessbedingte Schwierigkeiten auf ein Minimum zu reduzieren. Gleichzeitig verfolgen AnwenderInnen mit Industrie 4.0 das Ziel, die Kapazitätsauslastung in den Fabriken zu verbessern und individuelle KundInnenwünsche schneller umzusetzen.

Die Optimierung von Produktionsprozessen wirkt sich damit auch auf die Arbeitsweise aller Beteiligten aus: die Produktionsmitarbeiterin, die sich mit den Fachabteilungen abstimmt, die Zuliefer-Firma, die das richtige Material in der benötigten Qualität bereitstellt, das Speditionsunternehmen, die die Waren fristgerecht transportiert, und natürlich die KundInnen, deren individuelle Wünsche im gesamten Fertigungsprozess zu berücksichtigen sind.

Prozessoptimierung/ Business Process