4. Data Analytics Flashcards

(21 cards)

1
Q

Was versteht man unter DATA Analytics?

A

Systematische Auswertung von Daten, Herausfiltern von Erkenntnissen, Mustern & Zusammenhängen

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Abgrenzung DATENANYLYSE; ALGORITHMUS; MACHINE LEARNING; KÜNSTLICHE INTELLIGENZ

A
  • Datenanalyse: operatives herausarbeiten & „verstehen“ von Daten
  • Algorithmus: klare Abfolge von Schritten in bestimmter Reihenfolge, um ein Problem zu lösen
  • Machine Learning: Teilbereich der KI: Algorithmen, die nicht starr programmiert sind, sondern aus Daten lernen, Muster erkennen und sich mit zunehmender Datenmenge selbst verbessern
  • Künstliche Intelligenz: Der Überbegriff für Technologien, die menschenähnliche kognitive Leistungen erbringen (Wahrnehmen, Lernen, Problemlösen)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Welche Relevanz hat Data Analytics für Unternehmen? (3 konkrete Beispiele)

A

Relevanz:

  • verbessert Entscheidungsprozesse
  • steigert Effizienz
  • schafft Wettbewerbsvorteile durch datenbasierte Erkenntnisse

Beispiele:

  • Marketing: Zielgruppenanalyse und personalisierte Werbung (z.b. durch Kundendatenanalyse)
  • Produktion: Vorrausschauende Wartung zur Vermeidung von Maschinenausfälle
  • Finanzen: Betrugserkennung durch Analyse ungewöhnlicher Transaktionsmuster
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Notwendige technologische Lösungen (Beispiele) für Data Analytics

A

benötigt man eine Infrastruktur, die Daten sammeln, speichern und verarbeiten kann.

  • Cloudbasierte Plattformen: Für skalierbaren Speicher und Rechenleistung.
  • IoT-Plattformen: Sind skalierbarer Mittler zwischen Geräten
  • Generative & Hybride KI-Tools: Zur Automatisierung der Auswertung und Entscheidungsfindung.

Voraussetzung für die Anwendung:

  • skalierbare IT-Infrastruktur notwendig.
  • Schnittstellen (APIs/EDI) vorhanden, um Daten zwischen Systemen und Partnern fließen zu lassen
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Welche Aspekte müssen für eine erfolgreiche Umsetzung von Data Analytics Projekten in Unternehmen über die rein technologische Sicht hinaus berücksichtigt werden?

A
  • Strategischer Fokus: Datenanalysen dürfen kein Selbstzweck sein, sondern müssen einen echten Kundennutzen oder Mehrwert bieten.
  • Datenkompetenz (Data Literacy): Mitarbeiter müssen fähig sein, Daten strategisch zu nutzen und zu interpretieren.
  • Unternehmenskultur: Es braucht eine Offenheit für Veränderungen, Experimente (“Trial & Error”) und interdisziplinäre Zusammenarbeit.
  • Sicherheit & Vertrauen: Datenschutz und verlässliche Sicherheitskonzepte sind essenziell, um das Vertrauen der Nutzer zu gewinnen.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Sentiment Analytics

A
  • ermittelt mithilfe von Natural Language Processing und Machine Learning, ob ein Text positiv, negativ oder neutral ist, indem es Inhalten gewichtete Stimmungswerte zuweist
  • Unternehmen nutzen diese Technologie, um öffentliche Meinungen, die Markenreputation und Kundenerfahrungen effizient auszuwerten und fundierte Marktforschung zu betreiben
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Datenanalyse/ Data Science: Was und Ziel

A
  • Ermittlung statistischer Messgrößen aus empirisch gewonnenen Daten
  • Ziel der Datenanalyse: Erkenntnisgewinn aus vorhandenen Daten, Informationen ableiten, die relevant für spezifische Problemstellungen haben
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Datenanalyse/ Data Science Team

A

Data Scientist:

  • Abstimmung mit Domänenexperten
  • Entwicklung Use Cases
  • Explorative Datenanalyse
  • Maschine Learning

Data Engineer:

  • Aufbau und Pflege von Daten-Infrastruktur und Cloud-Lösungen
  • Maschine-Learning Model Deployment

Data Analyst:

*Identifikation & deskriptive Analyse von strukturierten Daten

  • Visualisierung und Dashboarding

Business Stakeholder:

  • Definition & Priorisierung von Anwendungsfällen
  • Evaluierung des Erfolgs von Data Science Projekten
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Business Intelligence

A
  • technologiegetriebener Prozess zur Sammlung, Analyse und Visualisierung von Daten, der Entscheidungsträgern fundierte Informationen für die Unternehmenssteuerung liefert
  • Ziel: durch diese Erkenntnisse Geschäftsabläufe zu optimieren sowie Kostensenkung, Risikominimierung und Wertsteigerung zu realisieren.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Data Mining

A
  • Prozess der Gewinnung aussagekräftiger Informationen aus großen Datensätzen, bei dem mathematische Analysen genutzt werden, um komplexe Muster und Trends aufzudecken, die mit herkömmlichen Methoden nicht erkennbar wären.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Methoden des Data Mining:

A
  • Clusteranalyse -> Gruppierung von Objekten aufgrund von Ähnlichkeiten
  • Klassifikation -> Elemente werden den bestehenden Klassen zugeordnet
  • Assoziationsanalyse -> Identifizierung von Zusammenhängen und Abhängigkeiten in den Daten
  • Regressionsanalyse -> Identifizierung von Beziehungen zwischen Variablen
  • Ausreißer Erkennung -> Identifizierung von ungewöhnlichen Datensätzen
  • Korrelationsanalyse -> Untersucht die Beziehung zwischen zwei Variablen
  • Zusammenfassung -> Transformation des Datensatzes in eine kompaktere Beschreibung ohne wesentlichen Informationsverlust
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Machine Learning/ KI

A
  • Teilgebiet der Künstlichen Intelligenz, das Computersystemen durch Algorithmen ermöglicht, menschliche Lernprozesse nachzuahmen und Fähigkeiten selbstständig zu entwickeln, anstatt starr programmiert zu werden
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Methoden Machine Learning

A
  • Supervised Learning: Das Modell lernt mithilfe von bekannten Beispieldaten eine Funktion, um neue, unbekannte Daten selbstständig vordefinierten Klassen (z. B. Kreditwürdigkeit) zuzuweisen.
  • Unsupervised Learning: Der Algorithmus sucht in den Daten eigenständig nach unbekannten Mustern und Regeln, um diese dynamischen Clustern ohne vordefinierte Kategorien zuzuordnen.
  • Reinforcement Learning: Dieses Verfahren nutzt ein Prinzip von Belohnung und Bestrafung, bei dem das System durch positives oder negatives Feedback auf seine Aktionen lernt (z. B. Bildzuordnung).
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Informationsqualität

A
  • misst, wie verlässlich Daten sind – also ob sie fehlerfrei, aktuell, vollständig und glaubwürdig die Realität abbilden
  • Gleichzeitig müssen die Daten für den Nutzer praktisch brauchbar sein, indem sie gut zugänglich, verständlich und für die konkrete Aufgabe relevant sind.

–> Zugänglichkeit, Angemessener Umfang, Glaubwürdigkeit, Vollständigkeit, Übersichtlichkeit, Einheitliche Darstellung, Bearbeitbarkeit, Fehlerfreiheit, Objektivität, Relevanz, Aktualität,…

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

ETL-Prozess

A
  • Extract, Transform, Load
  • extrahiert geschäftsrelevante Daten aus verschiedenen Quellen, bereinigt und transformiert sie durch Aggregation oder Umformung in ein Zielformat und lädt sie anschließend zur Bereitstellung in ein Data Warehouse
  • Prozess sowohl eine hohe Datenqualität (Vollständigkeit, Korrektheit) sichern als auch performant gestaltet sein, um Latenzzeiten zu minimieren und Daten zunehmend in Echtzeit verfügbar zu machen
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

OLAP-Datenbanken

A
  • Online Analytical Processing
  • Technologie zur Unterstützung von Business Intelligence, die große Datenmengen statt in zweidimensionalen Tabellen in mehrdimensionalen „Cubes“ strukturiert, um komplexe Abfragen und Berichte zu optimieren
  • Durch spezifische Operationen wie Slicing (Scheiben ausschneiden), Dicing (Teilwürfel betrachten) sowie Drill-Down und Roll-Up (Detailgrad verändern) können Nutzer die Daten flexibel aus verschiedenen Perspektiven analysieren und verborgene Muster erkennen
17
Q

Data Warehousing

A

Sammeln, Aufbereiten und Speichern von Daten aus verschiedenen Quellen in einem zentralen Data Warehouse zur Analyse und Entscheidungsunterstützung

  • bezeichnet den gesamten Prozess der Datenbeschaffung, Transformation und Qualitätssicherung aus verschiedenen Quellen zur Speicherung in einem zentralen System für analytische Zwecke
  • resultierendes Data Warehouse dient als subjektorientierter, integrierter und dauerhafter Datenbestand, der Managemententscheidungen durch fundierte Planungs- und Controllinggrundlagen unterstützt.
18
Q

Visualisierung als „HMI“ (Human-Machine Interface) bei Data Analytics

A
  • effektive Datenvisualisierung erfordert zunächst ein tiefes Verständnis der Daten und der Zielgruppe, um eine klare Botschaft zu formulieren und die Informationen auf das Wesentliche zu reduzieren
  • anschließende Umsetzung sollte durch die Wahl der passenden Darstellungsform sowie durch Einfachheit und Klarheit erfolgen, wobei auf unnötige visuelle Effekte verzichtet wird, um die Kerninformationen in den Vordergrund zu rücken
19
Q

Power BI, Phyton & Co wann nutzen?

A
  • Power BI, wenn Sie Ergebnisse visualisieren und präsentieren wollen (Storytelling)
  • Python, wenn Sie Muster finden (Mining), Vorhersagen treffen (ML) oder Daten tiefgreifend bereinigen (ETL) müssen
20
Q

Bearbeitungsschritte Daten durch OLAP-System

A
  • Slicing / Slicen: Ausschneiden von einzelnen Scheiben
    –> Umsatz nach Jahr, Region und Produkt
  • Dicing / Dicen: betrachtet das nur einen Ausschnitt aus dem Würfel
    –> Umsatz nur für 2025 über alle Regionen & Produkte
  • Drill-Down: “Hineinzoomen” in den Würfel auf eine niedrigere Hierarchiestufe
    –> Jahr → Quartal → Monat → Tag
  • Roll-Up: Gegenteil des Drill-Down
    –> Monat → Quartal → Jahr
21
Q

Arten der Datenanalyse:

A

Deskriptive Datenanalyse:

  • Totalerhebung oder generell ein Datensatz vor, so ist es die Aufgabe der Datenanalyse, die in
    den Einzeldaten enthaltene Information zu verdichten und diese so darzustellen, dass Wesentliches deutlich wird
  • Dazu werden
    Tabellen, graphische Darstellungen und charakteristische Maßzahlen verwendet
  • Datenanalyse hat ausschließlich beschreibenden
    Charakter (deskriptive Statistik)

Inferentielle Datenanalyse:

  • Stichprobenerhebung (Teilerhebung), Schwerpunkt liegt auf der Übertragung der Stichprobenbefunde auf die Grundgesamtheit auf der Basis eines statistischen Modells
  • Wesentliche Verfahren der
    Inferenzstatistik sind Punktschätzung, Intervallschätzung und Hypothesenprüfung (statistische Testverfahren)
  • Zur Datenanalyse
    gehört in diesem Fall z.B. die Angabe von Punktschätzwerten oder die Angabe von Konfidenzintervallen für Parameter der Grundgesamtheit

Explorative Datenanalyse:

  • verfügbare Datenmenge verarbeitet mit der Absicht, Strukturen in den
    Daten oder einfache bzw. überschaubare Zusammenhänge hervortreten zu lassen oder auf diese Weise erst zu entdecken. Im
    Gegensatz dazu ist das Ziel der konfirmatorischen Datenanalyse die

Konfirmatorischen Datenanalyse

  • Gegensatz zur explorativen
  • Überprüfung von Zusammenhängen (z.B. Regressionsanalyse
    oder der LISREL-Ansatz (LISREL) der Kausalanalyse)

Immer: univariater, bivariater und multivariater Datenanalyse