TOM, (OSINT) Flashcards

(43 cards)

1
Q

Privacy Enhancing Technologies (PETs) =

A

Technologien die Datenverarbeitung nach maximalen Datenschutz verarbeiten, ohne Zweck der Datenbearbeitung übermässig einzuschränken.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Ziel von PETs

A
  • Gesetzliche Vorgaben wie Datensparsamkeit technisch unterstützen
  • Zweckbindung und Transparenz gewährleisten
  • Vertraulichkeit sicherstellen
  • Risiken für betroffene Personen minimieren
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Warum PETs?

A

Datenschutzgesetze (DSG, DSGVO) verlangen technische und organisatorische Massnahmen (TOM)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Entstehung der Datenschutz-Risiken:

A
  • nicht aus “klassischen Hacks”
  • sondern durch problematische Datenverarbeitung
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Grundsatz von PETs

A

Risiken auf technischer Ebene bereits bei Design vermindern

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Typische Risiken ohn PETs:

A
  • Re-Identifkation in anonymisierten Daten
  • Profilbildung durch Tracking
  • Datenabfluss an Dritte bei Cloud-Speicherung
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

PETs Kategorien

A
  • Datenminimierung und Maskierung
  • Kontrolle und Transparenz
  • Anonyme Nutzung
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Datenminimierung und Maskierung =

A

so früh wie möglich anonymisieren und pseudonymisieren
Bsp: Logging ohne IP-Adresse, nur mit Hashes (schützt vor Manipulation)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Kontrolle und Transparenz =

A

Privacy Dashboards der Daten und Zwecke für Nutzer
Bsp: Google «My Activity», Consent-Management-Systeme

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Anonyme Nutzung =

A

Technische Verfahren für anonyme Kommunikation und Nutzung
Bsp: TOR/Onion Routing für anonymes Surfen, Mix-Nets für anonyme Kommunikation

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Geeignete PETs

A
  • Differential Privacy
  • Geo-Fencing / Blacklisting
  • Thresholding
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Differential Privacy =

A

statistisches Rauschen verhindert Rückschluss auf einzelne Wege.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Geo-Fencing / Blacklisting =

A

Bereiche mit hohem Risiko (Krankenhäuser, Wohnviertel) werden von Auswertung ausgeschlossen. Wird nicht in öffentlichen Berichten gezeigt

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Thresholding =

A

Schwelle ab wann es publiziert werden darf. Bspw. Strassenmessung 50 Autos/Tag

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

DSGVO Art. 32 und DSG Art. 8 Abs. 1 Grundsatz:

A

Personendaten müssen durch angemessene technische und organisatorische Massnahmen (TOM) gegen unbefugte Bearbeitung geschützt werden.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Organisatorische Massnahmen:

A
  • Schulungen & Awareness-Programme
  • Rollen und Verantwortlichkeiten definieren
  • Notfallpläne und 24/7 Incident Response
  • Compliance-Management
  • Strenge Zutrittskontrollen
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

Technische Massnahmen

A
  • End-to-End Verschlüsselung
  • Zugriffskontrollen und Protokollierung
  • Pseudonymisierung und Anonymisierung
  • Sichere Datenarchitekturen
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

TOMs:

A
  • Zutrittskontrolle (Physischer Schutz)
  • Zugangskontrolle (Authentifzierung, Passwortschutz, 2FA)
  • Zugriffskontrolle (RBAC)
  • Weitergabekontrolle
  • Eingabekontrolle
  • Auftragskontrolle
  • Verfügbarkeitskontrolle
  • Gebot der Datentrennung (unterschiedliche Zwecke, werden getrennt verarbeitet)
19
Q

Zuganskontrolle und Sicherheit

A
  • Zugangskontrolle
  • Verschlüsselung und Übertragung
  • Dokumentation und Nachverfolgung
20
Q

Verfügbarkeit und Sicherheit

A
  • Verfügbarkeitskontrolle und Belastbarkeit
  • Network Security
  • Privacy by Design/Default
  • Monitoring und response
21
Q

Internationale Zertifizierungen

A
  • ISO/IEC 27001 – Informationssicherheits-Management
  • ISO/IEC 27701 – Privacy Information Management
  • SOC 1, SOC 2, SOC 3 – Service Organization Controls
  • C5 (BSI) – Cloud Computing Compliance
22
Q

Privacy by Design =

A

Rahmenkonzept, das die Integration von Datenschutzaspekten in die Gestaltung und Entwicklung von Produkten, Dienstleistungen und Systemen fördert

23
Q

Privacy by Design umfasst

A
  • Proaktive Massnahmen, um Datenschutzmassnahmen von Anfang an die Architektur dieser Entitäten einzubetten.
  • Datenschutzeinstellungen standardmässig auf datenschutzfreundlichste Option
24
Q

Privacy by Design soll Einzelpersonen…

A

standardmässig schützen. Weniger datenschutzfreundliche Einstellungen müssen aktiv gewählt werden.

25
DSGVO Artikel 25: Datenschutz durch Technikgestaltung --> Grundsatz...
Grundsatz der Datenvermeidung und Datensparsamkeit
26
Datenvermeidung und Datensparsamkeit (DSGVO Art. 25)
- Datenminimierung – Verarbeitung personenbezogener Daten minimieren - Pseudonymisierung – Personenbezogene Daten möglichst schnell pseudonymisieren - Transparenz – Transparenz bezüglich Funktionen und Verarbeitung personenbezogener Daten - Überwachung – Ermöglichung für betroffene Daten zu überwachen - Sicherheitsfunktionen – Verwantwortliche sollen Sicherheitsfunktionen schaffen und verbessern
27
DSG Artikel 7: Privacy by Design Grundsatz:
Datenschutz durch Technik und datenschutzfreundliche Voreinstellungen
28
DSG Artikel 7: Privacy by Design Absätze
Absatz 1: Verpflichtung zur Ausgestaltung --> Verantwortliche müssen TOMs nach Datenschutzvorschriften einhalten bei Datenbearbeitung Absatz 2: Angemessenheit der Massnahmen --> Angemessenheit der TOMs, Stand der Technik Absatz 3: Datenschutzfreundliche Voreinstellungen --> geeignete Voreinstellungen nach Verwendungszweck nötiges Mindestmass
29
Open Source Tool with Privacy by Desgin
Databunker
29
Privacy by Design - Technische Umsetzung
- Anonymity ** Onion Routing (TOR) ** Anonymous Credential (Zero-knowledge Proofs) ** Anonymisierung (k-Anonymität, l-Diversität) - Privacy preserving Computations ** Search over encrypted Data (keyword, order-preserving) ** Homomorphic Encryption ** Secure Multi-party Computation - Privacy Policies ** Private information Retrieval (PIR) ** Differential Privacy Policy-based Access Control
30
OSINT =
Open Source Intelligence
31
SOCMINT =
Social media Intelligence
32
SIGINT =
Signal Intelligence (bspw. abhören)
33
HUMINT =
Human Intelligence (Mensch als Quelle, gefährlich für diese Mensche die etwas verraten)
34
IMINT =
Imagery Intelligence (Satelliten-Bilder von offenen und geschlossenen Quellen)
35
OSINT und SOCINT wird betrieben von:
- Nachrichtendiensten - Strafverfolgung - Personalgewinnung - Journalismus
36
Staatliche Sichten:
- Strafverfolgung (Ereignisse in der Vergangenheit aufklären) - Gefahrenabwehr (zukünftige Ereignisse verhindern bspw. Terrorismus) - Extremismus-Monitoring (häufig durch Nachrichtendiesnte) - Desinformations-Monitoring --> KI macht es immer schlimmer und schwieriger
37
Was sind die bösen Seiten?
- Cyber-Kriminalität - Organisierte Kriminalität - Cyber Grooming (Nachstellung von Kindern) - Extremistische Gruppen - Autoritäre Regime
38
Beispiel Quellen für SOCINT:
- Snapchat als Heatmap --> Explosion von Beirut aus diversen Winkeln - Strava --> Routen bspw. von Soldaten oder auch Personenschützer
39
"Spielregeln" in der Arbeit mit OSINT
- Zureichende Gründe für die Recherche - Integrität der Motive - Verhältnismässigkeit und Nachvollziehbarkeit der Methoden - Äussere Kontrolle der Ergebnisse - Überwindung der Privatheitsschranken als Ultima Ratio
40
Intelligence-Cycle:
1. Planung (Informationsbedarf, Grad der Recherche, Quellen) 2. Recherche 3. Analyse 4. Schlussfolgerung
41
Tool bzw Automatisierung ersetzt nicht:
- Fragestellung bzw. Zielsetzung - Das logische Denken des Analysten - Nachvollziehbarkeit und händische Reproduktion der Ergebnisse - Rechtliche Voraussetzungen - Überprüfung der Authenzität der Eregebnisse
42
Gibt es oft klare Hinweise im Internet auf mögliche bevorstehende Daten?
"Leaking Behavior" 71% offline 29% online Mobiliserung 4-7% online Klare Hinweise sind im Internet of NICHT sichtbar