Alle Artikel mit dem Schlagwort: überwachung

IT, Politik und Gesellschaft von A bis Z: Versuch eines Jahresrückblicks

Dass es erhebliche Wechselwirkungen zwischen IT, Politik und Gesellschaft gibt und zivilgesellschaftliches Engagement in diesem Themenbereich eine gute Idee ist, erkannte der Chaos Computer Club (CCC) bereits 1981. Drei Jahre später gründetete sich das Forum Informatikerinnen für Frieden und gesellschaftliche Verantwortung (FIfF), knapp 30 Jahre später wurde dank Edward Snowden jeder Hausfrau klar, dass es keine unpolitische Nutzung von Rechnern und Netzen gibt. Auch in diesem Blog haben wir uns schon öfters mit Themen jenseits von Coding und Systemadministration im stillen Kämmerlein befasst. Nun möchten wir zum ersten Mal einen informationstechnologisch-politischen Jahresrückblick wagen. Er wird nicht ohne Lücken und Fokussierung auf Deutschland, Europa und Nordamerika auskommen – weswegen wir schon jetzt um Nachsicht sowie Feedback mit Ergänzungsvorschlägen bitten. Da eine chronologische Auflistung noch komplizierter bzw. ausufernder gewesen wäre, haben wir uns für eine alphabetische Auflistung wichtiger Schlagworte entschieden. Los geht’s: A wie Abgasskandal Die Mitte September aufgedeckte Affäre um manipulierte Dieselfahrzeuge von VW war bzw. ist im Kern auch ein IT-Skandal. Die Abgaswerte konnten nämlich in der überwachten Testumgebung nur mit Hilfe einer speziellen Software und …

The Day We Fight Back & Safer Internet Day

Seit den Enthüllungen von Edward Snowden ist das Internet – so abgedroschen es klingt – nicht mehr, was es war. Snowden hat uns gezeigt, dass absolut jeder von uns voll umfänglich überwacht und ausspioniert wird. So voll umfänglich, wie es technische Möglichkeiten hergeben – ohne Hintergründe oder gar Begründungen (sollte es die überhaupt geben können). Die Geheimdienste – allein voran NSA – sammeln, speichern und verwenden schlichtweg alles, was ihnen in die Leitung kommt. Wer nach Snowdens Berichten eine Aufklärung erwartete, blieb bis heute ohne Antworten. Auch die Rolle anderer Geheimdienste und Staaten ist weitestgehend ungeklärt. Heute, am 11. Februar 2014, rufen daher verschiedene große Web-Organisationen und -Unternehmen wie die Electronic Frontier Foundation, Mozilla, Reddit, Tumblr, Piwik, BoingBoing, Amnesty International oder DuckDuckGo dazu auf, … gemeinschaftlich Flagge gegen die massenhafte Überwachung durch die NSA sowie andere Geheimdienste zu zeigen, die erfolgreichen SOPA- und PIPA-Blackouts gegen ein verschärftes Urheberrecht zu feiern und diese Aktion aus dem Januar 2012 als Vorbild für weitere zu nehmen, dem Programmierer & Hacker Aaron Swartz zu gedenken, der sich am 11. Januar …

False Positive, na und? – Data Mining, Überwachungsstaat und der ganze Rest (4/4)

Ein Gastbeitrag von: Christoph Henkelmann (Firmenseite, Blog) Redaktion: AP Wie bereits angekündigt wollen wir uns im letzen Teil dieser Blogreihe der Frage widmen, unter welchen Voraussetzungen, mit welchen Werkzeugen und welcher Literatur man selber zum Data Miner avancieren kann. Oder anders formuliert: Wie man am Privatrechner auf den Spuren der Großkonzerne und Geheimdienste dieser Welt wandelt. Für alle, die die bisherigen Posts verpasst haben: Hier noch mal die Links zu Teil 1 (Data-Mining 101, Data-Mining-Arten, Lernarten), Teil 2 (Hallo Wortvektor, hallo Spam!) und Teil 3 (Die 99%ige Sicherheit und der “auffällige” Bürger). Teil 4: Wie werde ich Data Miner? Um selber ein Data-Mining- und Machine-Learning-Projekt zu starten, sind zumindest Grundkenntnisse im Bereich Programmierung notwendig. Prinzipiell kann man jede Sprache benutzen, einige empfehlen sich allerdings besonders, weil es bereits effiziente Frameworks und Bibliotheken sowie viele Anwendungsbeispiele in der einschlägigen Fachliteratur gibt: R R ist eine Skriptsprache mit einem besonderen Fokus auf Statistik und Datenauswertung, was sie natürlich für Data Mining prädestiniert. Besonders geeignet ist R für Prototyping und für Einmalanalysen, bei denen die Geschwindigkeit nicht kritisch …

False Positive, na und? – Data Mining, Überwachungsstaat und der ganze Rest (3/4)

Ein Gastbeitrag von: Christoph Henkelmann (Firmenseite, Blog) Redaktion: AP Der Buzzword-Reigen ist entzaubert (Data-Mining 101, Data-Mining-Arten, Lernarten), ein konkreter Anwendungsfall ausführlich skizziert (Hallo Wortvektor, hallo Spam!) – Zeit für die philosophisch-politischen Überlegungen in dieser Blogreihe. Teil 3: Die 99%ige Sicherheit und der „auffällige“ Bürger Von Recall und Precision Wie gut sind nun moderne Data-Mining-Verfahren und Machine-Learning-Algorithmen? Haben wir ein magisches Computerorakel, das perfekt alle Entscheidungen treffen kann? Offensichtlich nicht: wir würden sonst ausschließlich Mails erhalten, die wir auch wirklich wollen. Außerdem wären Ärzte überflüssig, weil automatisierte Entscheidungssysteme immer die perfekte Diagnose stellten – und dank der wohlmeinenden Totalüberwachung gäbe es auch keine Verbrechen mehr. Der Teufel steckt im Detail. Man muss, möchte man die Güte eines Verfahrens einschätzen, verschiedene Kriterien und Zusammenhänge beachten. Gerne werden Angaben in den Raum geworfen wie „zu 99% korrekt“. Aber 99% von was? Zunächst einmal gibt es vier absolute Kennzahlen für das Ergebnis einer Data-Mining-Aktion. Wir bleiben beim Beispiel des Spamfilters: True Positives: Zu Recht (true) als Spam (positive) erkannte Daten: Spam wird als Spam identifiziert False Positives: Zu Unrecht (false) als …