Alle Artikel mit dem Schlagwort: machine learning

Machine Learning

Kolophon #18: Machine Learning

Was hat Machine Learning mit Synthesizern zu tun? Wie trainiert man Algorithmen? Und warum helfen wir wahrscheinlich alle mit, Googles Intelligenz zu füttern? Für unsere neue Podcast-Folge Kolophon #18 spricht Tim Pritlove mit Oliver Zeigermann. „In den Neunzigern ging eigentlich gar nichts mit Künstlicher Intelligenz, das war sehr ernüchternd“, sagt unser Autor Oliver Zeigermann im Gespräch mit Tim Pritlove. Und ergänzt, dass er selbst auch desillusioniert war. Dabei brennt er seit früher Jugend für Daten und Code – und beschäftigt sich deshalb heute als Entwickler, Architekt, Berater und Coach mit Deep Learning, Neuronalen Netzen und Machine Learning.  Im Gespräch mit Tim Pritlove definiert Oliver die wesentlichen Begriffe, berichtet von Meilensteinen der AI und wie er diese persönlich erlebt hat und erklärt sehr anschaulich den Prozess des maschinellen Lernens. In dieser Podcast-Folge könnt Ihr unheimlich viel lernen – und gleichzeitig ist es ein bisschen so, als würdet Ihr in einer Kneipe sitzen und den beiden einfach nur beim Fachsimpeln und Anekdoten tauschen zuhören.  Unser unbedingter Hörtipp – zum Kolophon #18 geht es hier entlang.  Oliver Zeigermann hat …

machine learning

Überall Machine Learning!

Viele Menschen begegnen künstlicher Intelligenz vorrangig mit Angst. Dass sie uns falsch informiert, falsche Dinge vorschlägt, Inhalte vorenthält, Arbeit weg- statt abnimmt, irgendwann klüger ist als die Menschen selbst. Die Aufmerksamkeit für AI, neuronale Netze, Machine und Deep Learning steigt aber an – und die Zahl der Anwendungsfälle auch.  Ganz allgemein gesprochen zielt Machine Learning darauf ab, einen Rechner mit bestimmten Verfahren zu (mehr oder weniger) selbständiger Wissensaufnahme und -erweiterung zu animieren – auf dass er anschließend bestimmte Probleme deutlich besser lösen möge. Dieser Ansatz ist nicht neu, aber er wird immer populärer. Das bestätigt zum Beispiel eine Suchanfrage bei Google Trends. Oder ein Blick auf aktuelle IT- und Wirtschaftspublikationen. Aber auch bei der Lektüre anderer Fachmedien und ganz normaler Zeitungen scheint einen das Thema regelmäßig anzuspringen.   Städte leiser, Menschen gesünder machen Die Zeit berichtete Mitte November von einem neuen Versuch der Stadt New York, endlich den „Krieg gegen den Krach“ zu gewinnen. In a nutshell geht die Story so: NYC ist oft illegal laut, aber die städtischen Inspektoren können wenig ausrichten – vor allem, …

droidcon 2017

Wie Design zum Datenschutz beitragen kann: Ein Interview mit Ame Elliott

PGP-Schlüssel einrichten, Privacy-Settings verschärfen, Apps in Schach halten: In der Theorie ist uns klar, wie wir unsere Daten schützen (sollten). In der Praxis scheuen wir aber häufig vor komplizierten Menüs und nichtssagenden Akronymen zurück, schließen die Augen und lassen alles laufen. Die Designerin Ame Elliott hat sich genauer dieser Problematik angenommen. Statt zu empfehlen, man solle sich durchkämpfen, setzt sie auf benutzerfreundlicheres Design genau dieser Stellschrauben. In einem Interview am Rande der Konferenz droidcon  erzählt sie mehr.  Ame, du arbeitest an der Schnittstelle zwischen UX und Sicherheit – zwei Bereiche, die die meisten Menschen normalerweise gar nicht miteinander in Verbindung bringen. Kannst du uns ein bisschen darüber erzählen, was du machst und vor welchen Herausforderungen Du täglich stehst? Ich bin Design Director bei Simply Secure. Wir sind ein gemeinnütziges Unternehmen und sehen unsere Mission im Bereich Bildung. Wir entwickeln Ressourcen wie unsere Knowledge Base, ausgerichtet auf die Bedürfnisse von Praktikern – insbesondere Designern, Entwicklern und Forschern – die vertrauenswürdige Technologien aufbauen. Meine Arbeit besteht darin, Entwicklern zu helfen: Vor allem denen, die einen Security-Hintergrund haben und nun Fähigkeiten …

False Positive, na und? – Data Mining, Überwachungsstaat und der ganze Rest (4/4)

Ein Gastbeitrag von: Christoph Henkelmann (Firmenseite, Blog) Redaktion: AP Wie bereits angekündigt wollen wir uns im letzen Teil dieser Blogreihe der Frage widmen, unter welchen Voraussetzungen, mit welchen Werkzeugen und welcher Literatur man selber zum Data Miner avancieren kann. Oder anders formuliert: Wie man am Privatrechner auf den Spuren der Großkonzerne und Geheimdienste dieser Welt wandelt. Für alle, die die bisherigen Posts verpasst haben: Hier noch mal die Links zu Teil 1 (Data-Mining 101, Data-Mining-Arten, Lernarten), Teil 2 (Hallo Wortvektor, hallo Spam!) und Teil 3 (Die 99%ige Sicherheit und der “auffällige” Bürger). Teil 4: Wie werde ich Data Miner? Um selber ein Data-Mining- und Machine-Learning-Projekt zu starten, sind zumindest Grundkenntnisse im Bereich Programmierung notwendig. Prinzipiell kann man jede Sprache benutzen, einige empfehlen sich allerdings besonders, weil es bereits effiziente Frameworks und Bibliotheken sowie viele Anwendungsbeispiele in der einschlägigen Fachliteratur gibt: R R ist eine Skriptsprache mit einem besonderen Fokus auf Statistik und Datenauswertung, was sie natürlich für Data Mining prädestiniert. Besonders geeignet ist R für Prototyping und für Einmalanalysen, bei denen die Geschwindigkeit nicht kritisch …

False Positive, na und? – Data Mining, Überwachungsstaat und der ganze Rest (3/4)

Ein Gastbeitrag von: Christoph Henkelmann (Firmenseite, Blog) Redaktion: AP Der Buzzword-Reigen ist entzaubert (Data-Mining 101, Data-Mining-Arten, Lernarten), ein konkreter Anwendungsfall ausführlich skizziert (Hallo Wortvektor, hallo Spam!) – Zeit für die philosophisch-politischen Überlegungen in dieser Blogreihe. Teil 3: Die 99%ige Sicherheit und der „auffällige“ Bürger Von Recall und Precision Wie gut sind nun moderne Data-Mining-Verfahren und Machine-Learning-Algorithmen? Haben wir ein magisches Computerorakel, das perfekt alle Entscheidungen treffen kann? Offensichtlich nicht: wir würden sonst ausschließlich Mails erhalten, die wir auch wirklich wollen. Außerdem wären Ärzte überflüssig, weil automatisierte Entscheidungssysteme immer die perfekte Diagnose stellten – und dank der wohlmeinenden Totalüberwachung gäbe es auch keine Verbrechen mehr. Der Teufel steckt im Detail. Man muss, möchte man die Güte eines Verfahrens einschätzen, verschiedene Kriterien und Zusammenhänge beachten. Gerne werden Angaben in den Raum geworfen wie „zu 99% korrekt“. Aber 99% von was? Zunächst einmal gibt es vier absolute Kennzahlen für das Ergebnis einer Data-Mining-Aktion. Wir bleiben beim Beispiel des Spamfilters: True Positives: Zu Recht (true) als Spam (positive) erkannte Daten: Spam wird als Spam identifiziert False Positives: Zu Unrecht (false) als …