Alle Artikel in: Merkwürdige Begriffe

Was ist BeagleBone?

Mit BeagleBone präsentierte Texas Instruments im April diesen Jahres eine 45 Dollar teure Entwicklerplatine, die zum Haupt­konkurrent für Raspberry Pi werden soll: Das Board „BeagleBone Black“ verfügt über eine 1 GHz ­starke CPU, 512 MB Arbeitsspeicher und 2 GB Festspeicher. Außerdem gibt es unter anderem Anschlüsse für eine MicroSD­-Karte, USB-, HDMI- und Netzwerkkabel. Damit ist BeagleBone deutlich leistungsfähiger und vielseitiger einsetzbar als das Arduino- oder Raspberry Pi-Board. Drüben bei Golem gab es zum Verkaufsstart eine präzise Auflistung aller technischen Details. Für unseren Elektronik-SpeziLektor Volker war jedenfalls ziemlich schnell klar, dass wir hier entsprechende Literatur liefern wollen, nein, müssen. Bei Maker Media USA ist im Oktober ein kleines Einführungs­büchlein erschienen. Die Übersetzung ist gerade abgeschlossen, jetzt kommen Korrektur & Satz – und ab Ende Januar 2014 ist es dann lieferbar. Was ist nun davon zu halten, dass ein kommerzieller Anbieter wie Texas Instruments in den Microcontroller-DIY-Markt einsteigt? Klar: Texas Instruments – Urgestein der Halbleiterindustrie – will auch etwas vom Kuchen des Maker-Marktes – und von dessen derzeitigem Boom profitieren. Man nahm die Erfahrungen, die Arduino und Raspberry Pi gebracht haben …

False Positive, na und? – Data Mining, Überwachungsstaat und der ganze Rest (3/4)

Ein Gastbeitrag von: Christoph Henkelmann (Firmenseite, Blog) Redaktion: AP Der Buzzword-Reigen ist entzaubert (Data-Mining 101, Data-Mining-Arten, Lernarten), ein konkreter Anwendungsfall ausführlich skizziert (Hallo Wortvektor, hallo Spam!) – Zeit für die philosophisch-politischen Überlegungen in dieser Blogreihe. Teil 3: Die 99%ige Sicherheit und der „auffällige“ Bürger Von Recall und Precision Wie gut sind nun moderne Data-Mining-Verfahren und Machine-Learning-Algorithmen? Haben wir ein magisches Computerorakel, das perfekt alle Entscheidungen treffen kann? Offensichtlich nicht: wir würden sonst ausschließlich Mails erhalten, die wir auch wirklich wollen. Außerdem wären Ärzte überflüssig, weil automatisierte Entscheidungssysteme immer die perfekte Diagnose stellten – und dank der wohlmeinenden Totalüberwachung gäbe es auch keine Verbrechen mehr. Der Teufel steckt im Detail. Man muss, möchte man die Güte eines Verfahrens einschätzen, verschiedene Kriterien und Zusammenhänge beachten. Gerne werden Angaben in den Raum geworfen wie „zu 99% korrekt“. Aber 99% von was? Zunächst einmal gibt es vier absolute Kennzahlen für das Ergebnis einer Data-Mining-Aktion. Wir bleiben beim Beispiel des Spamfilters: True Positives: Zu Recht (true) als Spam (positive) erkannte Daten: Spam wird als Spam identifiziert False Positives: Zu Unrecht (false) als …

Was ist funktionale Programmierung?

Zunächst ein für Laien nur schwer verständliches Programmierparadigma, das sich von prozeduralen oder objektorientierten Konzepten mehr oder weniger scharf abgrenzt. Und worum geht’s nun konrekt, ohne seitenlangen Ausflug in Richtung Lambda-Kalkül? Funktionaler Code sagt dem Computer in eleganter, knapper Form, WAS er tun soll anstatt ausführlich aufzulisten, WIE er Aufgaben zu erledigen hat. Basis der funktionalen Programmierung sind dabei rekursive Funktionen. Indem Funktionen höherer Ordnung eingesetzt werden (die andere Funktionen als Parameter verwenden oder als Ergebnis ausspucken – Mathe! Kopfschmerzen!), lassen sich ruckzuck komplexe, anpassungsfähige Computation Patterns kreieren. Im Gegensatz zu anderen Paradigmen sind bei der Funktionalen Programmierung Variablen feste Namen für bestimmte Werte – und nicht variable Namen für Speicherbereiche. Gerechnet wird auf Grundlage funktionaler Beschreibung, weswegen die Funktionale Programmierung auch dem Hauptparadigma der Deklarativen Programmierung zugeschlagen wird. Funktionale Programmierung gilt als schick, effizient und frei von „side effects“, ist jedoch nicht universell und in jedem Kontext einsetzbar. Neben rein funktionalen, extrem strengen Sprachen wie Haskell gibt es viele multiparadigmatische Sprachen mit funktionalen Ansätzen, darunter auch das immens populäre JavaScript. Wie man in dieser …

False Positive, na und? – Data Mining, Überwachungsstaat und der ganze Rest (2/4)

Ein Gastbeitrag von Christoph Henkelmann (Firmenseite, privates Blog). Redaktion: AP Nachdem wir im ersten Teil (Data-Mining 101, Data-Mining-Arten, Lernarten) die wichtigsten Grundbegriffe geklärt und die Vorgeschichte dieses Postings kurz beleuchtet haben, schauen wir uns heute Data Mining an einem konkreten Beispiel an: Es geht um die Filterung von E-Mails. Im dritten Teil wollen wir dann – soviel sei schon verraten – kritische Gedanken zur Zuverlässigkeit maschinenbasierter Entscheidungsysteme formulieren, wobei ein (hoffentlich nicht zu makabres) Gedankenspiel rund ums „Aussieben“ verdächtiger Personen eine zentrale Rolle spielen wird. Zunächst aber: Teil 2: Hallo Wortvektor, hallo Spam! Preprocessing Wie kann nun ein Algorithmus aus einer Liste von Einkäufen feststellen, welches Buch uns als nächstes interessieren könnte? Und aus dem Text einer Nachricht, ob es sich um nette Geburtstagsgrüße oder nervige Werbung für Potenzmittelchen handelt? Alle zuvor beschriebenen Analyseverfahren brauchen Daten in einer ganz speziellen Form, um etwas damit anfangen zu können. Das Preprocessing ist der wohl wichtigste Schritt beim Data-Mining und für die Qualität der Ergebnisse absolut entscheidend. Betrachten wir anhand eines ganz einfachen Beispiels, wie Daten präpariert werden …

False Positive, na und? – Data Mining, Überwachungsstaat und der ganze Rest (1/4)

Durch den Hype um „Big Data“ einerseits und den NSA-Abhörskandal andererseits sind Begriffe wie Data Mining, Machine Learning & Co. plötzlich in aller Munde. Oft wird aber nur oberflächlich diskutiert, die genauen technischen Abläufe sind unklar, die Möglichkeiten und Konsequenzen moderner Tools werden entweder verharmlost oder verteufelt. Der folgende, voraussichtlich vierteilige Gastbeitrag von „AppGuy“ Christoph Henkelmann (Firmenseite, privates Blog) soll dem etwas entgegensetzen und auf möglichst nüchterne Art zwei grundlegenden Fragen nachgehen: Wie kann man mit Hilfe von Computerprogrammen überhaupt aus Daten einen Sinn erarbeiten? Warum kann dieses „sinnvolle“ Arbeitsergebnis möglicherweise ungenau, unzuverlässig, gefährlich sein? Die Idee zu diesem Post entstand nach einem ähnlich gelagerten Vortrag von Christoph auf dem letzten Braincamp, der später noch ausgiebig privat diskutiert und schließlich in Teamarbeit ins oreillyblog überführt wurde. Teil 1: Data-Mining 101, Data-Mining-Arten, Lernverfahren Buzzword-Alarm! Zunächst schalten wir einen Gang zurück und betrachten, was sich hinter den inflationär gebrauchten Fachbegriffen eigentlich verbirgt: Big Data bedeutet schlicht und ergreifend, dass es sich um viele Daten handelt, die verarbeitet werden. Ansonsten geht es hier v.a. um Implementierung bzw. um eine Reihe …