Alle Artikel in: Technologie

Weniger schlecht programmieren – der „interaktive“ Selbsttest

Allen Planungsproblemchen und Prokrastinationsversuchen zum Trotz ist er tatsächlich fertig geworden: der vielleicht unorthodoxeste (und tollste) Coding-Ratgeber der Dekade, Kathrin Passigs und Johannes Janders „Weniger schlecht programmieren“. Offizieller Erscheinungstermin ist der 12.12., wir veröffentlichen bereits heute exklusiv das Einstiegskapitel – ein praktischer, „interaktiver“ Selbsttest, der binnen weniger Minuten Auskunft darüber gibt, ob man das Buch auch tatsächlich braucht, also eher dem Lager der suboptimalen Programmierer zuzurechnen ist. Ich tippe mal frech ins Blaue, dass bei einer beträchtlichen Anzahl von Menschen die innere Stimme tendenziell „ja“ sagen wird. ;-) Und übergebe nun an die Autoren: Antworten Sie ehrlich und ohne lange zu überlegen. Wenn Sie eine Antwortmöglichkeit gar nicht verstehen, machen Sie sich keine Gedanken, sondern wählen eine andere: Ich schreibe meine Programme … a) in Notepad. b) im Browser. c) in irgendwas anderem. Wenn etwas nicht funktioniert … a) poste ich eine Fehlerbeschreibung mit dem Titel „Hilfe!!!“ unter exakter Nennung aller verwendeten Hardwarekomponenten in einem passenden Forum. b) baue ich viele „print“-Zeilen ein, die mir den Inhalt von Variablen ausgeben. c) GDB Zur Versionskontrolle benutze …

Was ist BeagleBone?

Mit BeagleBone präsentierte Texas Instruments im April diesen Jahres eine 45 Dollar teure Entwicklerplatine, die zum Haupt­konkurrent für Raspberry Pi werden soll: Das Board „BeagleBone Black“ verfügt über eine 1 GHz ­starke CPU, 512 MB Arbeitsspeicher und 2 GB Festspeicher. Außerdem gibt es unter anderem Anschlüsse für eine MicroSD­-Karte, USB-, HDMI- und Netzwerkkabel. Damit ist BeagleBone deutlich leistungsfähiger und vielseitiger einsetzbar als das Arduino- oder Raspberry Pi-Board. Drüben bei Golem gab es zum Verkaufsstart eine präzise Auflistung aller technischen Details. Für unseren Elektronik-SpeziLektor Volker war jedenfalls ziemlich schnell klar, dass wir hier entsprechende Literatur liefern wollen, nein, müssen. Bei Maker Media USA ist im Oktober ein kleines Einführungs­büchlein erschienen. Die Übersetzung ist gerade abgeschlossen, jetzt kommen Korrektur & Satz – und ab Ende Januar 2014 ist es dann lieferbar. Was ist nun davon zu halten, dass ein kommerzieller Anbieter wie Texas Instruments in den Microcontroller-DIY-Markt einsteigt? Klar: Texas Instruments – Urgestein der Halbleiterindustrie – will auch etwas vom Kuchen des Maker-Marktes – und von dessen derzeitigem Boom profitieren. Man nahm die Erfahrungen, die Arduino und Raspberry Pi gebracht haben …

False Positive, na und? – Data Mining, Überwachungsstaat und der ganze Rest (3/4)

Ein Gastbeitrag von: Christoph Henkelmann (Firmenseite, Blog) Redaktion: AP Der Buzzword-Reigen ist entzaubert (Data-Mining 101, Data-Mining-Arten, Lernarten), ein konkreter Anwendungsfall ausführlich skizziert (Hallo Wortvektor, hallo Spam!) – Zeit für die philosophisch-politischen Überlegungen in dieser Blogreihe. Teil 3: Die 99%ige Sicherheit und der „auffällige“ Bürger Von Recall und Precision Wie gut sind nun moderne Data-Mining-Verfahren und Machine-Learning-Algorithmen? Haben wir ein magisches Computerorakel, das perfekt alle Entscheidungen treffen kann? Offensichtlich nicht: wir würden sonst ausschließlich Mails erhalten, die wir auch wirklich wollen. Außerdem wären Ärzte überflüssig, weil automatisierte Entscheidungssysteme immer die perfekte Diagnose stellten – und dank der wohlmeinenden Totalüberwachung gäbe es auch keine Verbrechen mehr. Der Teufel steckt im Detail. Man muss, möchte man die Güte eines Verfahrens einschätzen, verschiedene Kriterien und Zusammenhänge beachten. Gerne werden Angaben in den Raum geworfen wie „zu 99% korrekt“. Aber 99% von was? Zunächst einmal gibt es vier absolute Kennzahlen für das Ergebnis einer Data-Mining-Aktion. Wir bleiben beim Beispiel des Spamfilters: True Positives: Zu Recht (true) als Spam (positive) erkannte Daten: Spam wird als Spam identifiziert False Positives: Zu Unrecht (false) als …

False Positive, na und? – Data Mining, Überwachungsstaat und der ganze Rest (2/4)

Ein Gastbeitrag von Christoph Henkelmann (Firmenseite, privates Blog). Redaktion: AP Nachdem wir im ersten Teil (Data-Mining 101, Data-Mining-Arten, Lernarten) die wichtigsten Grundbegriffe geklärt und die Vorgeschichte dieses Postings kurz beleuchtet haben, schauen wir uns heute Data Mining an einem konkreten Beispiel an: Es geht um die Filterung von E-Mails. Im dritten Teil wollen wir dann – soviel sei schon verraten – kritische Gedanken zur Zuverlässigkeit maschinenbasierter Entscheidungsysteme formulieren, wobei ein (hoffentlich nicht zu makabres) Gedankenspiel rund ums „Aussieben“ verdächtiger Personen eine zentrale Rolle spielen wird. Zunächst aber: Teil 2: Hallo Wortvektor, hallo Spam! Preprocessing Wie kann nun ein Algorithmus aus einer Liste von Einkäufen feststellen, welches Buch uns als nächstes interessieren könnte? Und aus dem Text einer Nachricht, ob es sich um nette Geburtstagsgrüße oder nervige Werbung für Potenzmittelchen handelt? Alle zuvor beschriebenen Analyseverfahren brauchen Daten in einer ganz speziellen Form, um etwas damit anfangen zu können. Das Preprocessing ist der wohl wichtigste Schritt beim Data-Mining und für die Qualität der Ergebnisse absolut entscheidend. Betrachten wir anhand eines ganz einfachen Beispiels, wie Daten präpariert werden …

False Positive, na und? – Data Mining, Überwachungsstaat und der ganze Rest (1/4)

Durch den Hype um „Big Data“ einerseits und den NSA-Abhörskandal andererseits sind Begriffe wie Data Mining, Machine Learning & Co. plötzlich in aller Munde. Oft wird aber nur oberflächlich diskutiert, die genauen technischen Abläufe sind unklar, die Möglichkeiten und Konsequenzen moderner Tools werden entweder verharmlost oder verteufelt. Der folgende, voraussichtlich vierteilige Gastbeitrag von „AppGuy“ Christoph Henkelmann (Firmenseite, privates Blog) soll dem etwas entgegensetzen und auf möglichst nüchterne Art zwei grundlegenden Fragen nachgehen: Wie kann man mit Hilfe von Computerprogrammen überhaupt aus Daten einen Sinn erarbeiten? Warum kann dieses „sinnvolle“ Arbeitsergebnis möglicherweise ungenau, unzuverlässig, gefährlich sein? Die Idee zu diesem Post entstand nach einem ähnlich gelagerten Vortrag von Christoph auf dem letzten Braincamp, der später noch ausgiebig privat diskutiert und schließlich in Teamarbeit ins oreillyblog überführt wurde. Teil 1: Data-Mining 101, Data-Mining-Arten, Lernverfahren Buzzword-Alarm! Zunächst schalten wir einen Gang zurück und betrachten, was sich hinter den inflationär gebrauchten Fachbegriffen eigentlich verbirgt: Big Data bedeutet schlicht und ergreifend, dass es sich um viele Daten handelt, die verarbeitet werden. Ansonsten geht es hier v.a. um Implementierung bzw. um eine Reihe …