Alle Artikel mit dem Schlagwort: big data

SQL: Schlüsseltechniken lernen und verstehen

Mit „Einführung in SQL“ haben wir wieder einmal einen echten O’Reilly-Klassiker in Neuauflage: Auf 378 Seiten könnt ihr frisches Profiwissen vom SQL-Profi und Schlagzeuger Alan Beaulieu lernen. Die 91-Meilen-Challenge in der Disziplin „Gehen“ habe ich spielend geschafft, das zumindest meldet meine Garmin-Sportuhr nach dem ersten Quartal 2021. Logisch: Spazieren ist (nicht nur bei mir) zu einem der beliebtesten Pandemie-Hobbys aufgestiegen, gleich nach Haare raufen, fluchen und Schokolade essen. Glücklicherweise finden wir O’Reillys weiterhin unsere Erfüllung darin, Wissen aufzusaugen, aufzubereiten und weiterzugeben: in bislang vier Novitäten, rund 30 weitere Fachbücher folgen für das Jahr 2021. Und mit unserer aktuellen Neuvorstellung kann ich nun auch selbst meine gelaufenen Kilometer speichern, auswerten und abfragen. (Erst einmal leg ich vermutlich aber eine Datenbank über die, ihr wisst schon, Haare, Flüche und Schokoladentafeln an.) SQL von der Pike auf lernen Jedenfalls: In Einführung in SQL vermittelt Alan Beaulieu euch das Handwerkszeug, um Datenbankanwendungen zu schreiben, administrative Aufgaben durchzuführen und Berichte zu erstellen. Er liefert Strategien zum Umgang mit großen Datenmengen und zeigt, wie sich mit SQL auch Daten von verschiedenen …

E-Book Python Machine Learning Tensorflow

E-Book-Deals im Oktober: Drei Fachbücher mit hoher KI- und Coding-Kompetenz

Mit „Python von Kopf bis Fuß“, „Einführung in TensorFlow“ und „Machine Learning Kochbuch“ könnt ihr im Oktober gleich drei E-Books 50 % günstiger bekommen. Schließlich konnten wir bei der Auswahl aus einer ganzen Fülle von KI-/Data-Science-/Python-Titeln schöpfen, die wir innerhalb der vergangenen Jahre veröffentlicht haben. 90 Millionen Euro Fördersumme für KI-Projekte von der Deutschen Forschungsgemeinschaft hier, ein Investitionspaket in Höhe von einer Milliarde Euro für „Spitzentechnologie“ – insbesondere für Anwendungen der Künstlichen Intelligenz – vom Land Bayern dort: Vorhaben, KI-getriebene Forschungsprojekte oder Gründungsideen zu unterstützen, gibt es (nicht nur hierzulande) immer häufiger. Sie sollen den Erfolgsideen aus dem Silicon Valley, aber auch anderen Technologieregionen der Welt, etwas entgegensetzen. Ok, Google: Spracherkennung statt Schachcomputer Nicht nur der Politik, auch einer breiten Masse erschließen sich die Vorteile von KI-Anwendungen, seit diese auch in unserem Alltag greifbar sind. Mit Bilderkennung aus der Maschine können MRT-Aufzeichnungen viel schneller ausgewertet und Patienten zügiger behandelt werden? Mikroskopische Aufnahmen noch präziser dargestellt und in riesigen, weltumspannenden Datenbanken abgeglichen werden? Eine App mit Spracherkennung kann uns helfen, mit der neuen, spanisch-sprechenden Kollegin zu plaudern? Und dass …

Einführung in TensorFlow

Neuerscheinung: Einführung in TensorFlow

Edmond de Belamy ist ein großartiger Künstler – und das ganz ohne blutige Legende (van Gogh), omnipräsentes Motiv (Blaue Reiter) oder unappetitliche Installationen (Beuys). Ein Pionier –  ohne Exzesse, dafür mit viel Disziplin und Lernwillen. Einer, der sein finanziell bislang erfolgreichstes Kunstwerk nicht mit einer Signatur, sondern mit min G max D Ex[log(D(x))]+Ez[log(1-D(G(z)))]  unterzeichnete. Und der im Aktionshaus Christie’s 432.500 Dollar eingenommen, sie aber nicht persönlich abgeholt hat.              Sieh dir diesen Beitrag auf Instagram an                     D-3 before the auction. The stress is getting quite important right now. See you on Thursday for the verdict. – #christies #auction #belamy #obvious Ein Beitrag geteilt von OBVIOUS (@obvious_art) am Okt 22, 2018 um 9:55 PDT Künstlich statt künstlerisch Denn, und diese Nachricht schaffte es kürzlich in die internationale Presse: de Belamy ist selbst eine Kunstfigur, die für das französische Künstlerkollektiv Obvious steht. Sein Name stellt einen Bezug zum KI-Forscher Ian Goodfellow her, und gemalt hatte das in London versteigerte Bild kein mit besonderen Begabungen …

Data, Data, Data: Berlin Buzzwords 2016

Die Berlin Buzzwords begleiten wir inzwischen schon seit der ersten Ausgabe im Jahr 2010. Nun steht – wie immer Anfang Juni – schon die siebte Ausgabe der (Big-)Data-Konferenz vor der Tür, auf die wir Euch gerne wieder hinweisen möchten. (Und Tickets verlosen.) Die Keynotes Als Keynotespeaker erwarten Euch in diesem Jahr  Diane Mueller-Klingspor und Neha Narkhede: Diane Mueller-Klingspor ist eine langjährige „Pythonista“ und Open Source-Verfechterin. Momentan arbeitet sie als Community Lead bei Red Hat an der Application-Platform OpenShift Origin. Diane engagiert sich zudem in der Maker-Community und ist Gründerin von GetMakered Labs, einer mobilen Makerspace-Kollaboration, die Kinder aller Altersstufen inspirieren und ermutigen soll, sich mit neuen Technologien auseinanderzusetzen. Ihre Keynote findet am 6. Juni statt und trägt den Titel: „Inspiring the Next Generation to Run Away and Join Our Software Circus“. Neha Narkhede ist Mitgründerin und CTO von Confluent. Zuvor war sie für die Petabyte Scale Streaming Infrastruktur von LinkedIn zuständig, die mehrere Millionen Datenvorgänge unterstützt. Zudem ist sie eine der EntwicklerInnen von Apache Kafka, PMC Mitglied und Projekt-Comitterin. Neha startet Tag 2 der Buzzwords unter dem Titel: „Application development …

Interview: Mit weniger Daten mehr erreichen

Big Data, Data Mining, datenbasiertes Marketing: In den Ohren der Wirtschaft klingen diese Buzzwords verheißungsvoll, in den Ohren der Kunden nervig bis beängstigend. Und die Erfolgsaussichten? Wir haben uns mit Thomas Ramge, Technologie-Korrespondent des Magazins brand eins, Buchautor von „Smart Data“ und Keynotespeaker der Konferenz data2day unterhalten. oreillyblog: Herr Ramge, in den vorangegangenen Gesprächen, die wir u.a. hier im oreillyblog zu Big Data führten, wurde immer deutlich: Das Schlagwort Big Data hat nicht nur eine Dimension. Wie definieren Sie es? Die Gartner-Definition mit ihren drei (oder erweitert vier oder fünf) Dimensionen, an denen wir uns alle seit fünf Jahren abarbeiten, ist ja nicht falsch. Rasch wachsende Datenvolumen, Verarbeitungsgeschwindigkeit und Varianz erlauben der Massendaten-Analyse, die Vergangenheit und Gegenwart besser zu verstehen, Prozesse zu optimieren und in die Zukunft gerichtete Management-Entscheidungen auf der Grundlage von besseren Prognosen zu treffen. Das Problem am Begriff Big Data ist, dass er durch das „Big“ die Dimension der Größe zu stark betont. Im Kern geht es ja im Business-Kontext darum, Daten zu nutzen, um Wertschöpfung zu verbessern. Es gibt natürlich Unternehmen, für …