Big Data

Skillbyte Podcast #1: Künstliche Intelligenz – Funktionsweise und Anwendungsbeispiele aus der Praxis

In diesem Podcast geht es um das Thema: Künstliche Intelligenz – Funktionsweisen und Anwendungsbeispiele aus der Praxis.

// Teil 1 //
– Was ist künstliche Intelligenz überhaupt?
– Was ist Hype und was ist technische Innovation? Wie trennt man zwischen Hype und praktischer Anwendbarkeit für mein Unternehmen?

// Teil 2 //
– Anwendungsbeispiele aus der Praxis
1. Chatbots zur Reperaturannahme, Erkenntnissgewinn und Produktentwicklung
2. Klassifikation von Video-Rohmaterial bei multinationalen Medienunternehmen
3. GravityCV.com – Erkennung von strukturierten Daten in unstrukturierten Word/PDF Dateien für die automatisierte Datenübernahme

Abonnieren Sie diesen Podcast und besuchen Sie uns auf https://www.skillbyte.de

Feedback und Fragen gerne an podcast@skillbyte.de

Maurice KnoppSkillbyte Podcast #1: Künstliche Intelligenz – Funktionsweise und Anwendungsbeispiele aus der Praxis
Mehr

Churn prediction — So funktioniert der Booster für Ihr Business!

Dieser Artikel richtet sich sowohl an technisch versierte als auch businessorientierte LeserInnen, die gerne verstehen möchten, was genau Churn Prediction ist, und warum es für digital aufgestellte Unternehmen (oder solche, die es werden wollen) zum essentiellen Werkzeug wird. Wir werden zunächst eine Definition erstellen, anschließend den geschäftlichen Wert der Churn Prediction an einem interaktiven Beispiel erläutern, und zum Schluss die zugrundeliegenden Modelle beleuchten.

Moritz GruberChurn prediction — So funktioniert der Booster für Ihr Business!
Mehr

Übersicht über das Apache Hadoop Ökosystem

Die Apache Hadoop Technologie erfreut sich einigen Jahren sowohl als On-premise Installation als auch als Cloud Lösung großer Beliebtheit bei Unternehmen. Google, Facebook, AOL, Baidu, IBM, Yahoo und viele Unternehmen setzen auf die bewährten Werkzeuge des Hadoop Ökosystems im die eigenen Daten zu extrahieren, aufzubereiten und auszuwerten. Diese Zusammenstellung von einzelnen Komponenten zur Hortonworks Apache Hadoop Distribution funktioniert analog zu der Zusammenstellung vieler vieler open-source Einzelwerkzeuge zu einer GNU/Linux Distribution.

Apache Hadoop selbst ist eine Sammlung (Framework) von open-source Softwarekomponenten, welche zusammen die Entwicklungen von Softwarellösungen ermöglichen die Probleme mit großen Datenmengen und viel Rechenleistung lösen können. Verteilte Datenhaltung und verteiltes Rechnen wird meist auf Rechnerverbünden (Clustern) aus Standardhardware (PC, Server) durchgeführt. Alle Hadoop Module sind so entwickelt worden, dass Hardwareversagen jederzeit berücksichtigt wird und von den Modulen selbst abgefangen werden kann – ein Job, der auf einem Rechner ausgeführt wurde bei dem ein Defekt eingetreten ist, wird automatisch auf einem anderen, verfügbaren Knoten nochmals gestartet, so dass für den Endnutzer kein Ausfall sondern allenfalls eine kurze Verzögerung bemerbar ist.

Mit diesem Blogartikel möchten wir zunächst einen Überblick über die Hadoop Kerntechnologien und das darauf aufbauende Ökosystem vermitteln. Anschließend gehen wir auf einzelne, wichtige Bausteine mit Schlüsselfunktionen nochmals einzeln ein. Nach dem Lesen des Artikels haben Sie einen umfassenden Überblick über die wichtigsten Apache Hadoop Komponenten.

Maurice KnoppÜbersicht über das Apache Hadoop Ökosystem
Mehr

Daten perfekt visualisieren

Visualisierung nimmt beim Thema Big Data eine Schlüsselrolle ein. In der Mehrzahl der Projekte steht am Ende eines datengetriebenen Prozesses die Visualisierung des Ergebnisses. Daten müssen verständlich und nachvollziehbar dargestellt werden um letztlich strategische und operative Entscheidungen des Managements zu unterstützen. In diesem Beitrag möchten wir Werkzeuge vorstellen die sich

  1. für die Erstellung von optisch ansprechenden, einmaligen oder wiederkehrenden Berichten, (etwa Verkaufzahlen nach Regionen auf Tagesbasis, Zuschauerverteilungen und Marktanteile des gestrigen Sendetages oder Voraussagen zur zukünftigen Geschäftsentwicklung)
  2. für die Visualisierung bei der explorativen Datenanalyse (z. B. zur Verdeutlichung eines Sachverhalts. Das Clustering von Wörtern eines Textes – etwa zur Erzeugung einer visuellen Zusammenfassung als Word-Cloud oder die graphische Ausgabe (plotting) bei der AdHoc-Analyse einer (SQL-,CSV-) Datenquelle) und
  3. für die Darstellung von (live) Charts innerhalb von Webanwendungen eignen (Dashboards, damit geschäftskritische Kennzahlen – etwa der Prozentsatz an Ausschussware am Ende einer Produktionslinie oder Detailauswertungen zum Webseiten-Traffic mit einer Software wie Google Analytics).

Im folgenden werden wir einige Werkzeuge vorstellen, die sich für alle drei Anwendungsfälle eignen.

Maurice KnoppDaten perfekt visualisieren
Mehr

Must-have Ressourcen, Skills und Techniken für Data Engineers und Data Scientists

Nachdem wir in den Artikeln „Onboarding neuer IT-Mitarbeiter (DevOps, Big Data, Developer)“ und „Tutorial: IT-Basiswissen für DevOps, Big Data, Developer“ die grundlegenden Themen für neue IT-Fachkräfte vorgestellt und ein Tutorial zum Erlernen dieses Basiswissens gezeigt haben, möchten wir nun genauer auf Werkzeuge und Techniken eingehen, die speziell für Mitarbeiter im Bereich Data Engineering oder Data Science relevant sind.

Maurice KnoppMust-have Ressourcen, Skills und Techniken für Data Engineers und Data Scientists
Mehr

Tutorial: IT-Basiswissen für DevOps, Big Data, Developer

Nachdem wir im Artikel „Onboarding neuer IT-Mitarbeiter (DevOps, Big Data, Developer)“ die grundlegenden Themen für neue IT-Fachkräfte vorgestellt haben, möchten wir nun anhand eines Tutorials zeigen, wie Wissen zu diesen Themen praktisch angewendet werden kann. Neue IT-Mitarbeiter können die nachfolgenden Tutorialaufgaben Schritt für Schritt durchlaufen und zum Abschluss die Projektdokumentation und die beiden kurzen Präsentationen einem Senior Entwickler vorlegen bzw. präsentieren.

Maurice KnoppTutorial: IT-Basiswissen für DevOps, Big Data, Developer
Mehr

Onboarding neuer IT-Mitarbeiter (DevOps, Big Data, Developer)

Damit Hochschulabsolventen aus MINT Fächern als IT-Fachkräfte möglichst schnell produktiv im Firmenumfeld arbeiten können, sollten diese die gebräuchlichsten Technologien und Werkzeuge kennen und verwenden können. Nachfolgend heben wir die wichtigsten Themen heraus und verweisen auf Ressourcen um diese schnell zu erlernen.

Maurice KnoppOnboarding neuer IT-Mitarbeiter (DevOps, Big Data, Developer)
Mehr