Agile Data Science - Einführung

Agile Data Science ist ein Ansatz zur Verwendung von Data Science mit agiler Methodik für die Entwicklung von Webanwendungen. Es konzentriert sich auf die Ausgabe des datenwissenschaftlichen Prozesses, der geeignet ist, Veränderungen für eine Organisation herbeizuführen. Data Science umfasst das Erstellen von Anwendungen, die den Forschungsprozess mit Analyse, interaktiver Visualisierung und jetzt auch angewandtem maschinellem Lernen beschreiben.

Das Hauptziel der agilen Datenwissenschaft ist -

Dokumentieren und führen Sie erklärende Datenanalysen, um den kritischen Pfad zu einem überzeugenden Produkt zu entdecken und zu verfolgen.

Agile Data Science ist nach folgenden Prinzipien organisiert:

Kontinuierliche Iteration

Dieser Prozess umfasst eine kontinuierliche Iteration mit Erstellungstabellen, Diagrammen, Berichten und Vorhersagen. Das Erstellen von Vorhersagemodellen erfordert viele Iterationen des Feature-Engineerings mit Extraktion und Erstellung von Erkenntnissen.

Zwischenausgabe

Dies ist die Titelliste der generierten Ausgaben. Es wird sogar gesagt, dass fehlgeschlagene Experimente auch Ergebnisse haben. Das Verfolgen der Ausgabe jeder Iteration hilft dabei, eine bessere Ausgabe in der nächsten Iteration zu erzielen.

Prototyp-Experimente

Prototyp-Experimente umfassen das Zuweisen von Aufgaben und das Generieren von Ausgabe gemäß den Experimenten. In einer bestimmten Aufgabe müssen wir iterieren, um Einsicht zu gewinnen, und diese Iterationen können am besten als Experimente erklärt werden.

Integration von Daten

Der Lebenszyklus der Softwareentwicklung umfasst verschiedene Phasen mit Daten, die für -

  • customers

  • Entwickler und

  • das Geschäft

Die Integration von Daten ebnet den Weg für bessere Aussichten und Ergebnisse.

Pyramidendatenwert

Der obige Pyramidenwert beschreibt die Schichten, die für die Entwicklung von „Agile Data Science“ benötigt werden. Es beginnt mit einer Sammlung von Aufzeichnungen, die auf den Anforderungen basieren, und der Installation einzelner Aufzeichnungen. Die Diagramme werden nach Bereinigung und Aggregation von Daten erstellt. Die aggregierten Daten können zur Datenvisualisierung verwendet werden. Berichte werden mit der richtigen Struktur, Metadaten und Tags von Daten generiert. Die zweite Pyramidenschicht von oben enthält eine Vorhersageanalyse. In der Vorhersageebene wird mehr Wert geschaffen, hilft jedoch bei der Erstellung guter Vorhersagen, die sich auf das Feature-Engineering konzentrieren.

Die oberste Ebene umfasst Aktionen, bei denen der Wert von Daten effektiv gesteuert wird. Das beste Beispiel für diese Implementierung ist „Künstliche Intelligenz“.