Begriffe rund um KI

Von | 23. Dezember 2018

Neuronale Netzwerke

Künstliche neuronale Netze, auch künstliche neuronale Netzwerke, kurz: KNN (englisch artificial neural network, ANN), sind Netze aus künstlichen Neuronen. Sie sind Forschungsgegenstand der Neuroinformatik und stellen einen Zweig der künstlichen Intelligenz dar.

Vereinfachte Darstellung eines künstlichen neuronalen Netzes

Schema für ein künstliches Neuron

Künstliche neuronale Netze haben, ebenso wie künstliche Neuronen, ein biologisches Vorbild. Man stellt sie natürlichen neuronalen Netzengegenüber, die eine Vernetzung von Neuronen im Nervensystem eines Lebewesens darstellen. Bei KNNs geht es allerdings mehr um eine Abstraktion (Modellbildung) von Informationsverarbeitung, weniger um das Nachbilden biologischer neuronaler Netze und Neuronen, was eher Gegenstand der Computational Neuroscience ist.Radom Forest

Gadient Boosting

Deep Learning Verfahren

https://de.wikipedia.org/wiki/Deep_Learning
Deep Learning, auf Deutsch etwa tiefgehendes Lernen, bezeichnet eine Klasse von Optimierungsmethoden künstlicher neuronaler Netze, die zahlreiche Zwischenlagen (englischhidden layers) zwischen Eingabeschicht und Ausgabeschicht haben und dadurch eine umfangreiche innere Struktur aufweisen. In Erweiterungen der Lernalgorithmen für Netzstrukturen mit sehr wenigen oder keinen Zwischenlagen, wie beim einlagigen Perzeptron, ermöglichen die Methoden des Deep Learnings auch bei zahlreichen Zwischenlagen einen stabilen Lernerfolg.[1][2]Nach Jürgen Schmidhuber ist „Deep Learning“ nur ein neuer Begriff für künstliche neuronale Netze und tauchte erstmals im Jahr 2000 in der Veröffentlichung Multi-Valued and Universal Binary Neurons: Theory, Learning and Applications auf


Data Scientist

https://www.bigdata-insider.de/was-ist-ein-data-scientist-a-600907/
Ein Data Scientist wertet Daten systematisch aus und extrahiert Wissen. Auf Basis der gewonnenen Erkenntnisse unterstützt er die Unternehmensführung bei strategischen Entscheidungen. Data Scientists bewegen sich oft im Umfeld von Business Intelligence und Big Data.

Der Begriff Data Scientist lässt sich mit Datenwissenschaftler übersetzen. Es handelt sich um eine Berufsbezeichnung für eine Person, die über entsprechende Kenntnisse und Fähigkeiten verfügt, große Datenmengen systematisch auszuwerten und Wissen aus den Daten abzuleiten. Hierfür nutzt der Data Scientist praktische Methoden und theoretische Ansätze aus verschiedenen Wissenschaften wie der Informationstechnik und der Mathematik, speziell hier die Statistik oder die Wahrscheinlichkeitsrechnung.

Neben diesen fachlichen Fähigkeiten muss ein Data Scientist in der Lage sein, die gewonnenen Erkenntnisse anschaulich zu präsentieren und sie Dritten ohne spezifische Fachkenntnisse zu vermitteln. Er tritt gegenüber der Unternehmensführung in beratender Funktion auf und unterstützt diese bei strategischen Unternehmensentscheidungen.

Als Datengrundlage dienen dem Data Scientist sowohl strukturiert als auch unstrukturiert vorliegende Daten. Oft kommen bei der Datenanalyse Big-Data-Techniken zum Einsatz. Die Datenanalyse führt er entweder selbst durch oder er unterstützt IT-Spezialisten bei der Analyse beziehungsweise leitet sie an. Er kann auch als Projektleiter auftreten, der die verschiedenen Aufgaben und Tätigkeiten der Datenauswertung steuert und kontrolliert. Zunehmende Datenmengen im Unternehmen und der Fortschritt in den verschiedenen Big-Data-Bereichen lassen die Position des Data Scientists an Bedeutung gewinnen.

Ein Data Scientist beschäftigt sich mit unterschiedlichen Wissenschaftsbereichen und kann daher verschiedene akademische Hintergründe haben. Data Scientists können Informatiker, Physiker, Mathematiker oder Wirtschaftswissenschaftler sein, die sich entsprechende fortgebildet haben.

Mittlerweile existieren eigene Data-Science-Bachelor- oder -Master-Studiengänge, in denen alle wichtigen und benötigten Wissensgebiete vermittelt werden. Die Basis der Fähigkeiten eines Data Scientists bilden fachliche Kenntnisse aus den Bereichen der Statistik, der Mathematik, der Wahrscheinlichkeitsrechnung und der IT. Hinzu kommen die Methoden des Machine Learnings, der künstlichen Intelligenz und der Prognostik. Der Data Scientist befasst sich bei seiner Arbeit mit mathematischen Modellen, statistischen Verfahren und der Datenhaltung und Datenmodellierung. Er wendet diese unterschiedlichen Techniken und Algorithmen auf die vorhandenen Daten an und generiert dadurch Wissen. Als Tools und Programmiersprachen kommen beispielsweise Java, PythonR oder SQL zum Einsatz.

Neben diesen technischen Fertigkeiten muss der Data Scientist die Fähigkeit besitzen, die aus den Daten gewonnenen Erkenntnisse so aufzubereiten und zu erklären, dass deren Signifikanz für das Unternehmen leicht zu verstehen ist. Er leitet auf Basis der Ergebnisse Hypothesen ab und stellt Entscheidungsvorlagen für das Management zusammen. Bei erkannten Auffälligkeiten kann der Data Scientist selbstständig die richtigen Fragestellungen formulieren. Da er als eine Art Vermittler zwischen Fachabteilungen und Management auftritt, sind gute kommunikative Eigenschaften wichtig für den Erfolg seiner Arbeit. Im Rahmen der Datenanalyse fungiert er teilweise als Projektmanager und kontrolliert oder steuert die Aufgaben von der Datenbeschaffung über die Analyse bis zur Aufbereitung der Ergebnisse.

Unterscheidung zwischen Data Scientist, Data Analyst und Business Analyst

Oft kommt es zu einer Vermischung der Bezeichnungen Data Scientist, Data Analyst und Business Analyst. Die Begriffe lassen sich zwar nicht exakt voneinander abgrenzen und verschmelzen in einigen Teilbereichen miteinander, können aber dennoch in ihren grundsätzlichen Tätigkeitsfeldern unterschieden werden. Der Data Analyst betreibt klassische Datenanalyse, verfolgt aber keinen wissenschaftlichen Ansatz. Methoden der Künstlichen Intelligenz oder des Machine Learnings und weitere fortgeschrittene Analyse- und Vorhersagetechniken nutzt er nur in beschränktem Maße.

Ein Data Scientist ist in der Lage, innovative Methoden für seine Analysen zu nutzen und besitzt einen akademisch erweiterten Hintergrund. Die Fähigkeit, über den Tellerrand der reinen Datenanalyse zu schauen, zeichnet ihn aus. Business-Analysten können sich zwar auch mit der Datenanalyse beschäftigen oder sie durchführen, haben ihren Schwerpunkt aber mehr in der Analyse der Geschäftsmodelle und Geschäftserlöse. Sie werten Geschäftsmodelle IT-gestützt aus und nutzen zentrale KPIs und Werkzeuge wie Dashboards für ihre Arbeit.

Radom Forests

Random Forests sollten an dieser Stelle im Text eigentlich nicht stehen, denn sie sind ein Beispiel des parallelen Ensembles bzw. des Voting Classifiers mit Entscheidungsbäumen (Decision Trees). Random Forests möchte ich an dieser Stelle dennoch ansprechen, denn sie sind eine äusserst gängige Anwendung des Baggings oder (seltener) auch des Pastings für Entscheidungsbaumverfahren. Die Datenmenge wird durch Zufall aufgeteilt und aus jeder Aufteilung heraus wird ein Entscheidungsbaum erstellt. Eine Mehrheitsentscheidung der Klassifikationen aller Bäume ist das Ensemble Learning des Random Forests.

Random Forest ist ein Verfahren der Klassifikation oder Regression, das bereits so üblich ist, dass es mittlerweile längst in (fast) allen Machine Learning Bibliotheken implemeniert ist und – dank dieser Implementierung – in der Anwendung nicht komplizierter, als ein einzelner Entscheidungsbaum.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.