Dank Verkürzung der Studiendauer mit Einführung von Bachalor und Master, kommt so ein 40 Jahre altes Teilgebiet der Mathematik und Informatik zu einem eigenen Berufsbild.
Für mich wieder ein Spezialist mehr der mit Scheuklappen rumrennt.
Kurz vor Ende meiner Lehre gab es die Neuordnung der Metall- und Elektroberufe mit der besser ausgebildete Fachkräfte zur Verfügung stehen sollten.
Aus meinem Beruf Werkzeugmacher, wurden 5 neue Berufe.
Mit dem Ergebniss von nur halb ausgebildetem (spezialisiertem) Personal, habe ich mich dann 15 Jahre durch X Firmen rumgeschlagen (Bei mir war es noch Pflicht alle 5 Teilbereiche zu lernen).
Als ich im zweiten Jahr meines Maschinenbautechnikers war, hatte Hessen umgestellt auf die Spezialisierung.
Somit gabe es da plötzlich auch 6 Berufe anstelle von einem wie bei mir. Das merke ich bis heute, immer wenn einer kommt und meint das er sich dieses oder jenes nicht spezialisiert hat.
Ich mußte das noch alles in den 2 Jahren lernen. Da gingen halt auch ein Großteil der Ferien drauf und man hat mehrere Wahlkurse über die Pflichtfächer hinaus belegt um gut zu sein.
Da ich feststellen mußte, das in den meisten Projekten die Probleme die interdisziplinäre Kommunikation ist,
wird der Data Scientist das Problem nicht lösen, sondern im besten Fall nicht verschlimmern.
Neu ist bei I40 für Entwickler und Ingenieure wirklich nichts (zumindest für die die in ihrer Ausbildung schon mehr als "nur" das Notwendigste gemacht haben und auch danach sich nicht auf einem Stück Papier ausgeruht haben), man wirft jetzt nur mal wieder ein paar Sachen zusammen die vor X Jahren nicht funktioniert haben und nun dank weiterentwickelter Technik klappen könnten (in einigern Bereich, aber vermutlich nicht überall).
Ich stelle fest das Du keine Ahnung auf diesem Gebiet hast.
Der Begriff Data Science wie er seit 40 Jahren existiert , hat mit den heute angewandten Methoden und Modellen nur noch wenig zutun.
Data Science spielt heute eine ganz entscheidene Rolle im Machine und Deep learning.
Denn auch die Lernmethoden für künstliche Intelligenz und neuronale Netze haben sich ein wenig verändert seit den 80er und 90ern.
Desweiteren reden wir von Milliardenumsätzen im Bereich Predictive Analytics und Kostensparende Produktionen durch predictive maintenance,
was ohne IT Vernetzung in der Industrie überhaupt nicht möglich wäre.
Für präzise Modelle braucht es aber nicht nur Kenntnisse in Mathematik und Statistik sondern vorallem verlässliche Datenquellen und Daten von hoher Qualität.
Allein das Data cleaning in einer Real Time Umgebung ist insbesondere durch Big Data und iot eine ziemliche Herausforderung geworden, die nicht mal eben so
von irgendwelchen Eigenbrödlern mit Selbstüberschätzung umgesetzt werden, sondern von Data Science Teams, um je nach Anforderung und Modell
zu einem verlässlichen Ergebnis innerhalb einer analytischen Plattform zu kommen.
Und das sämtliche Maschinen und Sensordaten der Industrie für analytische Zwecke, nicht in die Hände der falschen Teams gehören, bedarf wohl keiner weiteren Erklärung.
Ne, die grade nicht. Neuronale Netze hatte ich im Studium im Nebenfach E-Technik. So viel hat sich da nicht getan. Nur dass man heute auf GPU-Clustern Dinge laufen lassen kann, für die früher die Computer zu klein waren. Deep Learning als Prinzip wurde damals schon gelehrt. Dinge die heute das Human Brain Project in Software simulieren kann, finden sich schon als Mikroskopaufnahmen in meinen alten Vorlesungsfolien.
Der Rest ist Buzzword Bingo eines unreg, da brauch man nicht weiter zu lesen.
Das ist jetzt nicht wirklich neu und hat auch nicht im mindesten was mit Data Science zu tun.
Das ist quasi ein Axiom das bereits seit Entstehung dem Universums gilt.
Daß das von jemand vereinnahmt wird, macht es nicht zu einer Neuheit.
Im Ingenieurswesen arbeitet man eigentlich immer so, sonst gäbe es viel mehr einstürzende Neubauten etc.
Die Finite Elemente Methode ist eigentlich eine reine Anwendung dieses Prinzips um Vorhersagen zur Bauteilfestigkeit machen zu können.
Es handelt sich also wieder um ein altes Prinzip das man auf eine neuen Sektor und mit anderen Mitteln anwendet.
Allerdings sind auch fast alle Methoden und Modelle nicht neu sondern nur nach langer Zeit aus dem Elfenbeinturm der theoretischen Mathematik in die praktische Anwendung geholt worden.
Größtenteils ist nur die Rekombination neu.
Eher umgekehrt, Deep Learning, Deep Data Mining und Maschnelles Lernen spielen heute eine große Rolle in Data Science.
Meine Literatur dazu stammt halt aus der KI Forschung, somit ist das für mich auch alt.
Konkret, mein ätestes Buch ist von 1994 (Addison-Wesley Genetische Algorithmen und Evolutionsstrategien).
Auch die Mustererkennung in Daten ist alt und hat sich aus der Muster und Objekterkennung der Bildverarbeitung in der KI entwickelt.
Das ist üblich das es in über 30 Jahren Weiterentwicklungen gibt.
Wer sowas verschläft, für den ist das dann natürlich neu und überraschend.
Das ist aber in allen Bereichen des Lebens so und kein I40 spezifisches Phänomen.
OK, dann habe ich 1985 intelligente vorbeugende Instandhaltung gemacht als es noch gar nicht möglich war.
Da muß meine Firma Ihrer Zeit also 30 Jahre vorraus gewesen sein.
Und das Wunder beherscht haben, all das mit einem Mainframe ohne Netzwerk zu machen, da es ja ohne IT nicht möglich wäre.
Lean Management und Lean Production schwappten damas grade aus Asien rüber, also kostensparende Produktion als neu zu bezeichnen ist nicht wirklich sinnig.
In einer Marktwirtschaft ist es immer das Ziel so kostensparend wie möglich zu Produzieren und möglichst teuer zu verkaufen.
Das Prinzip der Gewinnmaximierung ist wohl eher eines der ältesten marktwirtschaftlichen Prinzipien überhaupt.
Auch die Vorhersage von Trends und Ereignissen durch Datenanalyse findet man schon in "die Kunst des Kreiges", das Buch jetzt 2500 Jahre Alt.
Da sollte eine Weiterentwicklung mit angepassten Mitteln und Methoden der Zeit zu erwarten sein.
Das größere Projekte von mehr qualifizieretem Personal besser und schneller gelöst werden wie von Laien ist jetzt auch nicht wirklich neu.
Das Prinzip hat zur Arbeitsteilung und Entstehung von Berufen geführt.
Geändert von i_make_it (03.04.2016 um 18:43 Uhr)
Dieses Buzzword-Bingo von SPSAmeise erinnert mich sehr stark an den unregistrierten Nutzer Robobionic aus diesem Thread:
https://www.roboternetz.de/community...f-Arduino-Due-!
Lauter tolle, hochmoderne neue Schlagworte gepaart mit der anscheinenden Unfähigkeit, diese Worthülsen mit Sinn zu füllen. Ich schätze, auf mikrocontroller.net ist da jemandem wohl zu langweilig geworden und hat sich hierher verirrt.
Aber indirekt kann man da viel über das eigentliche Thema dieses Threads lernen. In solchen Projekten hat man sie dann alle: Den klassischen Heißlufterzeuger und den "Spezialisten für Alles.
Geändert von Mxt (03.04.2016 um 17:59 Uhr)
Da Dir offensichtlich zum Thema keine Argumente einfallen, und in vielen Deiner Beiträge nur mit Behauptungen um Dich schmeisst, scheint dies Dein persönlicher Stil zu sein mit den Meinungen anderer umzugehen.
Auf Dein Niveau werde ich mich ganz sicher nicht begeben, dazu gibt es hier zuviele Diskussionspartner, die um einiges reifer sind als Du und vorallem sachlich bleiben.
Hallo,
Das Ganze hat aber noch einen grossen Haken!
Es ist nicht erwiesen, dass unsere Welt überhaupt deterministisch ist.
Die Chaosforschung (Schmetterlingseffekt) und die Quantenphysik, weisen da teilweise in eine andere Richtung.
Viele Trends kann man auch herbeireden, bzw. werden zur Selbsterfüllung. Wenn ein Börsen-Guru schreibt, dass eine Aktie nächste Woche steigen wird, tut sie das auch, aber nur weil alle seine Anhänger sich auf diese Aktie stürzen. Kurz darauf stürzt sie dann wieder ab, weil nur heisse Luft dahinter war.
Ich befürchte, dass wir und eines Tages auf dem deterministischen Glatteis befinden und dann nur die Wahl haben, alles als falsch zu betrachten oder uns diesem Weltbild anzupassen. So in etwa wie dies bei der Astrologie auch abgelaufen ist!
MfG Peter(TOO)
P.S. Wo geht's hier zum Philosophiebrett?
Manchmal frage ich mich, wieso meine Generation Geräte ohne Simulation entwickeln konnte?
Da hast Du Data Science und konkret Predictive Analytics komplett falsch verstanden, denn bei solchen Modellen geht es nicht darum eine Kristallkugel zu erfinden,
sondern um mehr Transparenz und Entscheidungshilfen zu bieten. Das bedeutet aber nicht das Entscheider ihre Verantwortung abgeben, und blind auf die Modelle vertrauen.
Es geht einfach nur darum einen tieferen Einblick in die Daten zu bekommen, wie es bei Business Intelligence, Risk Management und Controlling schon immer der Fall war,
nur lässt es sich heute erst mit Hilfe durch iot und Big Data noch um einiges effizienter nutzen.
Lesezeichen