Fotos: Nagarro (1), Andritz (2)
2021 AUTOMATION-GUIDE 173
chungssystemen, welche deutlich mehr Faktoren
berücksichtigen und optimieren können.
Der nächste Schritt aber sind Systeme, die auf
Re-Enforcement-Learning basieren, und damit
sehr viel mehr Einflussfaktoren in die Optimierung
einfließen lassen können. „Das ist ein
unglaublich spannender Teil von Machine-
Learning. Der Maschine wird ein Ziel vorgegeben,
und sie lernt selbst, es zu erreichen.
Dadurch braucht sie nur eine reduzierte Anzahl
anfänglicher Trainingsdaten“, so Nößner. Er
vergleicht es mit den Experimenten, in denen
sich eine künstliche Intelligenz selbst das asiatische
Brettspiel Go beigebracht hat. Nach einer
kurzen Trainingsphase mit echten Spielen ist
dabei die KI sozusagen gegen sich selbst angetreten.
„Vereinfacht gesagt, bekommt die KI
einen Punkt, wenn sie gewinnt, und null Punkte,
wenn sie verliert. So trainiert sie sich selbst.“
Bei der Mustermann AG geht es darum, dass
Umrüstkosten zwischen Produkten anfallen.
Sind diese Umrüstkosten höher, die Produktionskosten
vergleichsweise niedrig und der
Lagerbedarf gering, kann tendenziell mehr von
diesem Produkt auf Lager gehalten werden.
Ultimativ steigert eine optimierte Lagerhaltung
nicht nur den Gewinn, da weniger unnötiges
Kapital im Lager gefangen ist, sondern auch die
Kundenzufriedenheit, da kritische Produkte
schnell ausgeliefert werden können. „Ein System,
bei dem Re-Enforcement-Lösungen eingesetzt
werden, verbessert sich über die Zeit
automatisch selbst. Attraktiv daran ist, dass man
nicht so viele Input-Daten braucht, um das
System zu verbessern. Lagerhaltung ist nur eines
der Beispiele, denn selbstverständlich kann man
diese Technologie auch in vielen anderen Bereichen
einsetzen“, sagt Nößner.
2