IT-Trends 2019

NEW BUSINESS Guides - IT- & DIGITALISIERUNGS-GUIDE 2019
Künstliche ­Intelligenz wird im heurigen Jahr eine zunehmend wichtige Rolle im Arbeitsalltag spielen. © Pixabay

Auf dem Weg zu Entscheidungen in Echtzeit

Wohin steuert die IT in den kommenden zwölf Monaten, welche Trends werden die IT-Welt ­bewegen? Von IoT über künstlicher Intelligenz und maschinelles ­Lernen bis hin zu Open Source.

Technologie zählte in den letzten Jahren zu den wichtigsten Treibern der wirtschaft­lichen Entwicklung. So standen im vergangenen Jahr im IT-Bereich beispielsweise die effiziente Datennutzung, die Optimierung und Verwaltung von Multicloud-Umgebungen sowie eine umfassende Sicherheitsarchitektur im Vordergrund. 2019 soll sich an diesen Schwerpunkten nur wenig ändern, wenn es nach den Prognosen des Netzwerkausrüsters Cisco geht. Dennoch würden die Ansätze weiterentwickelt und gleichzeitig erweitert. So müssten Unternehmen künftig noch schneller Prozesse digitalisieren und neue Technologien nutzen.
Im kommenden Jahr werden, prophezeit zumindest das Beratungshaus Capgemini, rund 44 Prozent der Unternehmen in Österreich, Deutschland und der Schweiz ihre IT-Ausgaben (Vorjahr knapp 49 Prozent) erhöhen, etwa jedes siebente (13,9 Prozent) sogar um mehr als zehn Prozent. Ihre IT-Ausgaben kürzen werden demzufolge 2019 hingegen nur 2,5 Prozent und somit deutlich weniger als im Vorjahr (14,6 Prozent). Damit setze sich bei den IT-Ausgaben der positive Trend der vergangenen beiden Jahre fort, resümiert das Unternehmen in der aktuellen „IT-Trends-Studie“.
Die Digitalisierung sei dabei für mehr als 70 Prozent der Unternehmen eines der drei wichtigsten IT-Ziele des kommenden Jahres. In ihren Ausbau fließe im Schnitt ein Viertel des IT-Budgets. Konzerne mit einem Jahresumsatz ab einer Milliarde Euro würden sogar 30 Prozent investieren. Daneben wolle mehr als ein Drittel die Agilität und Flexibilität erhöhen. Fast 30 Prozent der Unternehmen würden die Bedürfnisse der Endkunden in den Mittelpunkt stellen, und rund ein Viertel wolle IT schneller bereitstellen und Release-­Zyklen verkürzen.

Der Handlungsdruck steigt zunehmend
Auch die Informationsauswertung und -nutzung soll in vielen Organisationen besser werden. Anscheinend treten zunehmend Defizite in diesem Bereich zutage, wodurch der Handlungsdruck steige. „Datenanalyse ist für den Erfolg der Digitalisierung entscheidend – und die Grundlage für den Einsatz intelligenter Technologien. Hier zählt eine nur mittelmäßige Datenverfüg­barkeit aktuell zu den vier größten Hürden“, erklärt Bernd Bugelnig, CEO von Capgemini in Österreich.
Kostensenkungen und Effizienzsteigerungen, die bis 2016 jahrelang die wichtigsten Vorgaben für CIOs gewesen seien, würden im kommenden Jahr eine untergeordnete Rolle spielen. Vielmehr würden Fachabteilungen darauf drängen, intelligente Technologien wie Machine Learning, Bilderkennung oder Natural Language Understanding einzusetzen. Dabei würden sie rund ein Drittel aller Innovationsprojekte finanzieren und bei mehr als der Hälfte dieser Vorhaben maßgeblich bestimmen, wie sie umgesetzt werden. „Offenbar erhöht die Digitalisierung das Arbeitsaufkommen in den Fachabteilungen stark; hinzu kommt der Fach­kräftemangel. In dieser Situation sehen Fachabteilungen im Einsatz intelligenter Technologien eine Möglichkeit, ihrer künftigen Aufgaben Herr zu werden“, erklärt Bugelnig.

Zentrale Rolle im Arbeitsalltag
Viele der Trendtechnologien wie künstliche Intelligenz (KI) oder das Internet of Things (IoT) sind allerdings bereits bekannte Größen. Zu diesem Schluss kommt auch Atish Gude, Chief Strategy Officer bei NetApp. Dennoch würden sich diese Technologie durch ihre Rolle im Datenmanagement neu definieren – und dann eine noch zentralere Rolle im Arbeitsalltag einnehmen, prophezeit der Fachmann. Denn zusammen mit Containerisierung und noch intelligenteren IoT-Edge-Geräten könnten Entwickler damit im kommenden Jahr die nötigen Impulse für einen datengetrie­benen Markterfolg und neue Geschäftsmöglich­keiten setzen. „Auch wenn wir gerade erst an der Oberfläche des KI-Potenzials kratzen, stehen immer mehr Software-Tools zur Verfügung, die – unterstützt durch die Rechenpower der Cloud – die Entwicklung von KI-Applikationen immer zugänglicher machen“, erklärt Gude.
Diese KI-Lösungen würden zum einen die nötige Performance und Skalierbarkeit für On- oder Off-Premises-Integration bieten. Zum anderen stelle ihr Variantenreichtum auch die Unterstützung zahlreicher Datenzugriffsprotokolle und Datei­formate sicher – „die entsprechende IT-Infrastruktur vorausgesetzt“. Denn im KI-Bereich müsse diese schnell, verlässlich und automatisiert sein, um die entstehenden Workloads schultern zu können. Diese Architekturen bereitzustellen, werde für Händler die nächste große Herausforderung werden.
Bisherige IoT-Geräte würden zudem „immer dem ‚Nach Hause telefonieren‘-Prinzip“ folgen. „Ihre Sensoren sammeln Daten, schicken diese zur Analyse weiter und warten auf weitere Instruktionen. Aber selbst mit dem kommenden 5G-Netz stehen diesen Datenwegen in die Cloud oder das Rechenzentrum und wieder zurück Entscheidungen in Echtzeit im Weg.“ Zusätzlich würden die Datenmengen steigen. Das verlagere die Datenverarbeitung in Richtung Anwender beziehungsweise von deren Endgeräten. Deshalb würden immer mehr IoT-Geräte inhärente Kapazitäten für die Verarbeitung und Reduzierung ihrer gesammelten Daten enthalten. Dies erlaube beispielsweise die Vorselektion relevanter Daten direkt im Gerät, welches dann selbstständig entscheide, welche Daten an die Cloud oder die Workstation weitergeleitet würden. Für Nutzer bedeute dies einen schnelleren Zugriff auf die Datensätze, die für ihre Arbeit wichtig seien und eine Beschleunigung datengestützter Entscheidungsprozesse.

Verlässliche Systeme Grundvoraussetzung
Je mehr sich die IT-Infrastruktur von On-Premises-Systemen und -Servern löse, umso wichtiger sei es, dass das Speicher- und Datenmanagement hochgradig verlässlich und verfügbar sei. Statt geschlossener Systeme seien die modernen Architekturen ein abstraktes Netz aus cloudbasierten Lösungen und Services – also Hybrid-Multi-Cloud-Data-Fabric statt Rechenzentrum. Dank Containerisierung und Hybrid-Cloud-Umge­bungen müssten sich Entwickler nicht mit den Bestandteilen des Systems auseinandersetzen, ­sondern könnten ­voraussetzen, dass es eigenständig und automatisch funktioniere. Dies komme der veränderten Erwartungshaltung der Entwickler an die IT-Infrastruktur entgegen – „sie soll einfach funktionieren, eben ‚automagisch‘“. Ein neuer Faktor dieser zunehmend dynamischen Konstrukte seien prädiktive Technologien und Analysen, die Entwicklern und Entscheidern gleichermaßen helfen, fundierte Rückschlüsse aus ihren Daten zu ziehen.
Zudem würden Daten und Workloads dank der Cloud in der Theorie zwar immer mobiler und ungebundener. Praktisch stünden Unternehmen aber vor der Herausforderung, bei ihrem Datenmanagement die Balance zwischen vielen konkurrierenden Faktoren zu halten, etwa bei der Daten­sicherheit, bei Zugriffszeiten und der Portabilität unterschiedlicher Services. Und viele dieser Elemente würden den Beschränkungen des jeweiligen Providers, Stichwort Platform- oder Vendor-lock-in, unterliegen.
„Gerade für kleinere Unternehmen ist deshalb die Einfachheit und Optimierung eines einzelnen An­­bie­ters verlockend. Kom­­plexere Unterneh­mens­­strukturen großer Konzerne erfordern wiederum eine Flexibilität und Servicevielfalt, die nur Hybrid-Multi-Cloud-Um­gebungen bieten können.“ Deren Kosteneffizienz sei ein weiteres Plus. „Egal welchen Weg ein Unternehmen in die Cloud wählt – es war nie wichtiger, eine ganzheitliche Datenstrategie zu entwickeln, um das meiste aus der gewählten In­frastruktur herauszuholen.“
Der Einzug der Containerisierung verspreche ­hingegen eine Hybrid-Cloud-Entwicklungsumgebung ohne Vendor-lock-in, die ihr Potenzial maximal ausschöpfe. „Dank De-facto-Standard Kubernetes für Multi-Cloud-Applikationen steht einem intuitiven Workload-Management nichts mehr im Wege. Das Tolle: Neue Cloud-Orchestrierungstechnologien, die auf Containern basieren, ermöglichen mehr Anwendungsfälle sowohl für Public als auch On-Premises.“ Workloads könnten nun direkt an die Datenquellen verlagert werden, nicht wie bisher umgekehrt. Dies fördere eine agile Entwicklungsumgebung und mache mit dem ständigen Umziehen von Applikationen Schluss – „eine richtig gute Sache“.

Ab in die Cloud
Im Jahr 2019 führt an integrationsstarken Cloud-Plattformen und automatisierten Datenanalysen kein Weg vorbei, prophezeit der ERP-­Spezialist Godesys. Zudem müssten Unternehmen jeder Größe und Branche ihre Geschäftssoftware an sich schnell ändernde Anforderungen anpassen. So würden immer mehr Plattformen in der Cloud zur Verfügung gestellt, die über API verschiedene Microservices anbieten können. Derartige Plattformen würden dabei als Schnittstellen, quasi als Adapter, dienen, damit ERP-Systeme nahtlos an sie andocken und Dienste im Internet zur Verfügung stellen können.
In Sachen Marke künftig vermehrt um die Inte­gration von intelligenten E-Mail-Services. Auf diese Weise könnten Unternehmen mit gut ­durch­dachten, automatisierten E-Mails ihre persona­lisierte Kundenansprache verbessern. ­Darüber ­hinaus lasse sich der Kundenservice gezielter auf individuelle Bedürfnisse ausrichten. Hierdurch könnten Kundenbeziehungen besser als zuvor gefördert und Umsätze langfristig erhöht werden.
Ein weiteres Beispiel sei der Vertrieb im Lebensmitteleinzelhandel. So gebe es bereits Services, die auf künstliche Intelligenz setzen, um mithilfe von Abverkaufsdaten die Vertriebstouren des Außendienstes zu optimieren. Anhand umfassender Datenanalysen könne ein KI-Service beispielsweise angeben, welche Filiale wie oft besucht werden muss.
Werde dieser Service zusätzlich mit dem ERP-System gekoppelt, könnten Unternehmen ihren Außendienst „besorgungsoptimiert“ steuern. Der Vorteil eines derartigen Vorgehens liege auf der Hand, wie Godelef Kühl, Gründer und Vorstandsvorsitzender von Godesys, erklärt. „Alle Services werden sauber in das ERP-System inte­griert. Auch Predictive Maintenance, also die vo­raus­schauende Produktwartung, lässt sich ­künftig ­signifikant optimieren, wodurch Mitar­beiter ­entlastet werden.“
Durch den Zugriff auf die jeweiligen Einsatz­szenarien einzelner Produkte könnten Firmen viel genauer erfassen, unter welchen Bedingungen Störungen auftreten. „Hierdurch lassen sich ­beispielsweise die vorhandenen Geräte proaktiver warten, und Störungszeiten lassen auf diese sich Weise ebenfalls minimieren.“

Viel Wissen geht ungenutzt verloren
Trotz Diskussionen um Big Data und Informationsflut wüssten immer noch zu wenige Unternehmenslenker um das riesige Potenzial, das in den bei ihnen vorhandenen Daten liege, Bescheid. „Viel zu häufig geht dieser Vorsprung durch Wissen ungenutzt verloren.“ Künftig würden nicht länger Menschen, sondern verstärkt Maschinen Zukunftsprognosen erstellen. Das bedeute für die IT beispielsweise, dass Business-Process-Management-Systeme zusätzliche Konnektoren für Sensorikdaten benötigen.
„Ein Beispiel aus dem Bereich Industrie 4.0: Mithilfe der Sensoren einer Maschine kann gemessen werden, wie oft sich die Hydraulik bewegt oder welche Öl- oder Umgebungstemperatur vorliegt.“ In der Luftfahrtbranche könne eine Turbine anzeigen, wie viele Stunden sie in welchen Temperaturgraden gelaufen ist. Würden diese Daten ins ERP-System eingepflegt, könnten Ausfallsraten abgeleitet und die Auslastungsplanung verbessert werden. „Ein Beispiel aus dem Handel: Nur die wenigsten wissen, dass jedes Smartphone an die 14 Sensoren hat. Indem sich Retailer beispielsweise über eine Beacon-Technologie im Geschäft einloggen, könnten sie bei jeder Bewegung ihrer Kunden Daten sammeln und beispielsweise erfahren, wie lange ein Kunde vor einem Produktregal steht. Werden diese Daten dann mit einem Kassenbon verbunden, könnten Retailer noch viel mehr über das Kaufverhalten ihrer Kunden erfahren. Retailer sollten sich fragen, welche Daten sie analysieren möchten, sie zentralisiert ablegen und mit ihrem ERP abgleichen.“
Dem ERP-System werde künftig also eine immer wichtigere Rolle als Datenzentrale zukommen, betont Kühl. Egal, ob es darum geht, Prozesse zu automatisieren, Daten zusammenführen oder die Effizienz zu steigern – laut einer Umfrage würden sich bereits zwei Drittel aller Firmen auf ihre Geschäftssoftware verlassen. Dieser Trend werde sich 2019 fortsetzen, wobei Themen wie mobiler Softwarenutzung, Omnichannel, Informationsmanagement und Prozessexzellenz, befeuert von flexiblem und anpassungsstarkem ERP, eine immer wichtigere Bedeutung zukomme. „Aspekte wie leistungsfähige Schnittstellen zu IT-Systemen und Daten werden 2019 und darüber hinaus ebenso immer wichtiger wie eine schnelle Anpassbarkeit des Systems, eine Echtzeitverarbeitung von Daten sowie die Aspekte Transparenz und Nachvollziehbarkeit“, berichtet Kühl.

Quelloffene Software boomt weiterhin
Auch im Open-Source-Bereich sollen heuer neue Trends gesetzt werden, wie Michael Jores, verantwortlich für die Geschäfte von SUSE in Zentral­europa, betont. Der Branchenkenner erwartet für 2019 viele beachtenswerte Entwicklungen. So werde etwa die Blockchain „immer mehr auch außerhalb der Finanzwelt eingesetzt“ werden. „Durch Kryptowährungen ist die Blockchain eng mit der Finanzindustrie verbunden.“ Blockchain sei jedoch ein viel weiteres Feld. „2019 wird die Blockchain-Technologie der Treiber für neue Anwendungsfälle in vielen Branchen außerhalb des Finanzbereichs sein. So kann beispielsweise in der Lebensmittel- und Getränkeindustrie die Blockchain zur Verfolgung der Lieferung von Lebensmitteln vom Erzeuger zum Verbraucher entlang der gesamten Lieferkette eingesetzt werden.“ Die Blockchain habe das Potenzial, die Geschwindigkeit bei der Identifizierung der Quellen und der Verteilungspunkte etwa in einem Lebensmittelrückrufprozess zu verbessern.
Besonders Machine Learning (ML) habe 2018 große Fortschritte gemacht, so Jores. Ohne den Zugang zu ausreichend großen und vielfältigen Daten­mengen könne ML jedoch nicht erfolgreich sein. „2019 werden wir sehen, wie das Konzept der ‚offenen Daten‘ als Möglichkeit zum Austausch und zur Aggregation von Daten weiterentwickelt wird.“ Projekte wie das Community Data License Agreement (CDLA) – eine von der Linux ­Foundation angekündigte Entwicklung – seien derzeit in den Startlöchern und würden Unternehmen ermutigen, Daten offen und transparent auszutauschen. CDLA werde dabei ein Schlüsselfaktor für den Datenaustausch sein, der wie­derum den Einsatz von ML beschleunige. „Einige Unternehmen nutzen Daten bereits gemeinsam und verwenden diese gemeinsamen Daten, um ein ML-Modell zur Verwaltung einer softwaredefinierten Speicherbereitstellung zu erstellen.“
ML-Lösungen würden heute vor allem für kleinere Projekte in Testumgebungen eingesetzt. Im Jahr 2019 werde die Akzeptanz in einem moderaten Tempo zunehmen, aber ein expansiver Einsatz werde noch nicht erfolgen, erklärt Jores. So könnten sich Unternehmen auf die Implementierung der Technologie konzentrieren, die die Geschäftsprozesse verbessere und greifbare Ergebnisse liefere. Eine vorsichtigere Umsetzung ermögliche auch den kulturellen Wandel und gebe IT- und Business-Experten die Möglichkeit, die Lösungen der nächsten Generation zu nutzen. „Diese gezielte Einführung wird sich im Laufe des Jahres konti­nuierlich beschleunigen. Im nächsten Jahrzehnt schließlich wird ML wohl zu einem Innovationsförderer in allen Branchen.“

Fokus auf die Sicherheit
Sicherheit sollte stets im Mittelpunkt jeder Initiative zur digitalen Transformation stehen und nie eine nachrangige Überlegung sein. „Vom Anfang bis zum Abschluss sollte Sicherheit in jedem Projekt mitgedacht werden. Der Code sollte sicher sein, ebenso wie das Design und die Prozesse. DevSecOps sollte sowohl für Anwendungen als auch für die Cloud, die Infrastruktur und die Zusammenarbeit mit Partnern eingesetzt werden. Die Aufklärung über Sicherheit wird weiterhin von entscheidender Bedeutung sein, insbesondere da menschliches Versagen weiterhin eine große Sicherheitsbedrohung darstellt.“ Unternehmen würden sich zunehmend bemühen, das Sicherheits­verständnis der Mitarbeiter zu verbessern. Aber egal ob Machine Learning oder ­Arti­ficial Intelligence, cloudnative Anwendungen, Datacenter, Supercomputer und High-Performance-Computing, Private, Public oder Hybrid Cloud, Software Defined Infrastructure und Storage oder Container: „Open Source steckt hinter vielen innovativen Lösungen, nicht nur im Rechenzentrum.“
Allein im OpenStack-Projekt seien momentan über 96.000 Entwickler und 676 Unternehmen aus 186 Ländern, die bereits über 20 Millionen Zeilen an Codes erarbeitet haben, beschäftigt. Und die OpenStack-Community sei nur eines der vielen innovativen Open-Source-Projekte wie Linux, Cloud Foundry, Kubernetes, OPNFV oder Zero Outage. Aus diesem Grund würden auch Anbieter wie SAP auf Open Source setzen. Bis 2025 lasse SAP seine Kunden komplett auf HANA wechseln und bringe sie mit S4/HANA in die Cloud. Alleiniges Betriebssystem für HANA werde dann Linux sein, erklärt der Fachmann. Der Trend zu Open Source verstärke sich weiter und das rasante Innovationstempo werde sich 2019 fortsetzen. (TM)
www.cisco.com
www.capgemini.com
www.godesys.de
www.suse.com