Sie befinden sich hier:  Home  |  The sky is the limit
Die KI-Technologie hebt ab wie eine Rakete. Und die Möglichkeiten scheinen schier endlos. © Megan Rexazin Conde/Pixabay

Alexander Penev, Managing Director von ByteSource, im Interview über Cloud und KI.

„Verrückte“ Ideen, die man eigentlich nur aus Sci-Fi-Filmen kennt, werden dank künstlicher Intelligenz plötzlich zur Realität. ByteSource-Chef Alexander Penev ist von den neuen Möglichkeiten fasziniert und stellt generative KI auf eine Stufe mit dem Internet oder dem iPhone.

Die ByteSource Technology Consulting GmbH mit Hauptsitz in Wien ist EU-weit im Bereich IT-Dienstleistungen und IT-Beratung tätig. Das Unternehmen hat sich als Spezialist für agile Softwareentwicklung, Development und IT-Operations (DevOps), Cloud-Themen sowie technisches Consulting einen Namen gemacht. Außerdem ist ByteSource Experte für Teamkollaborationslösungen, die auf der Softwarepalette des internationalen Anbieters Atlassian basieren, und beschäftigt sich seit einiger Zeit intensiv mit künstlicher Intelligenz. Alexander Penev, Gründer und Managing Director von ByteSource, hat KI sogar zur Chefsache erklärt und ist begeistert von den vielen Möglichkeiten dieser neuen Technologie, wie er im Interview mit NEW BUSINESS erzählt.

Herr Penev, wie waren die Anfänge von ByteSource, und wie hat sich das Unternehmen seitdem entwickelt?
Die Firma ByteSource Technology Consulting GmbH gibt es seit 2009. Vorher war ich etwa 14 Jahre lang Freelancer. Am Anfang war ich allein. Nach zwei Jahren waren wir schon drei Leute, nach fünf waren wir zehn. Und jetzt haben wir mehr als 50 Mitarbeiter. Wir wachsen durchschnittlich 20 bis 70 Prozent pro Jahr. Zu Beginn hatten wir nur ein Büro in Wien. Seit ein paar Jahren haben wir auch ein Office in Wels, und seit Sommer 2023 haben wir eine Niederlassung in Frankfurt am Main in Deutschland. Die meisten unserer Mitarbeiter sind in Wien, einige wohnen aber in anderen Bundesländern oder sogar im Ausland, in Deutschland, Tschechien, Slowakei, Polen, der Ukraine, in Albanien und Indien.

 

© Mathias Lenz
 


„Generative KI ist eine ähnliche Revolution, wie es das Internet war, und vielleicht sogar ein bisschen revolutionärer als das iPhone.“ 

Alexander Penev, Gründer und Managing Director ByteSource

 

Wo lagen Ihre Schwerpunkte in den Anfängen, und wo liegen sie heute?
Angefangen haben wir hauptsächlich mit Softwareprogrammierung. Dann sind wir auch sehr schnell in den Bereich DevOps gegangen. Damals gab es diesen Begriff noch nicht, man nannte das eher Agile. Irgendwann hat man gesehen, dass man nicht nur agil entwickeln, sondern auch eine agile Infrastruktur aufbauen und betreiben sollte. Wir zählen in Österreich zu den Pionieren, was agile Entwicklung und DevOps betrifft. Wir haben auch sehr viele Private-Cloud-Solutions gemacht. Bis irgendwann der Public-Cloud-Bereich so stark und mächtig geworden ist, dass man damit viel schneller und viel kostensparender zum Ziel gekommen ist. Da haben wir uns dann auch auf den Bereich Public Cloud beziehungsweise Cloud-Beratung konzentriert. Wir sind übrigens auch der erste AWS-Advanced-Tier-Services-Partner in Österreich. 

Die Entwicklung ist jetzt fast nur Cloud-native. Natürlich wenden wir unser Know-how in dem Bereich DevOps auch beim Cloud-native-Development an. Ein Bereich unserer DevOps-Journey waren die Atlassian-Produkte. Wir waren von Anfang an Riesenfans von Jira. Kurz danach ist Confluence gekommen, eigentlich das erste für Enterprise brauchbare Wiki. Seit Confluence haben wir eine zentrale Dokumentations- und Kollaborationsplattform für uns und alle unsere Kunden. Seit 2014 sind wir Atlassian-Partner, seit 2016 sogar Platinum-Partner, und bieten alle Aspekte der Beratung in dem Bereich Atlassian beziehungsweise DevOps. Das kann man fast nicht trennen. Atlassian ist eine der größten Firmen in dem Bereich von DevOps. 

Bis vor Kurzem waren unsere vier Schwerpunkte also Cloud Native Development, DevOps, Public Cloud und Atlassian. Und seit Mitte 2022 haben wir auch einen fünften Bereich, und das ist künstliche Intelligenz mit Schwerpunkt generative AI. Das habe ich zur Chefsache erklärt und beschäftige mich auch persönlich sehr stark mit dem Thema. Die vielen Kombinationsmöglichkeiten faszinieren mich am meisten. Das scheint endlos zu sein, und je mehr wir uns damit beschäftigen, desto mehr Use-Cases finden wir, und desto mehr Spaß macht es auch.

Obwohl schon sehr lange über die Cloud gesprochen wird, hat man das Gefühl, dass man das Konzept noch immer erklären muss. Kommt es Ihnen manchmal bei Ihrer Arbeit, auch als AWS-Partner, so vor, dass man mit manchen Kunden noch ganz am Anfang steht?
Ja, das kommt in Österreich schon vor, in Deutschland weniger – und in UK und Amerika vermutlich gar nicht. Vermutlich, weil hier weniger Konkurrenz und Druck vorhanden ist, auf Cloud zu setzen. Das Konzept von Cloud zu erklären, ist eigentlich ganz einfach. Man stöpselt ein Gerät an und bekommt Zugriff auf alle Dienste. In der Praxis muss man aber auch wissen, welche Dienste man braucht und wie man sie kombiniert.

Es kommt auch darauf an, von welcher Art Cloud man spricht. Cloud im Sinne von Software as a Service wird gut angenommen, auch in Österreich. Wenn man aber in Richtung Infrastructure as a Service geht, wird es komplexer. Als ich die letzte Zertifizierung gemacht habe, gab es 187 AWS Managed Services. Mittlerweile sind es vermutlich über 200. Allein sie alle aufzuzählen, ist eine Herausforderung.

Es gibt auch noch immer Vorbehalte wegen der Security in der Cloud.
Was man ganz sicher sagen kann, ist, dass eine Cloud-Lösung mit weniger Aufwand und geringeren Kosten viel sicherer ist als eine Lösung, die ich in meinem lokalen Datacenter betreibe. Die subjektive Wahrnehmung ist vielleicht anders. Aber wenn man sucht, wird man mehr über Vorfälle in On-Premise-Infrastrukturen finden als über solche in der Cloud. Man muss die Security natürlich ernst nehmen.

Kommen wir vielleicht zurück zum Thema künstliche Intelligenz. Besteht derzeit tatsächlich so eine hohe Nachfrage nach KI, wie es scheint? Oder sind es doch eigentlich andere Themen, wie zum Beispiel Cloud, die den Kunden wichtig sind?
Das lässt sich nicht so einfach beantworten, weil diese Dinge voneinander abhängig sind. Jeder versucht, sich unnötige Arbeit zu ersparen, versucht schneller zu werden, versucht sicherer zu werden. KI, Cloud, Platform-Engineering usw. sind einfach Bausteine. Für mich spielen sie zusammen. 

Aber die Nachfrage nach KI ist definitiv extrem groß. Man kann das alles sehr gut kombinieren. Und ich finde es wirklich unglaublich, was man damit erreichen kann. Generative KI ist eine ähnliche Revolution, wie es das Internet war, und vielleicht sogar ein bisschen revolutionärer als das iPhone. Es ist ein neues User-Interface, das plötzlich eine ganz andere Kommunikation mit dem User erlaubt. The sky is the limit. Es gibt praktisch keine Grenzen. Und deshalb macht es so viel Spaß.

 

© Mathias Lenz
 


„Nachdem so ein Proof-of-Concept-Projekt abgeschlossen ist, kommen die Kunden dann oft auf ganz neue Ideen. ‚Verrückte‘ Ideen, die bis vor Kurzem als Science-Fiction gegolten haben.“ 

Alexander Penev, Gründer und Managing Director ByteSource

 

Wie gehen Sie damit um, dass generative KI dazu neigt, zu halluzinieren? Die Kunden wollen doch nachvollziehbarerweise, dass ihre Lösung möglichst vertrauenswürdig ist und auch zuverlässig funktioniert.
Wenn man ein Large Language Model (LLM) out of the box einsetzt, dann verwendet es erst einmal alle Informationen, die es hat. Das ist eine riesige Anzahl an Knoten, die es beliebig kombiniert, und deshalb kann es sehr leicht zu Halluzinationen kommen. Wenn ich das Modell aber auf gewisse Datenquellen beschränke, kann man das eindämmen. Natürlich ist das ein Katz-und-Maus-Spiel. Jede neue Version eines Large Language Model erzeugt neue Halluzinationen.

In der klassischen Informatik ist es so: Wenn ich if, then, else schreibe, dann wird entweder if, then oder else passieren. Wenn nicht, dann habe ich einen Bug. Leider – oder auch zum Glück – ist das bei einem LLM nicht so. Halluzinationen sind sicherlich ein Problem. Aber das kann man einschränken. Man muss nur wissen, womit man es zu tun hat. Wenn ich mit einem LLM, also mit einer künstlichen Intelligenz, die auf einem Large Language Model basiert, arbeite, dann muss ich auch wissen, dass es zu Halluzination kommen kann. Auch andere Technologien haben ihre Eigenheiten, auf die man achten muss. Aber die KI-Entwicklung läuft rasant. Wer weiß schon, wie es in drei Monaten aussehen wird?

Wir nutzen künstliche Intelligenz mittlerweile überall, in Atlassian, in DevOps, in der Cloud, wie nutzen es im IT-Servicemanagement und in der Entwicklung selbstverständlich auch. Ich glaube, dass die gesamte IT-Industrie, von der Entwicklung bis zum Testing und zur Quality-Assurance, in ein, zwei Jahren ganz anders aussehen wird als jetzt.

Man hat das Gefühl, die meisten aktuellen Projekte in Sachen künstlicher Intelligenz drehen sich um Chatbots. Ist das so?
Solche Virtual Assistants lassen sich relativ schnell bauen und können plötzlich von zigtausenden Mitarbeitern genutzt werden. Man kann ganz locker mit solchen Dingen anfangen und das dann ausbauen. So muss man nicht monatelang an einem Projekt arbeiten, wo man nie sicher sein kann, ob es nicht Probleme macht, sondern kann iterativ, Monat für Monat Funktionalitäten hinzufügen. Zwölf Monate später habe ich dann einen riesigen Accelerator gebaut. Big-Bang-Projekte sind normalerweise nicht wahnsinnig erfolgreich. Sobald man eine Basis hat und die Sache versteht, kann man in alle Richtungen gehen. Man kann Code generieren, man kann Storys generieren, man kann Nodes generieren, alles Mögliche. Nachdem so ein Proof-of-Concept-Projekt abgeschlossen ist, kommen die Kunden dann oft auf ganz neue Ideen. „Verrückte“ Ideen, die bis vor Kurzem als Science-Fiction gegolten haben. (RNF)