Viele Unternehmen sehen in KI zur Textgenerierung die größte digitale Revolution seit dem Smartphone. © Adobe Stock/fotovika
Kaum ein Tag vergeht ohne Nachricht von und über ChatGPT – gute wie schlechte. Heftige Reaktionen sind in beiden Fällen vorprogrammiert ...
... Wozu ist der vermeintlich intelligente Textgenerator tatsächlich imstande und ist er auf menschliche Leistung angewiesen oder macht er sie obsolet?
Der Chatbot ChatGPT (Generative Pre-Trained Transformer) des US-amerikanischen Start-ups OpenAI sorgt seit Monaten für Diskussionsstoff. Über eine Million Nutzer haben wenige Wochen nach dem Launch bereits mit der künstlichen Intelligenz (KI) „kommuniziert“ – Tendenz steigend. Die verblüfften Reaktionen der Anwender reichen von großer Begeisterung über Risikoabwägungen bis hin zu reißerischen Warnungen vor der bevorstehenden Apokalypse.
„Der breitflächige Einzug von künstlicher Intelligenz wird einen Kahlschlag auf dem Arbeitsmarkt auslösen, auf den Deutschland nicht vorbereitet ist“, warnt zum Beispiel Harald Müller, Geschäftsführer der Bonner Wirtschafts-Akademie. Er verweist auf Studien, die davon ausgehen, dass bis zu 80 Prozent aller gewerblichen Arbeitsplätze in Deutschland der KI zum Opfer fallen werden.
„Selbst wenn diese Zahlen zu hoch gegriffen sind und nur ein Drittel aller Jobs durch KI vernichtet wird, würde das zu Verwüstungen auf dem Arbeitsmarkt führen“, gibt er zu bedenken. Harald Müller ist sich sicher: „Überall dort, wo es um Rollenspiele nach festgelegten Regeln geht, wird künstliche Intelligenz auf Dauer Einzug halten: Algorithmen statt Sachbearbeiter. Das bedeutet, dass beinahe jeder Arbeitsplatz, an dem jemand vor einem Computer sitzt, gefährdet ist.“
In einigen Branchen wie dem Versicherungswesen könnten durch KI mehr als 90 Prozent aller Arbeitsplätze wegrationalisiert werden, sagt Müller unter Bezugnahme auf entsprechende Studien. Über alle Branchen hinweg soll die „KI-Vernichtungsquote“ bei knapp 50 Prozent liegen. „Es stehen auf jeden Fall viel zu viele Jobs im Feuer, als dass wir das als Gesellschaft einfach so hinnehmen können“, mahnt Müller. Er ordnet den breitflächigen Einzug von künstlicher Intelligenz in einer historischen Dimension ein, vergleichbar mit der industriellen Revolution im 19. Jahrhundert.
„Damals wurde die menschliche Muskelkraft durch Maschinen abgelöst, mit den bekannten Folgen. Heute stehen wir an der Schwelle zur Ablösung des menschlichen Denkens durch Algorithmen. Im Endeffekt hat die Industrialisierung erst die Grundlage für unseren heutigen Wohlstand in weiten Teilen der Welt wie auch in Deutschland geschaffen. Aber die Jahrzehnte auf diesem Weg waren für viele Menschen schwere Zeiten. Eine ähnliche Entwicklung steht jetzt vor uns: Am Ende mag KI den Wohlstand weiter erhöhen. Aber die Bewältigung der damit verbundenen Umwälzungen wird für die heutige und wohl auch die nächsten Generationen nicht leicht werden.“
Illusion einer Denkleistung
Aus Sicht von Johannes Moskaliuk, Professor an der ISM International School of Management, sind die zuweilen heftigen Reaktionen zwar verständlich, aber wenig hilfreich, wenn es um eine nüchterne Beurteilung von ChatGPT geht. Der Digitalisierungsexperte differenziert, dass es sich hier aktuell noch um ein Sprachmodell und nicht etwa um ein Wissensmodell handelt. Diese Unterscheidung sei essenziell, wenn es um die Bewertung der neuen Technologie geht:
„Grundlage für ChatGPT ist ein künstliches neuronales Netz, das versucht, menschliche Sprache in einem statistischen Modell abzubilden. Mit diesem Modell wird beschrieben, welche Sätze, Antworten und Aussagen in einem bestimmten Kontext passend sind. Dazu wird das Modell mit bestehenden Inhalten trainiert, im Falle von GPT sind das Milliarden von Wörtern, die auf Webseiten im Netz veröffentlicht sind.“ Die neue Technik versucht demnach, menschliche Kommunikation zu imitieren, ohne eigene kreative Denkleistung, betont Moskaliuk: „Die KI ‚versteht‘ nicht, worum es geht, sondern berechnet, welche Antwort passend sein könnte – mit hoher Treffsicherheit.“
Ein Blick auf Google sei dabei hilfreich, um die Weiterentwicklung von ChatGPT aufzuzeigen, erklärt der ISM-Professor für Data Science und Business Analytics, Veith Tiemann. Im Gegensatz zu Google zeigt ChatGPT nicht mehr die Links bzw. Textquellen zu einer Stichwortsuche an, sondern erstellt auf Basis eines künstlichen neuronalen Netzes selbst eine präzise erscheinende Antwort. Diese wird aufgrund statistischer Zusammenhänge und Wahrscheinlichkeiten berechnet. Da die menschliche Sprache aber auch von Feinheiten und Zwischentönen lebt, können dabei auch merkwürdige Ergebnisse bis hin zu Fake News entstehen: „Der Chatbot ist also nur so präzise und korrekt wie die Textinhalte, mit welchen er gefüttert wurde“, so der Statistik-Experte.
„Die Tatsache, dass die Unterscheidung zwischen ausgefeilter Sprachimitation und eigenständigem Denken kaum mehr für die menschlichen User:innen transparent ist, erscheint dabei als die eigentliche Herausforderung im Umgang mit der neuen KI-Generation“, erläutert Tiemann. Aus diesem Grund sei auch eine disziplinübergreifende fachliche und gesellschaftliche Diskussion notwendig, wie ISM-Kollege und Wirtschaftspsychologe Johannes Moskaliuk fordert:
„Psychologische, soziale, ethische und juristische Aspekte machen eine interdisziplinäre Sicht auf die anstehenden Veränderungen notwendig. Durch die neuen KI-Leistungen müssen wir Fragen lösen wie diese: Wer ist verantwortlich für eine KI, die diskriminierende Aussagen macht – und damit nur das wiedergibt, was das System auf Basis von Trainingsdaten kombiniert hat? Wer übernimmt die Verantwortung für Behandlungsfehler, die auf Basis einer Empfehlung durch eine KI zustande kamen? Wer hat die Rechte an einem Gedicht, das von einer KI geschrieben wurde?“ Die Hochschulen sind in Zukunft also nicht nur gefordert, ihre Prüfungsnachweise zu überdenken, sondern müssen sich auch interdisziplinär mit den Auswirkungen der neuen KI-Systeme wissenschaftlich auseinandersetzen.
Nur die Spitze des Eisbergs
„Computersysteme, die mit Menschen alltagstaugliche Dialoge führen können, sind nur die Vorläufer einer gigantischen Welle von Anwendungen mit künstlicher Intelligenz“, prognostiziert Edward Lenssen, CEO der niederländischen Programmschmiede Beech IT. OpenAI hat mit ChatGPT zwar bereits jetzt einen Hype ausgelöst, doch „das ist nur die Spitze des Eisbergs“, so Lenssen, denn „das größte Potenzial der KI-Anwendungen liegt noch im Verborgenen – aber sicherlich nicht mehr lange.“
ChatGPT ist nach Einschätzung des Softwareexperten „wie ein Weckruf“, weil die Software erstens ein bemerkenswert breites Spektrum an Fragen im Dialog beantworten kann, und zweitens in zahlreichen Sprachen, darunter auch Deutsch, funktioniert. Edward Lenssen ordnet ein: „Bei ChatGPT handelt es sich weniger um einen wissenschaftlichen Durchbruch als vielmehr um eine Demonstration des aktuellen Stands in der KI-Forschung. Das System zeigt öffentlich, was heutzutage möglich ist, wenn Deep Learning mit gewaltigen Rechnerressourcen und gigantischen Datenmengen über das Wissen der Welt ausgestattet wird.“
Laut einer aktuellen Expertenumfrage der Software-Entwicklungsfirma Beech IT sind 85 von 100 Fachleuten davon überzeugt, dass die intelligente Auswertung immer größerer Datenberge („Big Data“) zu innovativen und lukrativen Geschäftsmodellen führen wird. Darunter werden sich zahlreiche disruptive Geschäftsmodelle befinden, die ganze Wirtschaftszweige auf den Kopf stellen, sind 47 Prozent der Fachleute sicher. „Wer in der Wirtschaft Verantwortung trägt, ist gut beraten, sich über mögliche Auswirkungen von künstlicher Intelligenz auf seine Branche klar zu werden“, rät der Softwareexperte.
Höchste Zeit, Know-how aufzubauen
Edward Lenssen warnt: „Das alte Sprichwort, dass nichts so heiß gegessen wie es gekocht wird, gilt in Bezug auf künstliche Intelligenz nicht. Ganz im Gegenteil wird KI immer heißer werden und in vielen Branchen geradezu eine Implosion auslösen.“ Er gibt zu bedenken, dass Dialogsysteme wie ChatGPT heute schon in der Lage sind, die Kommunikation zwischen Firmen und Kunden weitgehend automatisiert zu übernehmen. Dank moderner Stimmerkennung und Sprachsynthese funktioniert die Mensch-Maschine-Schnittstelle auch am Telefon immer besser; 80 Prozent der Deutschen nehmen am liebsten per Telefon Kontakt zu einem Kundenservice auf.
Der Einsatz von KI-Systemen wird nicht auf die Dialogführung begrenzt bleiben, gibt Edward Lenssen einen Ausblick auf die Zukunft. Er zählt beispielhaft auf: „Bei Banken und Versicherungen, im Gesundheitswesen, der Logistik, dem produzierenden Gewerbe, im Dienstleistungssektor, dem Öffentlichen Dienst und generell überall dort, wo Menschen vor Bildschirmen sitzen, wird sich künstliche Intelligenz auf die eine oder andere Weise bemerkbar machen.“
Die Auswirkungen werden für die Unternehmen bzw. Behörden selbst wie auch auf der Arbeitsplatzseite spürbar werden, warnt Lenssen. Die derzeitigen Diskussionen über den Wert von KI-Kunst, nachdem 2022 ein KI-generiertes Bild als Sieger aus einem Kunstwettbewerb in den USA hervorgegangen war, stehen nach Einschätzung des Experten exemplarisch dafür, wie Branchen vom KI-Trend überrascht werden können.
Edward Lenssen erklärt: „Firmenchefs, die künstliche Intelligenz als eine Entwicklung der fernen Zukunft ohne Bezug zu ihrem heutigen Geschäft einordnen, werden sich eines Besseren belehren lassen müssen. Ganz im Gegenteil ist es längst höchste Zeit, Know-how über künstliche Intelligenz ins Unternehmen zu holen.“ Dabei sei der KI-Einsatz auf mehreren Ebenen zu berücksichtigen, stellt der Experte klar: „Die Weiterentwicklung des eigenen Angebots, der Wettbewerb auch durch branchenfremde Quereinsteiger und nicht zuletzt der Aufbau von Programmierkapazitäten.“ Denn: „Am Ende ist künstliche Intelligenz in erster Linie eine Frage der Software“, fasst Edward Lenssen zusammen.
KI-Qualität in menschlicher Hand
Anfang des Jahres wurde bekannt, dass der Textgenerator von OpenAI bei seiner Entwicklung zu kenianischen Billigarbeitern gegriffen haben soll. Für weniger als zwei US-Dollar pro Stunde sollen Mitarbeiter der ostafrikanischen Firma Sama beauftragt worden sein, die KI zu trainieren, hieß es in einem Bericht von „Time”.
Künstliche Intelligenz ist von menschlichem Input abhängig. Sie muss manuell mit Daten gefüttert werden, um zu lernen. Doch wie steht es um die Qualität bei der Entwicklung von KI, wenn dieses Training an Billiglohnkräfte abgegeben wird?
„Das Wissen der KI wird vor allem aufgrund der zur Verfügung gestellten Labels generiert. Die Personen, die die Daten und in weiterer Folge die Labels aufbereiten, sind demnach die Lehrerinnen und Lehrer dieser“, erklärt Ernst Nusterer, CEO der Wiener KI-Firma link|that. Der Prozess wird, wie im Fall von OpenAI, oft ausgelagert und für einen definierten Stundensatz bei Labeling-Firmen erledigt. „Die Entscheidungen einer KI sehen wir leichtsinnig gerne als objektiv an. Das sind sie aber keineswegs, und dieser Irrtum ist brandgefährlich.“
Bei link|that in Wien werden seit mehr als fünf Jahren KI-Lösungen hausintern erarbeitet. Dabei sind das Labeling und die hohen Ansprüche des Trainings zentrale Themen. Hier ist ein eigenes Team damit beauftragt, zu entscheiden, was der KI beigebracht wird.
Oberste Priorität hat die Qualität der verwendeten Daten, so Tina Waldner vom Labeling-Team: „Uneindeutige, unklare Daten, von denen wir auch nur vermuten, dass sie beim Training ein Problem darstellen könnten, werden erst gar nicht in den Datenpool aufgenommen. Ganz nach dem Motto: Lieber weniger, aber dafür gute Daten.“
Nicht nur die Qualität des Trainingsmaterials ist entscheidend. Für das Labeling ist vor allem auch Konzentration beim Team gefragt: „Wir achten auf genaues und präzises Arbeiten, ebenso wichtig ist die interne Absprache. Wir müssen immer am selben Stand sein, um gleich arbeiten zu können. Ein sehr wichtiger Punkt ist der ständige Austausch mit dem Entwicklerteam“, betont Waldner.
Fazit
Bei der schnell fortschreitenden Entwicklung von KI-Software müssen künftig auch der Prozess im Hintergrund und dessen Qualität transparenter gemacht werden. Hier spielt der Mensch eine tragende Rolle. Denn letztendlich entscheidet das Training, wie gut eine Software ist, welchen Mehrwert sie bietet und ob wir den Ergebnissen wirklich vertrauen können. (BO)
INFO-BOX I
BFI-Wien-Seminar: ChatGPT im Arbeitsalltag
Beim BFI-Wien-Seminar „ChatGPT im Arbeitsalltag“ (nächster Termin: 2. Juni 2023) erfahren Interessierte, wie sie mithilfe von KI-Tools und -Software ganz einfach Prozesse in ihrem Berufsalltag automatisieren und sich so den Arbeitsalltag erleichtern können. Egal ob als fortschrittliche Suchmaschine, als Ideenlieferant im Marketing, als Inspirationsquelle für Texte und Projekte oder ähnliches – in dem Seminar wird praktisch dargelegt, wie am meisten aus ChatGPT, Midjourney, DALL-E & Co. herauszuholen ist. Mit AK-Bildungsgutschein und AK-Digi-Bonus kostet das Seminar 50 Euro (Regulärpreis: 290 Euro).
https://link.bfi.wien/ChatGPT
INFO-BOX II
ChatGPT 4: Noch kreativer und „weniger voreingenommen“
Die neue Version ChatGPT 4 stellt laut Hersteller OpenAI die „fortschrittlichste“ KI-Technologie dar, die noch kreativer, dafür „weniger voreingenommen“ sei und im Rahmen eines Tests sogar eine Anwaltsprüfung mit Bestnote bestanden haben soll. Zudem soll die Wahrscheinlichkeit sachlicher Antworten in der neuen Version gegenüber dem Vorgänger ChatGPT 3.5 um 40 Prozent gestiegen und die KI nun in der Lage sein, achtmal mehr Text zu erstellen. „Es hat sich eine ganze Menge geändert und verbessert“, so Sophos-Securityexperte Chester Wisniewski. „Im Großen und Ganzen scheint es intelligenter, genauer und fähiger zu sein als frühere Versionen, was die Reaktionen noch realistischer und kompetenter machen sollte. Es ist dennoch wichtig, daran zu denken, dass es zwar weniger häufig falsche Informationen verbreitet, aber immer noch ein ziemlich guter Lügner ist.“
www.sophos.de