Technology

KI-Transformation

Warum moderne KI-Methoden besser & damit schwerer einsetzbar sind.

Die wohl wichtigste allgemeine Entwicklung im Bereich der Künstlichen Intelligenz ist die Möglichkeit, auf großen Mengen von Daten KI-Modelle zu trainieren, noch bevor überhaupt klar ist, wofür das KI-System überhaupt verwendet werden soll. Es reicht bereits Klarheit darüber zu haben, welche Daten von dem KI-System verarbeitet werden müssen. Das Gros der Forschung konzentriert sich zwar auf prozentuale Verbesserungen des bisher erreichten. Die wesentlich relevantere Entwicklung ist aber, dass diese Vortrainierbarkeit auf immer mehr Datensorten verfügbar wurde.

In der automatischen Bildverarbeitung (Computer Vision) waren es Deep Convolutional Neural Networks, die eine Revolution einläuteten und Bilder durch KI interpretierbar machten. In automatischen Sprachverarbeitung (Natural Language Processing) sind es die Transformer, die es KI-Systemen ermöglichen, auch Texte inhaltlich auf qualitativ hohem Niveau zu erschließen. Representation learning schließlich wird für strukturierten Daten einen Qualitätssprung herbeiführen.

Sourcing Prozesse​

Gleichzeitig bedeutet das jedoch, dass etablierte Herangehensweisen an KI-Projekte nicht mehr funktionieren. Zum Beispiel kann ein externer Anbieter eines echt trainierbaren KI-Systems in einem klassischen sourcing Szenario die Vorteile der neuen Technologien grundsätzlich nicht demonstrieren. Dafür bräuchte er erst sämtliche verfügbaren Daten für die Analyse, auf die er aber als Externer keinen Zugriff erhalten kann.

Auch fällt für diese datenspezifische, aber use case unspezifische Analyse bereits ein beträchtlicher technischer und zeitlicher Aufwand an, der im Rahmen der üblichen proof-of-concept Budgetgrenzen nicht abbildbar ist. Hinzu kommt noch, dass KI-Lösungen eines Anbieters qualitativ leicht von der Lösung eines anderen Anbieters zwei oder drei Jahre später übertroffen werden kann. Eine zu starre Bindung an einen bestimmten KI-Anbieter für zu lange Zeit kann sehr ungünstig werden.

Wir beobachten aktuell zwei verschiedene Lösungsstrategien: Einerseits externes sourcing durch immer professionellere Wettbewerbe auf echten (Teil)Daten. Andererseits Aufbau interner Kapazitäten derartige Lösungen in-house zu erstellen. Beide Strategien haben ihre Berechtigung, oft sogar in dem gleichen Unternehmen.

Trend zu Supercomputern​

Weiterhin zeigt der aktuelle Trend in der Forschung dahin, dass mehr Rechenleistung direkt übersetzbar ist in bessere Qualität der KI-Lösungen. Konkret verdoppelt sich die eingesetzte schiere Rechenkapazität (um in einem akademischen Wettbewerb an der Spitze bleiben zu können) aktuell alle drei Monate! Dies passt wiederum nicht mit etablierten Einkaufsprozessen zusammen. Hier müssen neue Methoden etabliert werden, wie der Mehrwert (z.B. 2% mehr Score?) mit den Mehrausgaben (z.B. in Höhe von 2 Mio Euro) verrechnet werden kann.

Es gibt einen klaren Trend hin zu Supercomputern. Zum Vergleich, zum Training des allgemeinen Sprachmodells GPT3 wurde Rechenkapazität in Höhe von $4.6 Millionen aufgewendet, wenn sie einfach per Cloud Dienst gekauft worden wäre. Dafür ist dies das erste Modell, welches unter anderem in der Lage ist, einen völlig frei erfundenen Zeitungsartikel zu schreiben, den ein Mensch kaum noch von einem echten Zeitungsartikel unterscheiden könnte.

Arbeitsprozesse und Rollen

Doch Rechenleistung oder Fähigkeit der KI-Modelle ist nicht alles. Durch das enorme Interesse an KI-Themen ist auch gleichzeitig die Fülle an Lösungen für jedes Problem in diesem Bereich geradezu explodiert. Selbst für Experten wird es zunehmend schwierig bis unmöglich wirklich jede Datenplattform, Deep Learning Bibliothek, Datentransformationsbibliothek oder Analysetool zu kennen. Es findet eine enorme Aufspreizung der Arbeitsteilung statt. Damit steht vor jedem KI-Projekt auch stets die Entscheidung, welcher Teil als Standardservice (z.B. von der Google Plattform), welcher Teil von einem externen Dienstleister (z.B. die Annotation der Daten), und welcher Teil in-house gelöst werden sollte. Darüber hinaus entwickeln sich die Dienste und Anbieter derart rasant, dass eine richtige Entscheidung heute schon in drei Monaten wieder revidiert werden müsste.

Wir beobachten aktuell einen Trend hin zur Auslagerung der Plattformdienste an die großen Anbieter wie Google Cloud, Microsoft Azure, Amazon AWS oder SAP. Gleichzeitig beobachten wir auch eine Zunahme Vielfalt der Stellenprofile innerhalb der Unternehmen, die sich auch zunehmend loslösen von den ursprünglichen Spezialisierungen (z.B. BioNLP Experte). Statt dessen orientieren sich die Profile zunehmend entlang der Abstraktionsschichten, aus den ein KI-System besteht. Z.B. DevOps für den Betrieb oder Erweiterung einer Datenplattform vs ein Data Scientist für die Analyse von Daten, die in der Plattform verwaltet werden.

Zusammenfassung

Künstliche Intelligenz erfüllt jetzt immer mehr die Erwartungen, die wir als Menschen in sie schon länger gestellt haben. Ständige Änderungen an Sourcing Prozessen, eine stark wachsende Zunahme der nötigen Rechenleistung, sowie ständig neue Arbeitsprozesse und Rollen erfordern jedoch eine extrem hohe Agilität von Unternehmen. Dies begründet, warum aktuell alle Unternehmen vor großen Herausforderungen stehen.