Um die Entwicklung von Software auf Basis von künstlicher Intelligenz (KI) kommt auch die Finanzbranche nicht herum. Daher gehen die Sparkassen das Thema an, allerdings auf einem Sonderweg, der sich als teuer und komplex herausstellen könnte: Das Sparkassen GPT, der hauseigene generative Chatbot, soll im Rechenzentrum des Sparkassen-IT-Dienstleisters Finanz Informatik (FI) laufen und nicht wie sonst üblich bei einem der großen Public-Cloud-Anbieter, wie das "Handelsblatt" berichtet.

Hierzu muss man wissen, dass die meisten Unternehmen bei der Entwicklung von KI-Tools Sprachmodelle von Open AI nutzen. Das amerikanische Start-up hatte mit seinem Chatbot ChatGPT den Hype um KI im November 2022 bekanntlich ausgelöst. Ferner mieten sie ihre Rechenkapazitäten zum Großteil über die US-Tech-Riesen und setzen auf die Cloud-Dienste von Amazon (AWS) sowie auf Microsofts Azure oder auf Google Cloud, so die Zeitung.

Sparkassen nutzen Mistral und Meta
Die FI dagegen setzt mit Meta und Mistral auf frei zugängliche KI-Modelle, deren Quellcode offen einsehbar ist und bearbeitet werden kann. Zudem setzen die Sparkassen nicht auf die Cloud-Anbieter, sie wollen die KI-Anwendungen in ihren durch Nvidia-Chips aufgerüsteten Rechenzentren laufen lassen, wie FI-Chef Andreas Schelling dem "Handelsblatt" sagte. Die rechenintensiven KI-Anwendungen laufen auf den Grafikprozessoren von Nvidia schneller als bei der Konkurrenz.

Schelling führt für den Sonderweg der Sparkassen zwei Argumente an: Datenhoheit und Prüfbarkeit. "Erstens ist den Sparkassen Datensicherheit sehr wichtig. Zweitens gehen wir davon aus, dass es durch den AI Act der EU Dokumentationspflichten gibt, die Unternehmen besser erfüllen können, wenn sie die KI selbst betreiben", sagte er der Zeitung. Der AI Act, das EU-Gesetz zur KI-Regulierung, sehe nämlich unter anderem vor, dass Unternehmen eine technische Dokumentation mit detaillierten Angaben zu den verwendeten Daten und Modellen vorlegen.

IT-Experten sind skeptisch
Benedikt Bonnmann, Vorstand des IT-Dienstleisters Adesso, sieht die Entscheidungen der Sparkassen skeptisch. Es gebe zwar durchaus Fälle, in denen sich die Anschaffung eigener KI-Rechenkapazitäten lohne. "Doch der Weg über Microsoft, Amazon und Co. ist deutlich kostengünstiger und schneller umsetzbar", sagte er der Wirtschaftszeitung. 95 Prozent seiner Kunden, außerhalb streng regulierter Bereiche, würden so vorgehen. Denn schon ein einziger Grafikprozessor von Nvidia koste 30.000 Euro. Zum Training großer Sprachmodelle würden mehrere Hundert oder sogar Tausende solcher Chips benötigt, sagte Bonnmann, der im Adesso-Vorstand für das Thema Datenanalyse verantwortlich ist. (jb)