Sandra Wachter sieht die Hyper-Personalisierung im Wealth Management als wichtigen Zukunftstrend, der erst durch den Einsatz künstlicher Intelligenz ermöglicht wird. "Künftig wird es zahlreiche wirklich maßgeschneiderte Finanzprodukte geben. Ohne KI wäre das viel zu aufwendig", sagt Wachter, Professorin für Technologie und Regulierung an der Universität Oxford, im Interview mit FONDS professionell, das in voller Länge in Ausgabe 1/2024 erschienen ist.

Wichtig ist der Juristin, die am Oxford Internet Institute an der Schnittstelle von Technologie und Recht forscht, jedoch, die Möglichkeiten der KI richtig einzuschätzen, ihr also nicht zu viel zuzutrauen. "Die KI hat keine Kristallkugel, sie kann nicht in die Zukunft blicken. Im Gegenteil, sie schaut nur in die Vergangenheit. Daher ist sie in Wahrheit nicht innovativ, sondern urkonservativ", sagt sie. "Man sollte lieber von 'künstlicher Dummheit' sprechen."

"Keine kluge Bibliothekarin"
Wachter räumt ein, dass KI zwar in Sekundenbruchteilen auf das Wissen der Welt zugreifen kann. "Sie ist aber keine kluge Bibliothekarin, die dieses Wissen einzuordnen weiß. Es handelt sich nur um ein statistisches Modell." Was die KI von sich gebe, sei oft richtig, manchmal aber auch völlig falsch. Das Problem sei, dass sie diese falschen Ergebnisse mit hoher Überzeugungskraft kundtun kann. "Ich empfehle Laien, sich KI als hochmotivierten, aber schlampigen Mitarbeiter vorzustellen, dem man dauernd auf die Finger schauen muss." KI ermögliche echte Effizienzgewinne. Ohne Kontrolle gehe es aber nicht.

Bezogen auf die Anlageberatung heiße das, dass der Mensch Stand heute noch gebraucht werde. Aber wie sieht das in einigen Jahren aus, wenn die KI vielleicht nicht mehr so "dumm" ist wie heute? Wo stößt die Technologie an ihre Grenzen? "Das kommt auf die Kundenbeziehung an", meint Wachter. "Ich denke, viele Anleger möchten auch in Zukunft nicht auf den persönlichen Kontakt verzichten, wenn sie über den Vermögensaufbau oder die Altersvorsorge sprechen. Der Finanzberater wird daher nie vollständig wegautomatisiert werden." Selbst wenn es gelinge, einen Avatar zu kreieren, der Empathie zeigen könne: "Menschen möchten es in bestimmten Situationen mit Menschen zu tun haben", betont die Wissenschaftlerin.

"Ich kann nur raten, ChatGPT nicht mit sensiblen Daten zu füttern"
Wachter äußert sich im Interview auch zu Problemen rund um den Datenschutz. Wenn beispielsweise eine Bank ein KI-Tool aus den USA nutzt, fließen die Daten vermutlich einmal aus Europa in die Vereinigten Staaten und wieder zurück. Ist das denn zulässig? Um diese Frage seriös beantworten zu können, bräuchte es mehr Transparenz darüber, was mit den Daten tatsächlich passiere, meint Wachter. "Die Tatsache, dass wir das nicht wissen, ist ein Problem." Denn Daten aus Europa dürften nicht ohne Weiteres in ein Drittland abfließen. "Bis an dieser Stelle Klarheit herrscht, kann ich nur raten, ChatGPT und Co. nicht mit sensiblen Daten zu füttern, also weder mit Geschäftsgeheimnissen noch mit Kundendaten." (bm)


Das vollständige Interview, in dem sich Sandra Wachter unter anderem auch zum kürzlich verabschiedeten "AI Act" der Europäischen Union äußert, lesen Sie in FONDS professionell 1/2024 ab Seite 312 oder hier im E-Magazin (Anmeldung erforderlich).