FONDS professionell Deutschland, Ausgabe 1/2024

Geht das mit dem Hinschauen denn wirk- lich? Oft wird ja argumentiert, KI sei eine „Blackbox“. Die Erklärbarkeit von KI ist ein großes Thema. Viele verstehen darunter, die Funk- tionsweise des gesamten Algorithmus nachvollziehen zu können. Das geht nicht. Es ist aber durchaus möglich, einen Ab- schnitt davon zu verstehen. Entsprechende Tools haben wir in unserer Forschungs- gruppe „Governance of Emerging Techno- logies“ entwickelt, sie werden mittlerweile von vielen Technologiekonzernen einge- setzt. Nehmen wir an, die KI hätte ent- schieden, dass ich das angefragte Darlehen nicht bekommen soll.Dann fordere ich die KI nicht auf, mir den gesamten Entschei- dungsprozess zu erklären. Sondern ich bitte sie, mir zu sagen, an welchen Punkten die Kreditvergabe im konkreten Fall gescheitert ist. Sprich: Was hätte anders sein müssen, damit die KI grünes Licht gegeben hätte? Dann nennt sie mir die entscheidenden zwei oder drei Aspekte, ohne die gesamte Logik erklären zu müssen. Die Notwendigkeit, die Entscheidung einer KI erklären zu können, ist in der Finanz- branche an vielen Stellen schon regulato- risch gefordert, sei es im Dialog mit dem Kunden oder mit der Aufsichtsbehörde. Ist die Branche darauf vorbereitet? Das ist tatsächlich ein Problem. Zum einen wissen manche nicht, dass es Vorschriften gibt, die Erklärbarkeit fordern, etwa die Da- tenschutzgrundverordnung oder einige Fi- nanzgesetze. Zum anderen wird oft vermu- tet, dass KI-Entscheidungen ohnehin nicht erklärbar sind, dabei gibt es sehr wohl Mög- lichkeiten, das zu tun. Der Grund für diese Missverständnisse ist, dass die Techniker oft weit weg von den Juristen sitzen. Wüssten die IT-Experten von vornherein, was recht- lich gefordert ist, würden sie ihre KI anders designen. Darum ist es so wichtig, dass bei- de Seiten zusammenarbeiten – nicht nur, aber insbesondere in der Finanzbranche. Das Thema Datenschutz hat neben der Erklärbarkeit noch eine andere Dimension: Viele KI-Tools stammen aus den USA. Wenn eine hiesige Bank ChatGPT oder eine ähnliche Software nutzt, fließen die Daten vermutlich einmal aus Europa in die Ver- einigten Staaten und wieder zurück. Ist das denn zulässig? Das ist eine wirklich knifflige Frage.Um sie seriös beantworten zu können, bräuchten wir mehr Transparenz darüber,was mit den Daten tatsächlich passiert.Die Tatsache, dass wir das nicht wissen, ist ein Problem.Denn Daten aus Europa dürfen nicht ohne Weite- res in ein Drittland abfließen. Bis an dieser Stelle Klarheit herrscht, kann ich nur raten, ChatGPT und Co. nicht mit sensiblen Daten zu füttern, also weder mit Geschäfts- geheimnissen noch mit Kundendaten. Kürzlich verabschiedeten die EU-Mitglieds- staaten den „AI Act“, also eine Verordnung, die den Rahmen für den Umgang mit KI in der Europäischen Union regeln soll. Lässt sich schon abschätzen, was auf die Finanz- branche zukommt? Ganz klar ist das noch nicht. Der AI Act sieht einen risikobasierten Ansatz vor. Bestimmte Produkte werden künftig ver- boten sein, davon dürfte der Finanzsektor aber nicht betroffen sein. Relevanter für die Branche ist der Hochrisikobereich. Hier geht es um Anwendungen, bei denen der Gesetzgeber vermutet, dass der Einsatz von KI erhebliche Risiken birgt. Da geht es un- ter anderem um die Strafrechtspflege, den Umgang mit Arbeitnehmern, aber auch Teile des Finanzwesens. Mit Sicherheit fal- len Bereiche wie die Darlehensvergabe oder Kreditwürdigkeit-Scorings darunter, vielleicht auch Themen wie die Betrugsbe- kämpfung. Das neue Regelwerk sieht vor, dass die Unternehmen ein „Impact Assess- ment“ vornehmen. Dabei prüfen sie unter anderem, inwieweit der Einsatz einer KI Grund- und Menschenrechte betreffen würde. Vom Ergebnis dieser Prüfung hängt dann ab, welche Pflichten mit Blick auf » Künftig wird es viele maßgeschneiderte Finanzprodukte geben. Ohne KI wäre das viel zu aufwendig. « Sandra Wachter, Universität Oxford FOTO: © NIKOLA HAUBNER VERTRIEB & PRAXIS Sandra Wachter | Universität Oxford 314 fondsprofessionell.de 1/2024

RkJQdWJsaXNoZXIy ODI5NTI=