FONDS professionell Deutschland, Ausgabe 1/2024

Aspekte wie Transparenz, Dokumentation oder Datenwartung einzuhalten sind. Und außerhalb des Hochrisikobereichs … …wird es relativ wenige Vorschriften ge- ben. Da geht es im Wesentlichen um Transparenz. Nutzt eine Bank auf ihrer Website beispielsweise einen Chatbot, muss sie dies künftig offenlegen. Der Kun- de muss also wissen, dass eine Maschine seine Fragen beantwortet und nicht ein Mitarbeiter aus Fleisch und Blut. Texte oder Bilder, die von einer generativen KI erstellt wurden, müssen vermutlich mit einer Art Wasserzeichen versehen werden – das war es dann aber auch schon an neuen Regeln. Was genau auf den Finanzbereich zukommt, wird auch deshalb interessant sein, weil es bereits viele branchenspezifi- sche Gesetze gibt. Wie ist das zu verstehen? Der AI Act sieht vor, dass es keine neuen Vorschriften braucht, wenn es schon ein europäisches Gesetz gibt, das den Sachver- halt ausreichend regelt. In der Praxis heißt das: Die Finanzaufsicht wird entscheiden, ob die bereits bestehenden Vorgaben mit dem vergleichbar sind, was der AI Act vor- schreibt. Ist das der Fall, wird es keine dop- pelte Regulierung geben. Das ist einerseits sinnvoll,macht es andererseits aber schwie- rig, genau zu prognostizieren, worauf sich die Branche einstellen muss. Wie sieht denn der weitere Zeitplan für den AI Act aus? Läuft alles wie geplant, werden erste Teile ab Februar 2026 rechtlich verbindlich sein. Bis dahin muss die EU-Kommission unter anderem noch die technischen Standards formulieren. Nochmuss ein KI-generierter Text oder ein Chatbot also nicht als solcher gekennzeich- net sein. Genau, zwingen kann man dazu bisher niemanden. Aber es wäre sehr ratsam, das freiwillig heute schon offenzulegen. Sollte nämlich tatsächlich einmal etwas schieflau- fen, kann man immerhin argumentieren, mit Blick auf den KI-Einsatz transparent gearbeitet zu haben. Die KI wälzt nicht nur den Finanzsektor um, sondern auch die Medienlandschaft. Ich mache mir zwar noch keine Sorgen, als Redakteur demnächst durch ChatGPT er- setzt zuwerden. Doch ich fragemich, ob es nicht schon bald noch schwieriger wird, mit seriösen Informationen sein Publikum zu erreichen, das womöglich permanent mit KI-produzierten Falschmeldungen bom- bardiert wird. Wie schätzen Sie das ein? Ich glaube, dass menschengemachte Arbeit in Zukunft viel wichtiger wird, eben weil es so viel Fake und Nonsens geben wird, der überall gestreut wird. Das geht mir ge- nauso: Ich finde in meinem E-Mail-Post- fach täglich Papers, die auf den ersten Blick als wissenschaftliche Studie daherkommen, sich dann aber als KI-generierter Fake ent- puppen. Eine Folge wird sein, dass man sich auf Medienmarken zurückbesinnt, die man seit Jahren kennt und denen man ver- traut. In der Wissenschaft wird es ähnlich sein, da wird man noch mehr als heute schon auf den Namen und den Ruf des Forschers achten. Dabei bleibt dann ver- mutlich auch manche gute neue Idee auf der Strecke. Das ist schade, aber es wird fast keine andere Möglichkeit geben. Denn es wird immer schwieriger, relevante Inhalte von Fake Content zu unterscheiden. Vielen Dank für das Gespräch. BERND MIKOSCH FP KURZ-VITA: Sandra Wachter Sandra Wachter begann nach ihrem Jura-Studium 2009 als Anwältin im österreichischen Bundesministerium für Gesund- heit. Doch schon nach einem Jahr zog es sie zurück an die Universität Wien. 2016 wechselte sie nach London, zunächst ans Alan Turing Institute, bald darauf an die University of Oxford. Dort erklomm Wachter die akademische Karriere- leiter. Seit August 2022 ist sie Professorin für Technologie und Regulierung am Oxford Internet Institute der Universität. » Ich kann nur raten, ChatGPT und Co. nicht mit sensiblen Daten zu füttern. « Sandra Wachter, Universität Oxford FOTO: © NIKOLA HAUBNER VERTRIEB & PRAXIS Sandra Wachter | Universität Oxford 316 fondsprofessionell.de 1/2024

RkJQdWJsaXNoZXIy ODI5NTI=