FONDS professionell Deutschland, Ausgabe 3/2017

344 www.fondsprofessionell.de | 3/2017 ten in Passagierflugzeugen keinen eigenen Rechtsstatus ein.“ Ginmon-Geschäftsführer Reiner pflichtet ihm bei: „Am Ende muss immer irgendjemand haften. Ein Roboter ist in der Regel das Eigentum eines Unterneh- mens. Da der Roboter selbst in der Regel kein Haftungskapital besitzt, wird am Ende doch die Firma dahinter haften.“ Die Pläne der EU-Parlamentarier sind noch sehr abstrakt und teilweise unausgegoren. Deshalb empfiehlt Anwalt Becker der Bran- che, die Füße stillzuhalten. Auch Anleger können sich beruhigt zurücklehnen. Falls ein Robo-Kunde einen Schaden erleidet, biete der gegenwärtige Rechtsrahmen genügend Schutz, so Becker. Haften müsse dann der Anbieter des Tools oder das dahinterstehende Finanzinstitut. MARCUS HIPPLER| FP steuer & recht I automatisier te geldanlage Foto: © Scalable Erik Podzuweit I Scalable Capital „ Menschliche Kontrollinstanz“ Erik Podzuweit, Gründer und Geschäftsführer von Scalable Capital, über den Kampf gegen fehlerhafte Codes, die Rolle des Menschen in der digitalen Vermögensverwaltung und den Ruf nach transparenteren Algorithmen. S calable Capital sammelt seit nicht ein- mal zwei Jahren Geld von Kunden ein – und hat sich schon zum Marktführer unter den deutschen Robo-Beratern hoch- gearbeitet. Erik Podzuweit arbeitete als Deri- vate-Profi bei Goldman Sachs und war Deutschlandchef des Online-Möbelhauses Westwing, bevor er Scalable mitgründete. Herr Podzuweit, welche Schäden könn- ten fehlerhafte Algorithmen bei Robo- Beratern zur Folge haben? Erik Podzuweit: Software und Algorithmen werden bei Onlinevermögensverwaltern ent- lang der gesamten Wertschöpfungskette ein- gesetzt – von der Geeignetheitsprüfung über die Produktauswahl bis hin zur Asset Alloca- tion. Fehlerhafte Eingabedaten oder Fehler in der Software beziehungsweise in den Algo- rithmen selbst können entsprechend negative Konsequenzen haben, falls sie nicht abgefan- gen werden. Beispiele hierfür sind eine fal- sche Einstufung der Geeignetheit, die Aus- wahl eines inferioren Produkts oder eine Port- foliogewichtung, die nicht den Anlagericht- linien oder demAnlageziel entspricht. Was tut Scalable, um Technik und Algo- rithmen zu kontrollieren? Generell lässt sich sagen, dass Software im Allgemeinen und Algorithmen im Speziellen bei der Ausführung von komplexen sowie repetitiven Prozessen deutlich weniger Fehler machen als Menschen. Im Gegensatz zu menschlichen Anlageentscheidungen können algorithmische Entscheidungen der Vergan- genheit sowie deren Zustandekommen voll- ständig repliziert werden. Mögliche Fehler können so systematisch analysiert und kor- rigiert werden – ein klarer Vorteil gegenüber menschlichen „Bauchentscheidungen“. Um niedrige Fehlerquoten zu gewährleisten, müs- sen sowohl die Eingabedaten, die Software, die Algorithmen selbst als auch die Ergebnis- se fortlaufend überprüft werden. Wie verläuft die Überprüfung bei Scalable? Und spielt dabei der Faktor Mensch noch eine Rolle? Eingabedaten wie Marktdaten oder Positions- und Bewegungsdaten der Depotbank werden automatisiert durch Software sowie stichpro- benartig durch Menschen in unserem Invest- mentteam auf Vollständigkeit und Plausibilität geprüft. Bei der Programmierung der Soft- ware setzen wir auf Best-Practice-Verfahren der Softwareentwicklung, das heißt, jeder Code wird im Vier- und bei wichtigen Codes mindestens im Sechs-Augen-Verfahren frei- gegeben. Kein Entwickler kann Änderungen ungeprüft für die Produktionsumgebung frei- geben. Außerdem überprüfen auch automati- sierte Tests den Code auf Fehler. Und wie greift der Mensch in die Asset- Allocation-Entscheidungen ein? Die von unserer Technologie generierten Handelssignale, also die Empfehlungen zur Optimierung der Portfolios, werden zum einen durch eine weitere Kontrollsoftware überprüft, beispielsweise hinsichtlich der Fra- ge, ob die Vorschläge die Anlagerichtlinien einhalten. Des Weiteren findet ein mensch- licher Plausibilitätscheck der generierten Handelssignale statt. Der eigentliche Handel, also die Ausführung der Wertpapieraufträge, findet durch unser Investmentteam statt, das die Orders überprüft, bündelt und schließlich an unsere Depotbanken weitergibt. Damit stellen wir sicher, dass es immer eine menschliche Kontrollinstanz gibt, die aller- dings nicht aktiv in das Portfoliomanagement eingreift, sondern das System überwacht, prüft und weiterentwickelt. Wie stehen Sie zu einer möglichen Pflicht für die Robo-Advisors, ihre Algorithmen zu veröffentlichen? Transparenz ist in der Vermögensverwaltung sehr wichtig, denn es handelt sich um eine Dienstleistung, die viel Vertrauen vom Kun- den bekommt. Wir veröffentlichen deshalb ein umfangreiches Whitepaper zu unserer Anlagemethode und halten Informations- abende und Webinare ab, bei denen wir de- tailliert Rede und Antwort stehen. Eine Ver- öffentlichung des konkreten Software-Codes ist aus Wettbewerbsgründen nicht möglich. Sollte es in Europa künftig möglich sein, Software ähnlich wie in den USA patent- rechtlich schützen zu lassen, wäre die Situa- tion durchaus anders. MARCUS HIPPLER | FP Erik Podzuweit, Scalable: „Software macht bei repetitiven Prozessen deutlich weniger Fehler als Menschen.“

RkJQdWJsaXNoZXIy ODI5NTI=