Direkt zur Hauptnavigation springen Direkt zum Inhalt springen

Künstliche Intelligenz

Historie

ACATIS - Vorreiter der KI im Asset Management

In der Investmentbranche zählt ACATIS zu den Vorreitern beim Einsatz von Künstlicher Intelligenz (KI). Seit 2014 forscht ACATIS in diesem Bereich, um sie im Portfoliomanagement zu nutzen. Die erste praktische Anwendung von Künstlicher Intelligenz bei ACATIS erfolgte bereits 2016.

ACATIS forscht

ACATIS forscht seit mehreren Jahren im Bereich der Künstlichen Intelligenz, um sie für das Portfoliomanagement nutzbar zu machen. Den Anfang bildeten Programme zur Textanalyse, die z. B. einen Geschäftsbericht nach bestimmten Schlüsselwörtern durchsuchen konnten. 

Heute arbeitet ACATIS hauptsächlich mit Deep Learning Modellen, einem Ansatz aus dem Bereich des Maschinellen Lernens. Diese Art der Künstlichen Intelligenz ist vergleichbar mit einem erfahrenen Analysten. Erfahrene Analysten sind geübte Mustererkenner - vermutlich haben sehr geübte Analysten in ihrem Leben mehr als 10.000 Geschäftsberichte gesehen. Trotz allem kann ein Mensch bei der Unternehmensanalyse und -bewertung nur eine begrenzte Anzahl von Kennziffern und Berichten verarbeiten und erinnern. Die Künstliche Intelligenz kennt hingegen alle Geschäftsberichte und ist zunächst nur durch ihre Rechenkapazität beschränkt. 

Das Potenzial der KI wächst sukzessive, der Mensch dagegen „bleibt stehen“. Zudem ist die KI schneller, erkennt mehr und arbeitet gründlicher. Eine KI ist emotionslos und wird nicht müde. Und ganz besonders wichtig beim Machine-Learning: Die Welt ist nicht linear, sondern es werden multi-dimensionale, d.h. nichtlineare, Zusammenhänge gefunden, die auch die Vergangenheit berücksichtigen. Inspiriert vom menschlichen Gehirn tragen manche Modelle auch dem Erinnerungsvermögen Rechnung. So kann nach Mustern gesucht werden, die beispielsweise im Vorfeld der Finanzkrise virulent waren. Damit lässt sich das menschliche Gehirn überlisten, bei dem die Gegenwart deutlich präsenter ist als die Vergangenheit. Die Maschine kann im Rückblick auf die Vergangenheit Warnsignale entdecken, die der Mensch ausblendet.


Die Anfänge der Künstlichen Intelligenz

Die Geburtsstunde für den wissenschaftlichen Bereich „Künstliche Intelligenz (KI)“, englisch Artificial Intelligence (AI), war 1956 im Dartmouth Summer Research Project in Hanover, New Hampshire, USA. Es kamen Pioniere aus dem Bereich Computer Science wie Marvin Minsky zusammen, um die Frage zu klären, ob denkende Computer erschaffen werden können. In dem Förderantrag heißt es: „[…] Es soll versucht werden, herauszufinden, wie Maschinen dazu gebracht werden können, Sprache zu benutzen, Abstraktionen vorzunehmen und Konzepte zu entwickeln, Probleme von der Art, die zurzeit dem Menschen vorbehalten sind, zu lösen, und sich selbst weiter zu verbessern. […]“.* Die heutigen KI Systeme lernen tatsächlich selbstständig ihre eigenen Regeln, können allerdings nur eine definierte, spezielle Aufgabe so gut wie oder besser als ein Mensch erfüllen.
 

Maschinelles Lernen

Maschinelles Lernen (Machine Learning) ist ein Teilbereich der KI, bei dem Maschinen aus Daten lernen, ohne explizit per Wenn-Dann-Regel programmiert zu sein. Das wichtige Wort hierbei ist „lernen“. Modelle des Maschinellen Lernens passen sich durch wiederholtes Beobachten der Daten und den dazugehörigen, erwarteten Antworten an und verbessern ihre Leistung – genau wie ein Mensch. Die Maschine erstellt sich ein eigenes Regelwerk, um eine vordefinierte Aufgabe zu erfüllen. Einmal gelernt, kann die Maschine ihr aufgebautes Wissen auf unbekannte Daten anwenden und uns eine eigene Antwort liefern. Wichtig beim Lernen ist, dass die Daten nicht stur auswendig gelernt werden, denn sonst sind neue Antworten der Maschine auf unbekannten Daten nicht nutzbar.
 

Deep Learning

Deep Learning ist eine spezielle Methode des Maschinellen Lernens, die seit 2010 stark an Popularität gewonnen hat. Eines der am meisten genutzten Konzepte der letzten Jahre sind Deep Neural Networks (DNNs), die ihren Namen den vielen, tief gestaffelten Schichten zu verdanken haben. Die in den Schichten gelernten Zusammenhänge und Muster werden mit zunehmender Tiefe immer komplexer. Einfache Zusammenhänge in ersten Schichten bei einer Bilderkennung könnten Ecken und Kanten sein, während in den tiefen Schichten die vorher gelernten Zusammenhänge zusammengesetzt und ganze Objekte erkannt werden. Bereits jetzt können Deep Learning- Modelle so gut wie oder besser als ein Mensch Bilder klassifizieren und erzeugen, Sprache erkennen und übersetzen, Krankheiten diagnostizieren, Auto fahren oder Brettspiele spielen. In unser tägliches Leben hat KI bereits Einzug gehalten.


*Quelle: https://www-formal.stanford.edu/jmc/history/dartmouth/dartmouth.html


Der Erfolg von Künstlicher Intelligenz

Warum Künstliche Intelligenz? Warum jetzt?

Warum konnten die bereits in den 90ern erforschten Grundlagen für Künstliche Intelligenz nicht bereits damals in nennenswerte Erfolge umgewandelt werden, sondern erst in den 2010ern? In den letzten drei Jahrzehnten haben technische Fortschritte in drei Bereichen zum erfolgreichen Einsatz von Künstlicher Intelligenz geführt:


1. Hardware

Die Rechenleistung von Computern ist exponentiell gestiegen, sodass heute auf einem Laptop mit einem handelsüblichen Prozessor (CPU) bereits kleine Künstliche Intelligenz-Modelle trainiert werden können. Vor 25 Jahren wäre dies unmöglich gewesen. Allerdings haben Firmen wie NVIDIA oder AMD durch ihre Entwicklung von Grafikprozessoren (GPU) für die Computerspieleindustrie die KI-Forschung in weitaus größerem Maße gefördert. Wenige GPUs ersetzen ganze Cluster an CPUs. Zum Vergleich: Der Universal Automatic Computer (UNIVAC) aus dem Jahr 1951 schaffte 2.000 Berechnungen pro Sekunde und brauchte 36 Quadratmeter Platz. Die DGX A100 von NVIDIA von heute leistet 5 Billiarden Berechnungen pro Sekunde und ist zudem von der Größe etwas handlicher. Ein Mensch kann mit dieser Leistung schon lange nicht mehr mithalten, er müsste dafür 160 Millionen Jahre lang jede Sekunde eine Berechnung durchführen. Schachweltmeister oder Piloten kommen beim Konkurrieren mit Maschinen ins Schwitzen.

Die gleiche Entwicklung wie bei der Rechenleistung sehen wir bei den Speicherkapazitäten. 1956 war eine Festplatte 5 Megabyte groß und hatte die Maße eines Kühlschranks. Heute hat ein gutes mit einem Handy gemachtes Foto schon mehr Megabyte. Und eine aktuelle SD-Karte mit 1 Terabyte Speicherkapazität hat die Maße einer Fingerkuppe. Die Steigerung liegt hier bei einem Faktor von 200.000.

 

2. Daten

Die Verfügbarkeit von Daten (Stichwort Big Data) ist unter anderem durch das Internet kontinuierlich gestiegen. ImageNet ist beispielsweise ein Datensatz, der mit 14 Millionen Bildern vor allem in der Forschung zur Bilderkennung und für einen jährlichen Wettbewerb mit Deep Learning eingesetzt wird. ACATIS baut seit über 20 Jahren eine Unternehmensdatenbank auf, die Finanzdaten bis in das Jahr 1986 enthält. 50.000 Firmen mit mehr als 1.000 verschiedenen Faktoren werden gepflegt. Die Datenverarbeitung ist einfacher geworden. Früher wurden Unternehmensdaten per Hand in den Computer eingegeben, um sie anschließend mit Regressionen zu analysieren. Heute füttern wir unsere Künstliche Intelligenz-Modelle mit Daten, die automatisiert und in großem Umfang von Datenanbietern geliefert werden.

 

3. Software

Erst mit genügend Rechenleistung und Daten konnten Künstliche Intelligenz-Modelle nicht nur theoretisch, sondern auch praktisch trainiert werden. In den letzten Jahren wurden auch die Algorithmen verbessert, was zu besseren Anwendungen geführt hat. Zudem erfolgte eine Demokratisierung der Software. Während früher jeder seinen kompletten Code selbständig programmierte, gibt es heute in der Programmiersprache Python frei verfügbare Pakete wie CUDA, PyTorch, TensorFlow oder Keras, die die Forschung zu Künstlicher Intelligenz vereinfachte. Mit steigenden Erfolgen einher ging das wirtschaftliche Interesse an den Ergebnissen. 2013 wurde beispielsweise das Künstliche Intelligenz Startup DeepMind für 500 Millionen USD von Google gekauft. Heute beschäftigen sich nicht mehr nur einige hundert Wissenschaftler mit Künstlicher Intelligenz, sondern zehntausende. Schwerpunktländer der Forschung sind die USA, Kanada und China.

Volumen der weltweit erstellten, erfassten, kopierten und verbrauchten Daten

von 2010 bis 2025

Quelle: www.statista.com; * Prognose


Das Künstliche Intelligenz Modell

Modellaufbau

Ein Künstliche Intelligenz-Modell besteht aus drei Bausteinen und ist inspiriert vom menschlichen Gehirn. Eine Eingabeschicht nimmt Daten auf, mehrere Zwischenschichten verarbeiten die Daten, und die Ausgabeschicht präsentiert das Ergebnis. Die einzelnen Schichten bestehen aus Berechnungseinheiten (Neuronen), die über Verbindungen (Axone) miteinander verknüpft sind. Sie leiten die Informationen weiter und sind entsprechend ihrer Informationen gewichtet. Der Prozess ist komplex, sehr aufwendig, und der Mensch spielt immer noch die entscheidende Rolle bei der Festlegung der Architektur des Systems. Der Mensch bestimmt die Variablen, die Lernparameter, die Submodelle, die Ziel- und Fehlerfunktionen und führt die Vorverarbeitungen sowie die Datentransformationen durch. Auch die Fehlersuche gehört zu seinen Aufgaben. Einfach die Daten in ein selbstlernendes Modell einzuspielen, sich zurückzulehnen und auf ein brillantes Ergebnis warten, funktioniert nicht.

Wie funktioniert das Lernen?

Angenommen, ein Modell soll lernen zwischen Hunden und Katzen auf Bildern zu unterscheiden. Dafür werden zunächst Lern- bzw. Trainingsbeispiele benötigt. Ein Trainingsbeispiel besteht aus einer Modelleingabe. Sie beinhaltet ein Bild mit einem Hund oder einer Katze und der vom Programmierer als richtig vorgegebenen Antwort, die er sich vom Modell wünscht. In diesem Fall, die Identifikation eines Hundes oder einer Katze. Das Modell lernt anhand von diesen richtigen Trainingsbeispielen durch wiederholtes, schrittweises Verändern der Gewichte im Modell anhand der Fehler, die das Modell bei diesen Trainingsbeispielen macht – ein Hund wird fälschlicherweise als Katze klassifiziert und umgekehrt. Beim Lernprozess muss allerdings verhindert werden, dass das Modell die Bilder auswendig lernt (overfitting), da es sonst nicht auf neue, noch unbekannte Bilder angewendet werden kann. Wer die Funktionsweise einer Künstlichen Intelligenz einmal testen möchte, kann dies auf der Seite https://playground.tensorflow.org spielerisch tun.


Quant versus Künstliche Intelligenz – ein Missverständnis

Was ist der unterschied gegenüber einem quantitativen Investmentansatz?

Bei einem quantitativen Investmentfonds werden meist einfache Regeln umgesetzt, die vom Menschen aufgestellt wurden, (z.B. durch eine lineare Datenanalyse), statisch und meist zeitpunktoptimiert angewendet werden. Faktorinvestitionen gehen sogar oft von einer dominierenden Kennziffer aus (untere Bildreihe). Ein Modell der Künstlichen Intelligenz findet hingegen selbständig nicht-lineare Zusammenhänge und passt sich adaptiv und selbstlernend den jeweiligen Marktgegebenheiten kontinuierlich an, ohne die Vergangenheit zu vergessen. Der Mensch gibt dabei die Regeln nicht vor. Wesentlich für die Modellbildung sind Nichtlinearitäten. Unterschiedlichste Kennziffern werden in nahezu beliebigen Kombinationen miteinander verbunden. Neuronen in neuronalen Netzen spezialisieren sich beispielsweise darauf, bestimmte Details zu erkennen, die nachher in eine Gesamtbeurteilung einfließen. So könnte ein Neuron einen bestimmten Zusammenhang zwischen Umsatz und Gewinn beobachten, ein anderes Neuron reagiert auf eine besonders hohe Ausprägung von Wachstum, Marge und Marktanteil. Erst im Zusammenspiel aller Neuronen entsteht das Gesamtmodell.

Quant Investment vs. Deep Learning

Alte Quant Welt vs. Neue KI Welt

Alte Quant Welt
 

  • Modellbildung durch den Menschen
  • Modell basierend auf apriori Ansichten über die Funktionsweise von Märkten
  • Überzeugungen / Treiber sind implementiert
  • Implementierung von „wenn – dann“ – Szenarien
  • Backtesting – look-ahead bias
  • Modell fixieren und mit ihm live gehen 


Statische regelbasierte Strategien

Neue KI Welt
 

  • Modellbildung durch KI
  • Modell nicht basierend auf apriori Ansichten 
    über die Funktionsweise von Märkten
  • Extrahieren von Features aus Daten
  • Modell aus Daten erstellen
  • Walk-Forward-Testing – kein look-ahead bias
  • Modell lernt und passt sich kontinuierlich an
     

Adaptive selbst-lernende Strategien