Jump directly to main navigation Jump directly to content

Intelligenza artificiale

Storia

ACATIS - pioniere dell’intelligenza artificiale nella gestione patrimoniale

Nel settore degli investimenti, ACATIS è tra i pionieri nell’utilizzo dell’intelligenza artificiale (AI). ACATIS conduce attività di ricerca in questo ambito dal 2014, con l’obiettivo di impiegarla nella gestione dei portafogli. La prima applicazione pratica dell’intelligenza artificiale in ACATIS risale al 2016.

Ricerca ACATIS

Da circa quattro anni ACATIS svolge ricerche nel campo dell’intelligenza artificiale con l’obiettivo di applicarla alla gestione di portafoglio. All’inizio venivano utilizzati programmi destinati all’analisi testuale, in grado di individuare parole chiave specifiche all’interno dei rapporti.

Oggi ACATIS lavora principalmente con modelli di Deep Learning, un approccio derivato dal machine learning. Questo tipo di intelligenza artificiale può essere paragonato a un buon analista con anni di esperienza. Nel corso della propria carriera, un analista conosce numerose aziende e ne acquisisce una profonda comprensione. Col tempo, sviluppa una capacità intuitiva nel riconoscere schemi nei dati e nei bilanci aziendali, imparando a individuare le caratteristiche davvero rilevanti e a contestualizzare rapidamente nuove situazioni grazie alla propria esperienza.

I modelli di Deep Learning operano in modo simile. Imparano a riconoscere autonomamente schemi nei bilanci, che poi applicano a nuovi dati. Più dati vengono messi a disposizione del sistema, più questo può apprendere e accumulare “esperienza”.

Allo stesso tempo, con l’aumento dei volumi di dati crescono anche le esigenze in termini di capacità di elaborazione. I due grandi vantaggi dei modelli di Deep Learning rispetto a un analista umano sono la loro capacità di elaborazione molto superiore e l’assenza di coinvolgimento emotivo. Il sistema è inoltre in grado di individuare schemi che una persona non riuscirebbe a riconoscere. Inoltre, le decisioni vengono prese esclusivamente sulla base di regole generate autonomamente, senza influenze emotive.

 

Ulteriori approfondimenti sulle nostre attività di ricerca sono disponibili sul nostro sito web acatis.ai
 

Il nostro nuovo sito acatis.ai crea un ponte tra il comprovato approccio del value investing e l’intelligenza artificiale. Questi due mondi si incontrano per esplorare come gli strumenti di AI di ultima generazione possano rafforzare i principi del value investing e individuare opportunità di lungo termine. Il futuro degli investimenti supportati dall’intelligenza artificiale, combinando i principi d’investimento di Buffett con la moderna tecnologia AI, miriamo a rivoluzionare il modo in cui gli investitori valutano le aziende. Che tu sia un investitore esperto o stia esplorando il ruolo dell’intelligenza artificiale nella finanza, noi - il ramo AI di ACATIS, siamo qui per offrire analisi e strategie per aiutarti a orientarti nel futuro di un investimento intelligente e disciplinato.

Condivideremo le nostre esperienze, idee e approcci per affrontare l’investimento di lungo periodo attraverso la potenza dell’intelligenza artificiale.


Le origini dell’intelligenza artificiale

L’intelligenza artificiale (AI) come campo di studio scientifico nacque nel 1956 nell’ambito del Dartmouth Summer Research Project a Hanover, New Hampshire (USA). In questo progetto, pionieri dell’informatica come Marvin Minsky si riunirono per rispondere alla domanda se fosse possibile creare computer in grado di pensare. Nella richiesta di finanziamento si legge: “[...] Il progetto di ricerca cercherà di scoprire come le macchine possano essere programmate per utilizzare il linguaggio, per formulare astrazioni e sviluppare concetti al fine di risolvere problemi che al momento possono essere risolti solo dalle persone, e per migliorarsi continuamente. […]”.* Per molti anni si è ritenuto che i computer dovessero essere dotati di un numero sufficientemente elevato di regole esplicite per creare un’intelligenza artificiale simile a quella umana. Oggi, invece, i sistemi di AI imparano autonomamente le proprie regole, ma sono in grado di svolgere solo un compito specifico, definito in anticipo, tanto bene o meglio di un essere umano. Ciò significa che, nel tempo, l’intelligenza artificiale è passata da un approccio puramente statistico a uno basato sull’apprendimento automatico (machine learning).
 

Machine Learning

Il machine learning è un sottoinsieme dell’intelligenza artificiale, in cui le macchine imparano dai dati senza essere esplicitamente programmate con regole di tipo “if-then”. La parola chiave in questo contesto è “apprendimento”. I modelli di machine learning si adattano osservando ripetutamente i dati e le risposte attese, migliorando così le proprie prestazioni, proprio come fanno gli esseri umani. La macchina crea il proprio insieme di regole per eseguire un compito predefinito. Una volta appreso qualcosa, la macchina può applicare le conoscenze acquisite a nuovi dati e generare autonomamente la propria risposta. Un aspetto fondamentale del processo di apprendimento è che i dati non vengono semplicemente memorizzati, poiché in tal caso le risposte della macchina non sarebbero utili.
 

Deep Learning

Il Deep Learning è un metodo specifico di apprendimento automatico che ha guadagnato popolarità a partire dal 2010. La Rete Neurale Profonda (Deep Neural Network, DNN), che deve il suo nome ai molteplici strati profondi che la compongono, è diventata uno dei concetti più diffusi degli ultimi anni. Negli anni Quaranta, Warren McCulloch e Walter Pitts descrissero per la prima volta il concetto oggi noto come rete neurale. Con l’aumentare della profondità della rete, le correlazioni e i modelli appresi nei vari strati diventano sempre più complessi. Nel caso del riconoscimento di immagini, le correlazioni più semplici dei primi strati possono consistere in angoli e bordi, mentre negli strati più profondi le correlazioni precedentemente apprese vengono combinate fino a riconoscere oggetti completi. Già oggi, i modelli di Deep Learning sono in grado di classificare e generare immagini, riconoscere e tradurre linguaggi, diagnosticare malattie, guidare automobili o giocare a giochi da tavolo con prestazioni pari o superiori a quelle umane. L’intelligenza artificiale è ormai parte integrante della nostra vita quotidiana.


*Fonte: https://www-formal.stanford.edu/jmc/history/dartmouth/dartmouth.html

Sviluppo cronologico dell’intelligenza artificiale

Intelligenza artificiale nella gestione patrimoniale in ACATIS

Warum Künstliche Intelligenz? Warum jetzt?

Warum konnten die bereits in den 90ern erforschten Grundlagen für Künstliche Intelligenz nicht bereits damals in nennenswerte Erfolge umgewandelt werden, sondern erst in den 2010ern? In den letzten drei Jahrzehnten haben technische Fortschritte in drei Bereichen zum erfolgreichen Einsatz von Künstlicher Intelligenz geführt:


1. Hardware

Die Rechenleistung von Computern ist exponentiell gestiegen, sodass heute auf einem Laptop mit einem handelsüblichen Prozessor (CPU) bereits kleine Künstliche Intelligenz-Modelle trainiert werden können. Vor 25 Jahren wäre dies unmöglich gewesen. Allerdings haben Firmen wie NVIDIA oder AMD durch ihre Entwicklung von Grafikprozessoren (GPU) für die Computerspieleindustrie die KI-Forschung in weitaus größerem Maße gefördert. Wenige GPUs ersetzen ganze Cluster an CPUs. Zum Vergleich: Der Universal Automatic Computer (UNIVAC) aus dem Jahr 1951 schaffte 2.000 Berechnungen pro Sekunde und brauchte 36 Quadratmeter Platz. Die DGX A100 von NVIDIA von heute leistet 5 Billiarden Berechnungen pro Sekunde und ist zudem von der Größe etwas handlicher. Ein Mensch kann mit dieser Leistung schon lange nicht mehr mithalten, er müsste dafür 160 Millionen Jahre lang jede Sekunde eine Berechnung durchführen. Schachweltmeister oder Piloten kommen beim Konkurrieren mit Maschinen ins Schwitzen.

Die gleiche Entwicklung wie bei der Rechenleistung sehen wir bei den Speicherkapazitäten. 1956 war eine Festplatte 5 Megabyte groß und hatte die Maße eines Kühlschranks. Heute hat ein gutes mit einem Handy gemachtes Foto schon mehr Megabyte. Und eine aktuelle SD-Karte mit 1 Terabyte Speicherkapazität hat die Maße einer Fingerkuppe. Die Steigerung liegt hier bei einem Faktor von 200.000.

 

2. Daten

Die Verfügbarkeit von Daten (Stichwort Big Data) ist unter anderem durch das Internet kontinuierlich gestiegen. ImageNet ist beispielsweise ein Datensatz, der mit 14 Millionen Bildern vor allem in der Forschung zur Bilderkennung und für einen jährlichen Wettbewerb mit Deep Learning eingesetzt wird. ACATIS baut seit über 20 Jahren eine Unternehmensdatenbank auf, die Finanzdaten bis in das Jahr 1986 enthält. 50.000 Firmen mit mehr als 1.000 verschiedenen Faktoren werden gepflegt. Die Datenverarbeitung ist einfacher geworden. Früher wurden Unternehmensdaten per Hand in den Computer eingegeben, um sie anschließend mit Regressionen zu analysieren. Heute füttern wir unsere Künstliche Intelligenz-Modelle mit Daten, die automatisiert und in großem Umfang von Datenanbietern geliefert werden.

 

3. Software

Erst mit genügend Rechenleistung und Daten konnten Künstliche Intelligenz-Modelle nicht nur theoretisch, sondern auch praktisch trainiert werden. In den letzten Jahren wurden auch die Algorithmen verbessert, was zu besseren Anwendungen geführt hat. Zudem erfolgte eine Demokratisierung der Software. Während früher jeder seinen kompletten Code selbständig programmierte, gibt es heute in der Programmiersprache Python frei verfügbare Pakete wie CUDA, PyTorch, TensorFlow oder Keras, die die Forschung zu Künstlicher Intelligenz vereinfachte. Mit steigenden Erfolgen einher ging das wirtschaftliche Interesse an den Ergebnissen. 2013 wurde beispielsweise das Künstliche Intelligenz Startup DeepMind für 500 Millionen USD von Google gekauft. Heute beschäftigen sich nicht mehr nur einige hundert Wissenschaftler mit Künstlicher Intelligenz, sondern zehntausende. Schwerpunktländer der Forschung sind die USA, Kanada und China.

Volumen der weltweit erstellten, erfassten, kopierten und verbrauchten Daten

von 2010 bis 2025

Quelle: www.statista.com; * Prognose


Das Künstliche Intelligenz Modell

Modellaufbau

Ein Künstliche Intelligenz-Modell besteht aus drei Bausteinen und ist inspiriert vom menschlichen Gehirn. Eine Eingabeschicht nimmt Daten auf, mehrere Zwischenschichten verarbeiten die Daten, und die Ausgabeschicht präsentiert das Ergebnis. Die einzelnen Schichten bestehen aus Berechnungseinheiten (Neuronen), die über Verbindungen (Axone) miteinander verknüpft sind. Sie leiten die Informationen weiter und sind entsprechend ihrer Informationen gewichtet. Der Prozess ist komplex, sehr aufwendig, und der Mensch spielt immer noch die entscheidende Rolle bei der Festlegung der Architektur des Systems. Der Mensch bestimmt die Variablen, die Lernparameter, die Submodelle, die Ziel- und Fehlerfunktionen und führt die Vorverarbeitungen sowie die Datentransformationen durch. Auch die Fehlersuche gehört zu seinen Aufgaben. Einfach die Daten in ein selbstlernendes Modell einzuspielen, sich zurückzulehnen und auf ein brillantes Ergebnis warten, funktioniert nicht.

Wie funktioniert das Lernen?

Angenommen, ein Modell soll lernen zwischen Hunden und Katzen auf Bildern zu unterscheiden. Dafür werden zunächst Lern- bzw. Trainingsbeispiele benötigt. Ein Trainingsbeispiel besteht aus einer Modelleingabe. Sie beinhaltet ein Bild mit einem Hund oder einer Katze und der vom Programmierer als richtig vorgegebenen Antwort, die er sich vom Modell wünscht. In diesem Fall, die Identifikation eines Hundes oder einer Katze. Das Modell lernt anhand von diesen richtigen Trainingsbeispielen durch wiederholtes, schrittweises Verändern der Gewichte im Modell anhand der Fehler, die das Modell bei diesen Trainingsbeispielen macht – ein Hund wird fälschlicherweise als Katze klassifiziert und umgekehrt. Beim Lernprozess muss allerdings verhindert werden, dass das Modell die Bilder auswendig lernt (overfitting), da es sonst nicht auf neue, noch unbekannte Bilder angewendet werden kann. Wer die Funktionsweise einer Künstlichen Intelligenz einmal testen möchte, kann dies auf der Seite https://playground.tensorflow.org spielerisch tun.


Quant versus Künstliche Intelligenz – ein Missverständnis

Was ist der unterschied gegenüber einem quantitativen Investmentansatz?

Bei einem quantitativen Investmentfonds werden meist einfache Regeln umgesetzt, die vom Menschen aufgestellt wurden, (z.B. durch eine lineare Datenanalyse), statisch und meist zeitpunktoptimiert angewendet werden. Faktorinvestitionen gehen sogar oft von einer dominierenden Kennziffer aus (untere Bildreihe). Ein Modell der Künstlichen Intelligenz findet hingegen selbständig nicht-lineare Zusammenhänge und passt sich adaptiv und selbstlernend den jeweiligen Marktgegebenheiten kontinuierlich an, ohne die Vergangenheit zu vergessen. Der Mensch gibt dabei die Regeln nicht vor. Wesentlich für die Modellbildung sind Nichtlinearitäten. Unterschiedlichste Kennziffern werden in nahezu beliebigen Kombinationen miteinander verbunden. Neuronen in neuronalen Netzen spezialisieren sich beispielsweise darauf, bestimmte Details zu erkennen, die nachher in eine Gesamtbeurteilung einfließen. So könnte ein Neuron einen bestimmten Zusammenhang zwischen Umsatz und Gewinn beobachten, ein anderes Neuron reagiert auf eine besonders hohe Ausprägung von Wachstum, Marge und Marktanteil. Erst im Zusammenspiel aller Neuronen entsteht das Gesamtmodell.

Quant Investment vs. Deep Learning

Alte Quant Welt vs. Neue KI Welt

Alte Quant Welt
 

  • Modellbildung durch den Menschen
  • Modell basierend auf apriori Ansichten über die Funktionsweise von Märkten
  • Überzeugungen / Treiber sind implementiert
  • Implementierung von „wenn – dann“ – Szenarien
  • Backtesting – look-ahead bias
  • Modell fixieren und mit ihm live gehen 


Statische regelbasierte Strategien

Neue KI Welt
 

  • Modellbildung durch KI
  • Modell nicht basierend auf apriori Ansichten 
    über die Funktionsweise von Märkten
  • Extrahieren von Features aus Daten
  • Modell aus Daten erstellen
  • Walk-Forward-Testing – kein look-ahead bias
  • Modell lernt und passt sich kontinuierlich an
     

Adaptive selbst-lernende Strategien