Entdecken von symbolischen Modellen aus Deep Learning mit induktiven Vorurteilen

Blog

Beim maschinellen Lernen besteht das Ziel darin, Algorithmen zu erstellen, die lernen und eine erforderliche Zielausgabe aus dem Lernen vorhersagen können. Um dies zu erreichen, wird der Lernalgorithmus vorgestellt und mit einigen Beispielen gefüttert, aus denen er trainieren und lernen kann, um das beabsichtigte Verhältnis von Eingabe- und Ausgabewerten zu erreichen. Dann soll der Lernende, in diesem Fall ein Modell, die korrekte Ausgabe annähern, auch für Beispiele, die während der Trainingsphase nicht gesehen wurden. Ohne zusätzliche Annahmen können Probleme nicht gelöst werden, da unsichtbare Situationen einen willkürlichen Ausgabewert haben können. Die notwendigen Annahmen über die Natur der Zielfunktionswerte werden unter dem Begriff induktive Vorspannung zusammengefasst. Induktiver Bias, manchmal auch als Lernbias bekannt, ist ein prädiktiver Lernalgorithmus die eine Reihe von Annahmen verwendet, die der Lernende verwendet, um Ausgaben von gegebenen Eingaben vorherzusagen, denen er noch nicht begegnet ist.



Algebraische Ausdrücke sind normalerweise kompakt und liefern uns explizite Interpretationen und verallgemeinern Annahmen gut. Solche algebraischen Ausdrücke zu finden ist jedoch eine schwierige Aufgabe. Als eine der Optionen kommt die symbolische Regression zur Rettung. Es handelt sich um eine überwachte maschinelle Lerntechnik, die Analysefunktionen zusammenstellt, um ein Modell für einen bestimmten Datensatz zu erstellen. Jedoch, genetische Algorythmen werden traditionell verwendet, bei denen es sich im Wesentlichen um Brute-Force-Verfahren handelt, die exponentiell mit Eingabevariablen und Operatoren skalieren. Andererseits ermöglichen Deep-Learning-Methoden ein effizientes Training komplexer Modelle auf einem hochdimensionaler Datensatz . Diese erlernten Modelle sind jedoch typischerweise Blackboxes und können schwer zu interpretieren sein.

Über das Framework für symbolische Modelle mit induktiven Vorspannungen

Symbolic Model Framework schlägt einen allgemeinen Rahmen vor, um die Vorteile sowohl des traditionellen Deep Learning als auch der symbolischen Regression zu nutzen. Als Beispiel kann die Untersuchung von Graphennetzen (GNs oder GNNs) vorgestellt werden, da diese starke und gut motivierte induktive Verzerrungen aufweisen, die sich sehr gut für komplexe Probleme eignen, die erklärt werden können. Die symbolische Regression wird angewendet, um die verschiedenen internen Teile des gelernten Modells anzupassen, die mit einer reduzierten Darstellungsgröße arbeiten. Eine Anzahl symbolischer Ausdrücke kann auch miteinander verbunden werden, wodurch eine algebraische Gesamtgleichung entsteht, die dem trainierten Graphennetzwerk entspricht. Der Rahmen kann auf weitere Probleme wie die Wiederentdeckung von Kraftgesetzen, die Wiederentdeckung von Hamilton-Operatoren und eine reale astrophysikalische Herausforderung angewendet werden, was zeigt, dass die Verallgemeinerung drastisch verbessert und plausible analytische Ausdrücke destilliert werden können. Es kann nicht nur die injizierten physikalische Gesetze geschlossener Form für die Newtonschen und Hamiltonschen Beispiele wiederherstellen, sondern es kann auch einen neuen interpretierbaren analytischen Ausdruck in geschlossener Form herleiten, der in der Astrophysik nützlich sein kann.



Erste Schritte mit der Erstellung eines Deep-Learning-Modells mit induktiver Voreingenommenheit

Diese Demonstration wird versuchen, die Pfaddynamik aus einem einfachen Partikelmodell mit Graph Neural Network vorherzusagen. Wir werden auch versuchen, zum besseren Verständnis Niedrigdimensionalität zu induzieren und die dynamische Bahnbewegung für neu induzierte Teilchen vorherzusagen und in die symbolische Gleichung zu extrahieren. Die folgende Implementierung ist von der offiziellen Demo des Symbolic-Modells inspiriert, dessen Github-Repository erkundet werden kann Hier .

#Entwicklerecke #Deep-Learning-Techniken #prädiktive Analyse #prädiktive Analyse



Analyticsindiamag.com

Entdecken von symbolischen Modellen aus Deep Learning mit induktiven Vorurteilen

Beim maschinellen Lernen besteht das Ziel darin, Algorithmen zu erstellen, die lernen und eine erforderliche Zielausgabe aus dem Lernen vorhersagen können. Um dies zu erreichen, wird der Lernalgorithmus vorgestellt und mit einigen Beispielen gefüttert, aus denen er trainieren und lernen kann, um das beabsichtigte Verhältnis von Eingabe- und Ausgabewerten zu erreichen. Dann soll der Lernende, in diesem Fall ein Modell, die korrekte Ausgabe annähern, auch für Beispiele, die während der Trainingsphase nicht gesehen wurden. Ohne zusätzliche Annahmen können Probleme nicht gelöst werden, da unsichtbare Situationen einen willkürlichen Ausgabewert haben können. Die notwendigen Annahmen über die Natur der Zielfunktionswerte werden unter dem Begriff induktive Vorspannung zusammengefasst. Inductive Bias, manchmal auch als Learning Bias bekannt, ist ein [prädiktiver Lernalgorithmus] (https://analyticsindiamag.com/hubert-facebooks-latest-approach-to-self-supervised-speech-representation-learning/), der a . verwendet Satz von Annahmen, die der Lernende verwendet, um Ausgaben von gegebenen Eingaben vorherzusagen, denen er noch nicht begegnet ist.