Zur Seitenansicht
 

Titelaufnahme

Titel
Regularization in RKHS with applications in geoscience and learning theory / eingereicht von: Pavlo Tkachenko
VerfasserTkachenko, Pavlo
Begutachter / BegutachterinPereverzyev, Sergei V. ; Sloan, Ian H.
ErschienenLinz, Dezember 2015
Umfangxiv, 113 Seiten : Illustrationen
HochschulschriftUniversität Linz, Univ., Dissertation, 2015
Anmerkung
Zusammenfassung in deutscher und englischer Sprache
SpracheEnglisch
Bibl. ReferenzOeBB
DokumenttypDissertation
Schlagwörter (DE)Regularisierung / RKHS / Geowissenschaften / maschinelle Lernen / Ranking / Parameterwahl / Diabetes
Schlagwörter (EN)regularization / RKHS / geoscience / learning theory / ranking / parameter choice / diabetes
Schlagwörter (GND)Hilbert-Raum / Inkorrekt gestelltes Problem / Regularisierungsverfahren / Geowissenschaften / Maschinelles Lernen / Diabetes
URNurn:nbn:at:at-ubl:1-9174 Persistent Identifier (URN)
Zugriffsbeschränkung
 Das Werk ist gemäß den "Hinweisen für BenützerInnen" verfügbar
Dateien
Regularization in RKHS with applications in geoscience and learning theory [3 mb]
Links
Nachweis
Klassifikation
Zusammenfassung (Deutsch)

In dieser Arbeit studieren wir die Regularisierung von inkorrekt gestellten Problemen im Hilbert-Raum mit reproduzierendem Kern. Wir stellen eine theoretische Analyse der entwickelten Methoden bereit und zeigen ihre praktische Wichtigkeit in Real-Life-Anwendungen. Wir beginnen mit den Problemen, die in der Geowissenschaft auftreten, nämlich mit der Funktionsapproximation auf der Sphäre. Naturgemäß kommen wir dann zu sphärischen Pseudodifferentialgleichungen betreffend zwei Funktionen, die auf konzentrischen Sphären definiert werden. In einem solchen Sphärenaufbau studieren wir die Polynomapproximation von unbekannten Mengen durch Ein-und Zwei-Parameter-Regularisierung im Hilbert-Raum mit reproduziernedem Kern. Wir analysieren die Genauigkeit der vorgeschlagenen Methoden und stellen Richtlinien für die adaptive Auswahl der Regularisierungsparameter zur Verfügung - zusammen mit der adaptiven Auswahl des entsprechenden Hilbert-Raumes mit reproduzierendem Kern. Dann wechseln wir zum maschinellen Lernen, wo die Anwendung von Regularisierung im Hilbert-Raum mit reproduzierendem Kern häufiger ist. Wir richten unser Augenmerk auf Probleme der Rangordnung, wo die bekannten Konvergenzgeschwindigkeiten im Vergleich zum Regressionslernen suboptimal waren. Wir schließen diese Lücke, indem wir die gleiche Konvergenzgeschwindigkeit beweisen. Weiters analysieren wir die regularisierte Rangordnung in einer allgemeineren Einstellung. Zusätzlich präsentieren wir eine Annäherung an die Konstruktion einer neuen Rangordnungsfunktion an der Spitze einer Familie schon vorher konstruierter Rangordnungsfunktionen. In dieser Annäherung erscheint eine neue Funktion als lineare Kombination der konstruierten Rangordnungsfunktion mit Koeffizienten, die von einem gegebenen Trainings-Set mit Hilfe der so genannten linearen funktionalen Strategie effektiv eingeschätzt werden können, und zwar in einer Weise, dass die resultierende Kombination fast so gut sein wird wie die beste. Wir beweisen auch, dass in passenden Räumen für die Konstruktion der resultierenden Rangordnungsfunktion keine weitere Regularisierung notwendig ist. Wir demonstrieren schließlich die Anwendung der entwickelten Rangordnungs-Algorithmen auf einige Probleme der Diabetes-Technologie.

Zusammenfassung (Englisch)

In this work, we study regularization of ill-posed linear problems in Reproducing Kernel Hilbert Spaces. We provide a theoretical analysis of the developed methods and demonstrate their practical importance in real-life applications. We start with the problems appearing in geoscience, namely with the approximation of functions defined on a sphere. Then we naturally arrive at spherical pseudo-differential equations, relating two functions defined on concentric spheres. In such a spherical set-up, we study the polynomial approximation of unknown quantities through single-parameter and two-parameter regularization in Reproducing Kernel Hilbert Spaces. We analyze the accuracy of the proposed methods and provide guidelines for the adaptive choice of the regularization parameters together with the adaptive choice of the corresponding Reproducing Kernel Hilbert Spaces. Then we switch to learning theory, where the use of regularization in Reproducing Kernel Hilbert Spaces is more common. We pay attention on ranking problems where the known convergence rates were suboptimal compared to regression learning. We close this gap by proving the same convergence rate. Moreover, we analyze regularized ranking in more general setting. Additionally, we present an approach to constructing a new ranking function at the top of a family of previously constructed ones. In this approach a new function appears as a linear combination of the constructed rankers with coefficients that can be effectively estimated from a given training set by means of the so-called linear functional strategy in such a way that the resulting combination will be almost as good as the best one. We also prove that in suitable spaces no further regularization is necessary for constructing the resulting ranking function. We demonstrate the application of the developed ranking algorithms to some problems of Diabetes technology.