Go to page
 

Bibliographic Metadata

Title
Knowledge-Aided Methods in Estimation Theory and Adaptive Filtering / submitted by Oliver Lang
AuthorLang, Oliver
CensorHuemer, Mario ; Weiss, Stephan
Thesis advisorHuemer, Mario
PublishedLinz, 2018
DescriptionXII, 217 Seiten : Illustrationen
Institutional NoteUniversität Linz, Dissertation, 2018
LanguageEnglish
Bibl. ReferenceOeBB
Document typeDissertation (PhD)
Keywords (EN)estimation theory / filtering theory / adaptive filter / classical estimation / bayesian estimation
Keywords (GND)Schätztheorie / Filtertheorie / Adaptives Filter / Bayes-Regel
URNurn:nbn:at:at-ubl:1-21107 Persistent Identifier (URN)
Restriction-Information
 The work is publicly available
Files
Knowledge-Aided Methods in Estimation Theory and Adaptive Filtering [1.58 mb]
Links
Reference
Classification
Abstract (English)

Estimation theory is a key enabler in many of today's electronic products, devices, and industrial equipment. Among others, it provides the basis for efficient data estimation in communication systems, accurate characterization of systems based on measurements, estimation of parameters, signals and spectra, signal tracking, or noise cancellation, to name just a few. The estimation task can be described in a classical or in a Bayesian framework. In classical estimation the parameter vector to be estimated is considered to be deterministic. Conversely, Bayesian estimators consider the parameter vector to be random. This allows to include prior knowledge in form of statistics of the parameter vector into the estimation problem. Due to the ever-increasing complexity and the more demanding applications of modern electronic systems, optimal or near-to-optimal performance of the estimation methods is often required. To achieve such an optimal performance, every available information about the underlying system model should be incorporated by the estimators. Ultimately, however, additional model knowledge is present in many applications. This model knowledge is often ignored when developing the estimators. Possible examples of additional model knowledge are: 1) the knowledge that the parameter vector of length n lies in a linear subspace of C n, 2) the knowledge that the parameter vector fulfills additional linear constraints, 3) the knowledge that the parameter vector is real-valued while the measurements and the measurement noise are complex-valued, 4) and the knowledge that the measurement matrix is subject to an unknown random error with known second order statistics. For the first three cases, several knowledge-aided classical estimators are proposed in this thesis that incorporate the available model knowledge in an optimal way. Simulation examples are presented demonstrating the performance gain of the derived estimators compared to state-of-the-art estimators. Moreover, the derived estimators also are compared to intuitive estimators that incorporate the additional model knowledge in an intuitive manner. It turns out that the derived optimal estimators significantly outperform these intuitive estimators as well as state-of-the-art estimators in many scenarios. For the fourth case of additional model knowledge, a novel iterative algorithm is proposed. It is shown that this algorithm outperforms competing algorithms significantly in many scenarios. Another difference between the classical and Bayesian approaches is the considered unbiased constraint. We discuss the fact that the unbiased constraint utilized by state-of-the-art Bayesian estimators is weaker than that utilized by unbiased classical estimators. We furthermore show that this weaker unbiased constraint is the key enabler for Bayesian estimators to incorporate statistics about the unknown parameter vector into the estimation process. Based on that, we investigate the so called component-wise conditionally unbiasedness constraints. It will be shown, that these unbiased constraints preserve the intuitive view of unbiasedness also in Bayesian scenarios. Next, this thesis focusses on the class of so called component-wise conditionally unbiased Bayesian estimators. We will extend previous work on this type of estimator and extend the concept to widely linear estimators. The effects of these unbiased constraints, the relation to other Bayesian estimators and the ability to incorporate statistics about the unknown parameter vector are discussed. Based on the performance gain achievable by classical estimators incorporating additional model knowledge, we derive adaptive filters that also incorporate such model knowledge in an optimal way. These knowledge-aided adaptive filters are compared with intuitive as well as state-of-the-art adaptive filters, where again a significant performance boost is achieved in many scenarios. Furthermore, adaptive filters for the task of system identification are developed that allow incorporating prior knowledge about the impulse response of the system. Existing and newly proposed adaptive filters utilizing prior knowledge are discussed and compared.

Abstract (German)

Die Schätztheorie ist ein Schlüsselfaktor für viele der heutigen elektronischen Produkte, Geräte und Industrieanlagen. Unter anderem stellt diese Algorithmen zur effizienten Datenschätzung in Kommunikationssystemen, zur genauen Charakterisierung von Systemen basierend auf Messungen, Schätzung von Parametern, Signalen und Spektren, Signalverfolgung oder Rauschunterdrückung, zur Verfügung, um nur einige zu nennen. Die Schätzaufgabe kann in einem klassischen oder in einem Bayes'schen Rahmen formuliert werden. In der klassischen Schätzung wird der zu schätzende Parametervektor als deterministisch angesehen. Im Gegensatz dazu betrachten Bayes‘sche Schätzer den Parametervektor als zufällig. Dies ermöglicht es, Vorkenntnisse in Form von Statistiken des Parametervektors in das Schätzproblem einzubeziehen. Aufgrund der ständig zunehmenden Komplexität und der anspruchsvolleren Anwendungen moderner elektronischer Systeme ist oft eine optimale oder nahezu optimale Performance der Schätzverfahren erforderlich. Um eine solche optimale Performance zu erzielen sollten alle verfügbaren Informationen über das zugrundeliegende Systemmodell von den Schätzern einbezogen werden. In vielen Anwendungen ist tatsächlich zusätzliches Modellwissen vorhanden. Dieses Modellwissen wird bei der Entwicklung der Schätzer jedoch oft ignoriert. Mögliche Beispiele für zusätzliches Modellwissen sind die Kenntnis, 1) dass der Parametervektor der Länge n in einem linearen Unterraum von C n liegt, 2) dass der Parametervektor zusätzliche lineare Bedingungen erfüllt, 3) dass der Parametervektor reellwertig ist während die Messungen und das Messrauschen komplexwertig sind, 4) dass die Verbindung zwischen den Messungen und den Parametern durch Messrauschen sowie durch eine zufällige Verzerrung mit bekannten Statistiken beeinflusst wird. Für die ersten drei der oben genannten Fälle werden in dieser Arbeit mehrere wissensunterstützte klassische Schätzer entwickelt, die dieses zusätzliche Modellwissen optimal verarbeiten. Diese optimalen wissensunterstützten Schätzer werden mit Schätzern verglichen, die das zusätzliche Modellwissen intuitiv verarbeiten. Es stellt sich heraus, dass die hergeleiteten optimalen Schätzer die intuitiven Schätzer und Standard-Schätzer in vielen Anwendungen deutlich in ihrer Performance übertreffen. Für den vierten Fall von zusätzlichem Modellwissen wird ein neuer iterativer Algorithmus hergeleitet. Es wird gezeigt, dass dieser Algorithmus konkurrierende Algorithmen in vielen Szenarien deutlich in der Schätzgenauigkeit übertrifft. Ein weiterer Unterschied zwischen dem klassischen und dem Bayes‘schen Ansatz ist die zugrundeliegende Definition eines erwartungstreuen Schätzers. Wir diskutieren die Tatsache, dass die Bedingung der Erwartungstreue, die von Bayes'schen Schätzern verwendet wird, schwächer ist als die, die von erwartungstreuen klassischen Schätzern verwendet wird. Wir zeigen außerdem, dass diese schwächere Bedingung der Erwartungstreue der Schlüssel dafür ist, dass Bayes‘sche Schätzer Statistiken über den unbekannten Parametervektor in den Schätzprozess einbeziehen können. Darauf aufbauend untersuchen wir Bedingungen für die sogenannte komponentenweise bedingte Erwartungstreue (engl.: component-wise conditionally unbiased (CWCU) constraints). Es wird gezeigt, dass die zugrundeliegenden CWCU Bedingungen die intuitive Sicht der Erwartungstreue auch in Bayes'schen Szenarien bewahren. Als nächstes konzentrieren wir uns die Gruppe der sogenannten CWCU Bayes‘schen Schätzer. Wir werden bisherige Arbeiten zu dieser Art von Schätzern erweitern und das Konzept auf sogenannte widely linear Schätzer ausweiten. Die Auswirkungen dieser CWCU Bedingungen, die Beziehung zu anderen Bayes‘schen Schätzern und die Fähigkeit, Statistiken über den unbekannten Parametervektor einzubauen, werden diskutiert. Basierend auf der erhöhten Schätzgenauigkeit die durch klassische Schätzer erreicht werden kann welche zusätzliches Modellwissen nutzen werden weiters adaptive Filter hergeleitet, die ebenfalls zusätzliches Modellwissen auf optimale Weise einbeziehen. Diese wissensunterstützten adaptiven Filter werden sowohl mit intuitiv entwickelten Filtern als auch mit adaptiven Standard-Filter verglichen, wobei in vielen Szenarien wiederum eine deutliche Erhöhung der Schätzgenauigkeit erreicht wird. Darüber hinaus werden adaptive Filter für System-Identifikations-Anwendungen untersucht die es erlauben ähnliche statistische Vorkenntnisse über die zu schätzende Systemimpulsantwort einzubringen, wie dies bei linearen Bayes‘schen Schätzern der Fall ist. Bekannte und neu entwickelte adaptive Filter werden diskutiert und verglichen.

Stats
The PDF-Document has been downloaded 21 times.