Lexikon der Neurowissenschaft: Hidden-Markov-Modell
Hidden-Markov-Modells, Hidden-State-Modell, Abk. HMM, Ehidden-Markov-model, Bezeichnung für statistische Modelle, die aus einer endlichen Zahl von Zuständen und aus Wahrscheinlichkeitsverteilungen bestehen. Sie werden überall dort eingesetzt, wo nach einer Beschreibung von sichtbaren Ausgabesequenzen gesucht wird, die Art und Weise der Entstehung der Ausgaben dem Beobachter jedoch unbekannt ist. Eines der wichtigsten Anwendungsfelder von HMMs ist die Erkennung von gesprochener Sprache. Zur weiteren Präzision stelle man sich einen stochastischen Prozeß vor, der eine Sequenz von Ausgaben erzeugt, z.B. den Spracherzeugungsprozeß. Die Art der Ausgaben eines solchen Prozesses hängt von der tatsächlichen Anwendung ab; es kann sich z.B. um Symbole, Zahlen oder auch Vektoren handeln. Ziel ist nun, die beobachtete Folge von Ausgaben durch eine Regel oder durch ein Modell zu beschreiben, und dieses dann später beispielsweise zur Erkennung von neuen Ausgabesequenzen zu verwenden. Die formale Beschreibung eines HMMs ist gegeben durch die Menge der Zustände und der Ausgabesymbole sowie durch die Wahrscheinlichkeitsverteilungen für die Zustandsübergänge, für die Ausgabesymbole in jedem Zustand und für die Anfangszustände. Die Festlegung der Anzahl der Zustände ist bei der Modellierung ein großes Problem. Um dann hiermit ein HMM zu entwickeln, das die beobachteten Ausgaben möglichst gut annähert, müssen die oben genannten Wahrscheinlichkeitsverteilungen geschätzt werden. Hierfür muß die Ausgabefolge beobachtet werden; die Beobachtungsdauer ist dabei insbesondere von der Zahl der Modellzustände abhängig. Für die Berechnung sind verschiedene iterative Verfahren entwickelt worden, das bekannteste ist wohl das Baum-Welch-Verfahren. künstliche Intelligenz, neuronale Netze.
Bei der Topologie (Lehre vom Ort [von griech. topos = Ort]), eines Hidden-Markov-Modells handelt es sich um die Beschreibung der Verbindungen zwischen den Knoten des Markov-Netzwerkes. Es existieren zahlreiche HMM-Topologien, von denen hier nur wenige genannt sein sollen. In einem vollständig vernetzten HMM sind alle Zustände untereinander verbunden. In einem ergodischen HMM ist jeder Zustand von jedem beliebigen anderen in endlich vielen Schritten erreichbar. Interessant für die Spracherkennung bzw. allgemein für sich über die Zeit ändernde Signale ist das Left-Right-Modell, bei dem die Zustände richtungsorientiert durchlaufen werden.
Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.