Free Essay

Hidden Markov Models (in French)

In:

Submitted By barth
Words 4635
Pages 19
BARTHÉLEMY CABOUAT
THIBAULT MATHIEU
ENCADRÉS PAR JEAN-MARC BARDET
MAI 2014

Travail d’étude et de recherche :
Les chaînes de Markov cachées Table des matières
Introduction 2
Présentation générale 3
Chaînes de Markov 3
Propriété de Markov 3
Homogénéité 4
Noyaux de transition 5
Modèle de Markov caché 5
Définition 5
Exemple 7
Propriétés 9
Inférence 12
Estimateurs de paramètres : les MLE 12
Probabilité d’une séquence d’observations : l’algorithme Forward-Backward 15
Algorithme de Viterbi 17
Notations 17
Principe 18
Applications 20
Simulations Matlab 20
Inférence paramétrique 20
Algorithme de Viterbi 24
Application à la domotique 26
Conclusion 31
Bibliographie 32

Introduction

Les modèles de Markov cachés ont été introduits par Baum et son équipe dans les années 60. Ils sont apparentés aux automates probabilistes, c’est-à-dire définis par une structure composée d’états et de transitions ainsi que par un ensemble de distributions de probabilité sur ces transitions. Les chaînes de Markov cachées sont utilisées dans différents cadres, que ce soit au niveau des objectifs visés ou bien des espaces considérés (discrets, continus).
Les applications en sont nombreuses dans des domaines tels que le traitement du signal, la reconnaissance de la parole, le text mining (filtrage de spam, reconnaissance de parties de discours), la finance de marché, la bio-informatique, la physique quantique...
Notre objectif est de proposer une vue d’ensemble de la théorie des chaînes de Markov cachées à travers une première partie. Certains algorithmes classiques d’estimation seront exposés dans une deuxième partie avant de présenter quelques applications des chaînes de Markov dans une troisième et dernière partie. Présentation générale

Il est essentiel dans un premier temps de bien comprendre les objets qui seront étudiés dans ce TER. Pour cela, nous allons aborder les définitions théoriques des chaînes de Markov, notamment cachées, et énoncer certaines propriétés intéressantes qui orientent leur étude.

Chaînes de Markov

Propriété de Markov

Une chaîne de Markov est un processus stochastique à temps discret et états discrets X_n possédant la propriété de Markov, dont une définition est donnée ci-dessous :
Déf. 1.1. X_n vérifie la propriété de Markov faible si :

Où Edésigne l’espace des états possibles de X_n.
Cette propriété signifie que l’état futur d’une chaine de Markov ne dépend que de l’état actuel. Autrement dit, la connaissance des états passés n’apporte pas d’information utile supplémentaire pour la prédiction probabiliste du futur.
Exemple : soit E={soleil, pluie}
Les probabilités dites de transition (voir plus loin) sont : P(Soleil │Soleil)=0,7 ;
P(Pluie│Soleil)=0,3 ;
P(Pluie│Pluie)=0,6
P(Soleil│Pluie)=0,4
Les probabilité initiales sont : P(Soleil)=0,2 et P(Pluie)=0,8
Ainsi, la probabilité d’avoir la séquence {‘Soleil’,’Pluie’,’Soleil’,’Pluie’} est d’après la propriété de Markov : P(Soleil)*P(Pluie│Soleil)*P(Soleil│Pluie)*P(Pluie│Soleil) = 0,2*0,3*0,4*0,3=0,0072

D’autre part, on peut poser une hypothèse d’homogénéité sur la chaîne de Markov considérée :

Homogénéité

Déf 1.2. X_n est une chaîne de Markov homogène si :

Cette propriété correspond à une invariabilité des probabilités de transition par rapport au temps. Celle-ci permet notamment de définir la matrice de transition et les noyaux de transition :

Noyaux de transition

Déf 1.3. Si X_n est une chaîne de Markov homogène, on définit A sa matrice de transition d’un état vers un autre par :

Déf 1.4. L’état du processus à l’instant 1 est la loi de probabilité, notée π, de la variable X_1 :

Modèle de Markov caché

Définition

Dans les chaînes de Markov, les observations correspondent aux états du processus. Or dans un modèle de Markov caché, on ne peut pas observer directement les états du processus, mais seulement des symboles (aussi appelés observables) émis par les états selon une certaine loi de probabilité.
Au vu d’une séquence d’observation, on ne peut pas savoir par quelle séquence d’états (ou chemin) le processus est passé, d’où le nom de modèle de Markov caché (MMC).
On distingue le processus 〖X= X〗_1,X_2,…,X_n qui représente l’évolution des états du MMC et le processus O= O_1,O_2,…,O_n qui représente la suite des symboles émis par le MMC.

On définit différents éléments pour une chaîne de Markov cachée : n est le nombre d’états cachés du modèle. On note S = {s_1,s_2,…,s_n} l’ensemble des états caches; A l’instant t, un état est représenté par X_t 〖(X〗_tϵ S) m est le nombre de symboles distincts que l’on peut observer dans chaque état. On les représente par l’ensemble V = {v_1,v_2,…,v_m}. A l’instant t, un symbole observable est désigné par O_t

Une matrice de probabilité de transitions, notée A = [a_ij], où a_ij est la probabilité a priori de transition de l’état i vers l’état j. On définit a_ij= P(X_(t+1)= s_j │X_t= s_i ), 1 ≤ i, j ≤ n

Une matrice de distributions des probabilités, notée B=[b_jk], associée à chaque état où b_jk est la probabilité d’observer le symbole v_k en étant à l’état s_j à l’instant t. On définit b_jk= P(V_t= v_k │X_t= s_j )

Un vecteur π=[π_i] de distribution des probabilités de transitions initiales, où π_i est la probabilité de commencer à l’état i : π_i=P(X_1= s_i)
On peut dire qu’une chaîne de Markov cachée notée λ est définie complètement par λ = (A,B, π) car n et m sont sous-entendus dans les matrices A et B ainsi que le vecteur π.

La génération des observations dans une chaîne de Markov cachée se fait par la procédure suivante :
T=1 choix de l’état initial, X_1=s_i avec la probabilité π_i
Choix de l’observation O_t=v_k avec la probabilité b_ik
Transition vers le nouvel état X_(t+1) =〖 s〗_j avec la probabilité a_ij
T=t+1 ; si t≤T, alors retour à l’étape 2, sinon fin de procédure (avec T la longueur d’une suite d’observations)
Exemple

Une mère livre un livre dans le jardin et voit son enfant regarder la télévision. Les observations (faîtes par la mère) sont : {« dehors » ; « intérieur »} suivant que l’enfant joue « dehors » ou qu’il regarde la TV à l’ « intérieur ». Les états cachés de la chaîne de Markov sont {« émission »;« pub »} suivant que l’enfant regarde une émission TV ou la publicité.
La mère observe son enfant pendant une demi-journée depuis le jardin. A chaque heure, la mère observe son enfant. Elle a observé la séquence d’observations suivantes O : O={« intérieur » ; « dehors » ; « dehors » ; « intérieur » ; « dehors »}. On suppose qu’il est plus probable d’avoir de la « pub » après de la pub. Prenons comme probabilités de transition :
P(Pub │Pub)=0,8 ; P(émission │Pub)=0,2 ;
P(émission │émision)=0,6 ; P(Pub │émission)=0,4.
Les probabilités de distributions (ou d’émission) sont :
P(dehors │pub)=0,9 ;
P(intérieur │pub)=0,1 ;
P(dehors │émission)=0,3 ;
P(intérieur │émission)=0,7
Initialement, la probabilité de tomber sur une émission est plus grande : P(émission)=0,9.
Nous connaissons ainsi les matrices A et B ainsi que la distribution de probabilité initiale π.
Le graphe de la chaîne de Markov donne :

A partir de la séquence d’observations O={« intérieur » ; « dehors » ; « dehors » ; « intérieur » ; « dehors »}, nous pouvons résoudre trois problèmes que nous pouvons généraliser pour n’importe qu’elle séquence d’observations O= O_1,O_2,…,O_(T-1) : Le problème d’évaluation : soit une séquence d’observations O= O_1,O_2,…,O_(T-1) et un modèle λ = (A,B, π), comment calculer la probabilité que λ ait généré cette séquence O? Le problème de décodage : soit une séquence d’observations O= O_1,O_2,…,O_(T-1) et un modèle λ = (A,B, π), comment trouver la séquence la plus probable d’états 〖X= X〗_1,X_2,…,X_T qui a généré la séquence O ? Le problème d’apprentissage : soit une séquence d’observations O= O_1,O_2,…,O_(T-1) et une structure générique de modèle de Markov caché , comment trouver les paramètres de ce modèle (A,B et π) qui correspond au mieux aux séquences observées.

Ces problèmes seront résolus grâce aux différents algorithme que nous allons voir par la suite.
Propriétés

Une propriété intéressante des chaînes de Markov cachées est que étant donnée une séquence d’états (X_1,X_2,〖…,X〗_n), les observations (Y_1,Y_2,〖…,Y〗_n) sont conditionnellement indépendantes les unes des autres. Ceci semble assez naturel, car la connaissance d’une séquence d’états suffit pour déterminer la distribution de probabilités des observations : les observations n’ont pas d’influence directe entre elles, une fois la séquence d’états fixée.

Preuve. Il nous suffit ici de montrer que pour tout n-uplet de fonctions boréliennes définies sur (f_1,f_2,…〖,f〗_n), on a
E[∏_(i=1)^p▒〖f_i (Y_i ) 〗┤| X_1,〖…,X〗_n]=∏_(i=1)^p▒〖E[f_i (Y_i )┤| X_1,〖…,X〗_n]〗
Où Y désigne l’espace des valeurs possibles des Y_i.
On note y= (y_1,y_2…,y_n )∈Y^n et x= (x_1,x_2…,x_n )∈X^n
Or, pour tout n-uplet de fonctions boréliennes définies sur X (l’espace des états des X_i) (f_1,f_2,…〖,f〗_n) on a
E[∏_(i=1)^n▒〖f_i (Y_i ) 〗 h(X_1,〖…,X〗_n )]
=∑_(y ∈ Y^n,x ∈ X^n)▒〖[∏_(i=1)^n▒〖f_i (y_i )] 〗 h(x)P[(X_1,…,X_n)=x ∩ (Y_1,…,Y_n )=y]〗
=∑_(y ∈ Y^n,x ∈ X^n)▒〖[∏_(i=1)^n▒〖f_i (y_i )] 〗 h(x)[∏_(j=1)^n▒〖a_(x_j x_(j+1) ) b_(x_j y_(j ) ) 〗〗]
=∑_(y ∈ Y^n,x ∈ X^n)▒〖h(x)[∏_(j=1)^n▒〖f_j (y_j ) b_(x_j y_j ) 〗〗]∏_(j=1)^n▒a_(x_j x_(j+1) )
=∑_(y ∈ Y^n)▒〖∏_(j=1)^n▒〖f_j (y_j ) b_(x_j y_j ) 〗[∑_(x ∈ X^n)▒〖h(x)〗 ∏_(j=1)^n▒〖a_(x_j x_(j+1) )]〗〗
=∏_(j=1)^n▒∑_(y ∈ Y^n)▒〖f_j (y_j ) b_(x_j y_j ) [∑_(x ∈ X^n)▒〖h(x)〗 ∏_(j=1)^n▒〖a_(x_j x_(j+1) )]〗〗
=E_(X_1,〖…,X〗_n ) [h(X_1,〖…,X〗_n ) ∏_(i=1)^n▒∑_(y ∈ Y^n)▒〖f_j (y_j ) b_(x_j y_j )]〗
En particulier, si on pose h(X)=1/(P(X=x)) 1_({X=x}) , on a :
E[∏_(i=1)^n▒〖f_i (Y_i ) 〗 | (X_1,〖…,X〗_n )]
=E_(X_1,〖…,X〗_n ) [∏_(i=1)^n▒∑_(y ∈ Y^n)▒〖f_i (y_i ) b_(x_j y_j ) | (X_1,〖…,X〗_n )]〗
=∏_(i=1)^n▒〖E[ f_i (Y_i )|〗 (X_1,〖…,X〗_n )]
(On peut prouver l’indépendance en posant f_i (Y_i )=1_{Y_i=y_i } ∀ y_i.) Inférence

Les méthodes qui vont être présentées ici ont des buts différents.
On commencera par présenter les estimateurs de paramètres basés sur le maximum de vraisemblance, utiles dans le cadre des phases d’apprentissage.
On s’intéressera ensuite à deux cas faisant intervenir des algorithmes de calcul :
Dans un cas, il s’agira de calculer la probabilité d’obtenir une séquence d’observations donnée, lorsqu’on connaît les paramètres de la chaîne de Markov cachée (probabilités de transition, probabilités d’émission). L’algorithme forward-backward sera utile, et nous en profiterons pour aborder son utilisation dans le cadre de l’apprentissage.
Dans l’autre cas, l’inférence portera sur une suite d’états à déterminer à partir de la connaissance du modèle et d’une suite d’observations. Dans ce but, nous aborderons alors les méthodes de lissage ainsi que les méthodes de Monte Carlo utiles dans ce cadre.

Estimateurs de paramètres : les MLE

Dans cette partie, on s’efforcera d’estimer les paramètres du modèle de Markov caché considéré, c’est-à-dire les probabilités de transition de 〖(X〗_n) et les probabilités d’émission P(Y_k=a|X_k=i). Ce passage est indispensable si les paramètres sont inconnus, pour pouvoir passer à d’autres estimations. Dans les applications des chaînes de Markov cachées, on trouve presque toujours des phases d’apprentissage (training-testing) visant à approcher les valeurs des paramètres.
On cherche à maximiser les vraisemblances correspondantes aux paramètres considérés (MLE : Maximum Likelihood Estimators).
Une façon intuitive d’estimer les distributions des transitions de 〖(X〗_n) et les probabilités conditionnelles P(Y_k=a|X_k=i) est de compter le nombre de réalisations qui correspondent à ces transitions.

On définit ainsi les trois indicateurs suivants : C_X (i)=∑_(k=1)^n▒δ_(X_k,i) le nombre de fois où 〖(X〗_n) a pris la valeur i ; C_(Y,X) (a,i)=∑_(k=1)^n▒δ_(X_k,i) ×δ_(Y_k,a) le nombre de fois où 〖(X〗_n) a pris la valeur i en même temps que 〖(Y〗_n) a pris la valeur a ; C_(X,X) (i,j)=∑_(k=2)^n▒δ_(X_(k-1),i) ×δ_(X_k,j) le nombre de fois où 〖(X〗_n) a pris la valeur i avant de prendre la valeur j immédiatement ensuite.
Un estimateur de la probabilité de transition de l’état i vers l’état j serait alors :
T ̂_ij=(C_(X,X) (i,j))/(C_X (i) )
On a donc que 〖M ̂=(T ̂_ij)〗_(1≤i,j≤n).
Démontrer que cet estimateur maximise la vraisemblance se fait de la même façon que pour une chaîne de Markov non cachée, dans ce cas. On passera donc par une optimisation via la maximisation du Lagrangien sous la contrainte que la somme d’une distribution de probabilités vaut 1.

Preuve. On notera la séquence d’états x=(x_1,…,x_t,…,x_T)
La vraisemblance est ici définie par l(M)=log⁡P(x,M) =log⁡∏_(t=1)^T▒T_(x_(t-1) x_t )
=∑_(t=1)^T▒〖log⁡(T_(x_(t-1) x_t ))〗
Le problème d’optimisation est donc le suivant :
{█(max_M l(M)@∑_(j=1)^n▒〖T_ij=1〗 ∀i∈[|1..n|] (1)@T_ij≥0 ∀ (i,j)∈[|1..n|]^2 (2))┤

Avec des hypothèses suffisantes (espace convexe, fonction cible C^1 et/ou différentiable en tout point de cet espace, fonctions contraintes〖 C〗^1 dans l’intérieur de l’espace), on peut utiliser le Lagrangien pour trouver un maximum :
L(M,λ)=∑_(i=1)^n▒∑_(j=1)^n▒∑_(t=1)^T▒〖δ_(X_(t-1),i)×δ_(X_t,j) log⁡(T_ij)〗+∑_(i=1)^n▒〖λ_i (1-∑_(j=1)^n▒T_ij )〗
∂L/(∂T_ij )=∂/(∂T_ij ) ∑_(t=1)^T▒〖δ_(X_(t-1),i)×δ_(X_t,j) log⁡(T_ij ) 〗+∂/(∂T_ij ) λ_i (1-∑_(i=1)^n▒T_ij )
=1/T_ij ∑_(t=1)^T▒〖δ_(X_(t-1),i)×δ_(X_t,j) 〗-λ_i
∂L/(∂T_ij )=0⟺T_ij=1/λ_i ∑_(t=1)^T▒〖δ_(X_(t-1),i)×δ_(X_t,j) 〗
En injectant dans la condition (1) :
1-∑_(j=1)^n▒T_ij =0⟺1-∑_(j=1)^n▒〖1/λ_i ∑_(t=1)^T▒〖δ_(X_(t-1),i)×δ_(X_t,j) 〗〗=0
⟺λ_i=∑_(j=1)^n▒∑_(t=1)^T▒〖δ_(X_(t-1),i)×δ_(X_t,j) 〗 λ_i=∑_(t=1)^T▒δ_(X_(t-1),i) .
Ainsi, on obtient l’expression de l’estimateur maximisant la vraisemblance :
(T_ij ) ̂=(∑_(t=1)^T▒〖δ_(X_(t-1),i)×δ_(X_t,j) 〗)/(∑_(t=1)^T▒δ_(X_(t-1),i) ).

Ce résultat est assez intuitif, puisqu’il s’agit du ratio (nombre de fois où X est passé de i à j)/(nombre de fois où X est passé par l^' état i).

Un estimateur des probabilités d’émission est défini par :
Î(a,i)=(C_(Y,X) (a,i))/(C_X (i) )=(nombre de fois où X,dans l^' état i,a émis a)/(nombre de fois où X est passé par l^' état i)
Ces estimateurs sont les estimateurs maximisant la vraisemblance.

Probabilité d’une séquence d’observations : l’algorithme Forward-Backward

On se place dans le cadre où les paramètres suivants sont supposés connus : Les probabilités de transition, représentées par la matrice de transition A=(a_ij )_(0≤i,j≤n) où a_ij=P(X_k=s_j│X_(k-1)=s_i ) Les probabilités d’émission, représentées par la matrice de transition B=〖(b_ij)〗_(0≤i≤n)^(0≤j≤p) où a_ij=P(X_k=s_j│X_(k-1)=s_i )
Où p=Card(V) et n=Card(S).
La suite d’observations sera désignée par y=(y_1,…,y_t,…,y_T ) et la séquence d’états par x=(x_1,…,x_t,…,x_T ).
La probabilité d’observer y, étant donnés A et B, est alors :
P(y │A,B)= ∑_(x∈S^T)▒〖P(y,x ┤|A,B)〗
=∑_(x∈S^T)▒〖P[ (y│x) │ A,B] .P(x|A,B)〗
=∑_(x∈S^T)▒〖(∏_(t=1)^T▒〖P[(y_t│x_t ) │ A,B] 〗.∏_(t=1)^T▒〖P[(x_t│x_(t-1) )| A,B)]〗〗
Par la propriété de Markov ainsi que l’indépendance conditionnelle démontrée dans la première partie.
D’où P(y │A,B)=∑_(x∈S^T)▒〖(∏_(t=1)^T▒B_(x_t y_t ) .∏_(t=1)^T▒〖A_(x_(t-1) x_t ))〗〗.
Evaluer cette somme directement requiert de l’ordre de S^T opérations. Pour des modèles un minimum complexes, ceci n’est pas envisageable, et il va falloir avoir recours à des algorithmes performants pour effectuer le calcul. L’un d’eux, l’algorithme forward se base sur le fait que la probabilité d’une séquence peut se décomposer en envisageant tous les cas états finaux possibles pour une séquence d’états :
P(y │A,B)=P(y_1,…,y_t,…,y_T │A,B)
=∑_(i=1)^n▒〖P(y_1,…,y_t,…,y_T,x_T=s_i │A,B) 〗
≝∑_(i=1)^n▒〖α_i (T) 〗.
Les α_i (t) représentent alors la probabilité des t premières observations en supposant un état final〖 s〗_i. On peut les calculer de manière récursive, ce qui réduit grandement le nombre d’opérations nécessaires :
Initialisation.α_i (0)= A_0i,i=1…n
Récursion.α_i (t)=∑_(j=1)^n▒〖α_j (t-1) A_ji B_(iy_t ) 〗,i=1…n,t=1..T
La complexité de l’algorithme est alors O(S.T), ce qui est bien inférieur au O(S^T) initial.
Un algorithme similaire, l’algorithme backward, fonctionne dans le sens inverse en partant des dernières observations pour remonter jusqu’aux premières mais procède sur le même schéma et principe.

Algorithme de Viterbi

Si l’on suppose la donnée complète du modèle de Markov (paramètres, probabilités de départ, probabilités d’ignition) on peut chercher à estimer la séquence d’états ayant le plus probablement impliqué une suite observée. L’algorithme de Viterbi, que nous allons maintenant présenter, permet d’estimer une telle séquence en réduisant le nombre d’opérations nécessaires par un processus récursif.

Notations
Si n∈N*, on note x=(x_1,x_2,…,x_n ) la séquence d’états à estimer y=(y_1,y_2,…,y_n ) la suite d’observations q(i,j) la probabilité de transition d’un état i à un état j où (i,j)∈N² π_k=P(x_1=k) la probabilité de démarrer à l’état k dans la chaîne de Markov.

Principe

L’objectif est la maximisation de la vraisemblance de la séquence d’états, qui est ici la probabilité d’avoir suivi une séquence x en connaissant une séquence d’observation y et les paramètres du modèle λ :
L(x)=P(x|y,λ)
Calculer 〖max〗_x (L(x)) directement demande un nombre d’opérations beaucoup trop grand pour être envisageable (si S est le cardinal de l’espace des états de la chaîne de Markov, la complexité serait de l’ordre de (nS^n ) ).
Exemple. Supposons que la météo à Paris peut prendre trois états (ensoleillé, nuageux, pluvieux), et que selon la météo je décide chaque matin de prendre mon parapluie ou non. La concierge de mon immeuble (qui ne sort jamais, supposerons-nous pour l’occasion) me voit descendre avec ou sans mon parapluie chaque matin pendant une semaine. Elle aurait 15309 opérations à réaliser pour déterminer la séquence d’états de la météo la plus probable sur la semaine complète. En utilisant l’algorithme de Viterbi, elle n’en aurait que 63 !

L’idée est d’estimer pour chaque sous suite d’observations 〖(y〗_1),〖(y〗_1,y_2),〖(y〗_1,y_2,y_3)… 〖(y〗_1,…,y_n) les séquences d’états 〖(x〗_1),〖(x〗_1,x_2),〖(x〗_1,x_2,x_3)… 〖(x〗_1,…,x_n) ayant le plus probablement mené à ces sous-suites, en ne faisant varier à chaque fois que l’état final : une fois 〖(x〗_1) déterminé, on le garde en mémoire pour déterminer ensuite 〖(x〗_1,x_2), etc.

Initialisation.V_(1,k)=P(y_1 |k)×P(X_1=k)
Récursion.V_(t,k)=P(y_t |k)×〖max〗_x (T_xk×P(X_1=k))
A chaque fois qu’on passe en revue les x pour trouver celui qui établit le maximum, on le stocke en mémoire. En posant finalement〖 x〗_T=〖argmax〗_x (V_(T,x)), on retrouve la séquence d’états cachés ayant le plus probablement généré la séquence d’observations. Applications

Simulations Matlab

Afin de mettre en pratique les différentes méthodes décrites, nous avons utilisé le logiciel Matlab 2013 pour simuler des états et des observations de chaînes de Markov cachées discrètes, sur des longueurs variables et pour des paramètres donnés. Nous avons ainsi pu tester l’efficacité et la performance de l’estimation de paramètres et de l’algorithme de Viterbi.

Inférence paramétrique

En nous basant sur les estimateurs décrits en deuxième partie, voici le script écrit qui a permis d’approcher les paramètres (probabilités de transition et d’émission) : Ce script a été testé avec des performances satisfaisantes sur des modèles simples (2 états possibles pour la chaîne de Markov et 6 valeurs d’observations). L’erreur d’estimation sur les probabilités de transition était de 0.0259, et de 0.0212 pour les probabilités d’émission pour un échantillon de 1000 observations et états.

Erreur estimation des probabilités d’émission en fonction de la taille de l’échantillon

Algorithme de Viterbi

Une fois une chaîne de Markov générée, on peut chercher à résoudre le problème de décodage via l’algorithme de Viterbi. Voici le code utilisé pour cela, sur une chaîne de Markov avec les mêmes paramètres :

Les résultats associés montrent un taux de précision d’environ 60% sur la détermination des états cachés, quelle que soit la taille de l’échantillon choisie.

On peut se placer dans un cadre « post-apprentissage », où les paramètres ont été inférés, pour essayer de décoder les états cachés. Le différentiel des résultats de Viterbi est alors faible, bien que dépendant de l’apprentissage (ici réalisé avec l’inférence vu au premier point). Application à la domotique

T.L.M. van Kasteren, G. Englebienne, and B.J.A. Kröse ont réalisé en 2010-2011 une série d’expérimentations ayant pour but d’automatiser la reconnaissance d’activité humaine dans la maison et son identification. Dans ce cadre, 3 sujets vivant seuls ont été suivis pendant 25 jours dans leur logement. Une dizaine de capteurs ont été installés dans les meubles, placards, douches, cuisines… relevant des données comme la température, la pression, le mouvement (senseurs infrarouges), permettant de déterminer lorsque quelqu’un passait devant, ouvrait un tiroir, la fenêtre, tirait la chasse d’eau, etc. Plan des logements. Les capteurs sont signalés en rouge.
La façon de recueillir les données a été celle du « last-fired sensor », où pour ainsi dire la parole était donnée au capteur ayant en dernier changé d’état (lorsqu’un capteur émet un 1, tous ceux qui émettaient également 1 passent à 0 jusqu’à ce que le premier repasse à 0). Lorsqu’on oublie de fermer un placard avant de dormir, l’état du capteur associé resterait sur 1, ce qui induirait en erreur l’apprentissage des paramètres. Ici, seuls les changements d’états sont remarqués, ce qui permet de se repérer par rapport à des évènements plutôt qu’à des actions sur la durée.
Les données recueillies étaient binaires (pour les capteurs mesurant une grandeur, le basculement de 0 à 1 se faisait sur un seuil donné), toutes les 30 secondes. Après un benchmark, il s’est avéré que 30 secondes était une durée impliquant seulement 1% d’erreur due à la discrétisation du temps.
Plusieurs méthodes mathématiques ont été mis en place pour permettre de passer de ces mesures à la classification de l’activité humaine en cours : la méthode « Bayésienne naïve », la méthode des HMM, celle des HSMM (modèles semi-markoviens) et celle des -champs aléatoires conditionnels (CRF).
Nous allons nous intéresser à celle des HMM en particulier.
L’ensemble de ces symboles (un par capteur, soit une dizaine) relevés à un instant t correspond à une observation. Les états cachés à retrouver sont alors les activités humaines, qui ont été classifiées à l’avance en une douzaine de catégories.
Les données sont disponibles au téléchargement sur le lien suivant : https://sites.google.com/site/tim0306/datasets
Notre projet d’exploiter ces données pour évaluer la performance des HMM dans le cadre de l’expérience, en nous appuyant sur les données traitées, nettoyées et agencées par les auteurs, a cependant rapidement rencontré des embûches comme notamment la taille des données à traiter. En effet, il s’agit de 3 sujets, dont une douzaine de capteurs ont fourni une information toute les 30 secondes pendant 25 jours d’affilée, soit environ 54000 observations relevées et 648000 valeurs. Nos ordinateurs personnels ont alors eu du mal à effectuer la moindre opération sur ces données, même en utilisant des algorithmes performants comme celui de Viterbi.
On peut néanmoins commenter les résultats obtenus par les auteurs, qui ont pu aller jusqu’au bout du processus.
L’apprentissage des différents paramètres s’est fait sur la base du « leave one day out », c’est-à-dire que le set de données a été utilisé sur 24 jours pour estimer les paramètres de la chaine de Markov cachée, avant de tester l’adéquation de ces paramètres avec les résultats du 25e jour. En faisant tourner le jour utilisé pour les tests sur les 25, on peut encore consolider ces estimations.
Les performances des différentes modélisations ont été résumées en terme de précision, rappel, F-score dans les tables ci-dessous : La précision indique quel pourcentage des états signalés était juste, tandis que le rappel indique combien d’états justes ont été signalés sur leur nombre total.
Pour illustrer ces concepts, imaginons que j’ai pris 5 douches et que j’ai fait 6 fois la cuisine sur ces derniers jours. Un modèle estimant que j’ai pris 4 douches, à 4 instants parmi les 5 où j’ai effectivement pris des douches, aura une précision 100%, mais seulement 80% de rappel (4/5). Par contre, s’il estime en plus que j’ai pris 2 autres douches, mais qu’à un de ces instants je faisais en fait la cuisine, sa précision tombe à 83% alors que son rappel grimpe à 100%.
Toute performance d’estimation est donc un compromis entre précision et rappel, et le F-score permet de prendre en compte les scores dans ces deux domaines.
De ce point de vue, on remarque que les HMM ne déméritent pas face au modèle Naive Bayesian et Conditional Random Field, leur F-score étant généralement supérieur. Cependant, les modèles semi-markoviens (HSMM) signent de meilleures performances en général. La complexité accrue de ces modèles nécéssite cependant plus d’apprentissage, et plus de calculs pour aboutir à ces résultats.
On notera enfin que les CRF disposent d’une très bonne précision, malgré un faible rappel, les rendant très discriminants lorsqu’ils prennent une décision, même s’ils restent la plupart du temps indécis. Conclusion

Les chaînes de Markov cachées sont un procédé de modélisation particulièrement adapté aux situations de prises de décisions par déduction. Il s’agit de partir d’une observation, et de la comparer à une base d’apprentissage ou bien de calculer ce qui a pu la provoquer en terme probabilistes. La difficulté pour les mettre en place réside essentiellement en la capacité à identifier des systèmes bien décrits par des chaînes de Markov, et à en extraire des données pertinentes avant tout. De nombreux procédés de calcul permettent d’augmenter drastiquement les quantités de données qu’il est possible de prendre en compte. Avec l’augmentation des capacités de calcul, l’exactitude de ces modèles ne peut que s’améliorer, même si la première condition nécessaire pour cela reste de choisir judicieusement les variables à observer et les phénomènes à modéliser. Bibliographie KASTEREN T.L.M. van, ENGLEBIENNE G., KROSE B.J.A,
Human activity recognition from wireless sensor network data: Benchmark and software, 2011 RAMAGE Daniel, Hidden Markov Models Fundamentals, CS229 Section Notes. Stanford University, 2007 PARDOUX E., Processus de Markov et applications, 2006 LACOUR Claire, Estimation non paramétrique adaptive pour les chaînes de Markov cachées. Thèse de doctorat en mathématiques. Paris : université Paris Descartes, 2007 TREVEZAS Samis, Etude de l’estimation du maximum de vraisemblance dans des modèles Markoviens, semi-Markoviens et semi-Markoviens cachés avec applications. Thèse de doctorat en mathématiques. Compiègne : Université de Technologie de Compiègne, 2008

Similar Documents

Free Essay

Data Mining

...A Statistical Perspective on Data Mining Ranjan Maitra∗ Abstract Technological advances have led to new and automated data collection methods. Datasets once at a premium are often plentiful nowadays and sometimes indeed massive. A new breed of challenges are thus presented – primary among them is the need for methodology to analyze such masses of data with a view to understanding complex phenomena and relationships. Such capability is provided by data mining which combines core statistical techniques with those from machine intelligence. This article reviews the current state of the discipline from a statistician’s perspective, illustrates issues with real-life examples, discusses the connections with statistics, the differences, the failings and the challenges ahead. 1 Introduction The information age has been matched by an explosion of data. This surfeit has been a result of modern, improved and, in many cases, automated methods for both data collection and storage. For instance, many stores tag their items with a product-specific bar code, which is scanned in when the corresponding item is bought. This automatically creates a gigantic repository of information on products and product combinations sold. Similar databases are also created by automated book-keeping, digital communication tools or by remote sensing satellites, and aided by the availability of affordable and effective storage mechanisms – magnetic tapes, data warehouses and so on. This has created a situation...

Words: 22784 - Pages: 92

Free Essay

English Langugae

...The Syllable John Goldsmith December 7, 2009 Contents 1 Overview and brief history 1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . 1.2 Sonority waves . . . . . . . . . . . . . . . . . . . . . 1.3 Constituents and structure . . . . . . . . . . . . . . 1.3.1 Pike, Hockett, Fudge: the arboreal view . . . 1.3.2 Syntagmatic and Paradigmatic . . . . . . . . 1.3.3 How to parse CVC . . . . . . . . . . . . . . . 1.4 Syllable timing . . . . . . . . . . . . . . . . . . . . . 1.5 Classical generative phonology . . . . . . . . . . . . 1.6 Pulgram on the syllable . . . . . . . . . . . . . . . . 1.7 Natural phonologies . . . . . . . . . . . . . . . . . . 1.8 Flat structure . . . . . . . . . . . . . . . . . . . . . . 1.9 Metrical phonology . . . . . . . . . . . . . . . . . . . 1.10 Sonority redux . . . . . . . . . . . . . . . . . . . . . 1.11 Slots that hang from trees . . . . . . . . . . . . . . . 1.12 Government relations . . . . . . . . . . . . . . . . . . 1.13 Derived sonority . . . . . . . . . . . . . . . . . . . . 1.14 Optimality theory . . . . . . . . . . . . . . . . . . . 1.15 Must we choose between sonority and constituency? 1.16 Phonotactics . . . . . . . . . . . . . . . . . . . . . . 1.17 Onsets, codas, and word-appendices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ...

Words: 18260 - Pages: 74

Free Essay

Text to Speech

...Running head: Text to Speech Text to Speech Technology Professor: ABSTRACT Text to speech approaches towards adding expressivity to machines is an important field being researched and worked on these days. This paper presents an overview of speech synthesis approach, its applications and advancements towards modern technology. It begins with a description of how such systems work, examines the use of text-to-speech software and try to apply this technology to the DMCS project for evidence of benefits of text to speech applications for people engaged in different fields and the level of accuracy that can be expected. Applications of speech synthesis technology in various fields are then explored. The document concludes with potential uses of speech to text in various fields, likely main uses of the technology in the future. TEXT TO SPEECH – INTRODUCTION A Text-To-Speech (TTS) synthesis is a widely used technology that should be able to read any text aloud, whether it was directly introduced in the computer by an operator or scanned and submitted to an Optical Character Recognition (OCR) system. Let it be more precise, systems that simply concatenate isolated words or parts of sentences, denoted as Voice Response Systems, are only applicable when a limited vocabulary is required (typically a few one hundreds of words), and when the sentences to...

Words: 4138 - Pages: 17

Premium Essay

Econometrics

...A Guide to Modern Econometrics 2nd edition Marno Verbeek Erasmus University Rotterdam A Guide to Modern Econometrics A Guide to Modern Econometrics 2nd edition Marno Verbeek Erasmus University Rotterdam Copyright  2004 John Wiley & Sons Ltd, The Atrium, Southern Gate, Chichester, West Sussex PO19 8SQ, England Telephone (+44) 1243 779777 Email (for orders and customer service enquiries): cs-books@wiley.co.uk Visit our Home Page on www.wileyeurope.com or www.wiley.com All Rights Reserved. No part of this publication may be reproduced, stored in a retrieval system or transmitted in any form or by any means, electronic, mechanical, photocopying, recording, scanning or otherwise, except under the terms of the Copyright, Designs and Patents Act 1988 or under the terms of a licence issued by the Copyright Licensing Agency Ltd, 90 Tottenham Court Road, London W1T 4LP, UK, without the permission in writing of the Publisher. Requests to the Publisher should be addressed to the Permissions Department, John Wiley & Sons Ltd, The Atrium, Southern Gate, Chichester, West Sussex PO19 8SQ, England, or emailed to permreq@wiley.co.uk, or faxed to (+44) 1243 770620. This publication is designed to provide accurate and authoritative information in regard to the subject matter covered. It is sold on the understanding that the Publisher is not engaged in rendering professional services. If professional advice or other expert assistance is required,...

Words: 194599 - Pages: 779

Free Essay

Artificial Neural Network for Biomedical Purpose

...ARTIFICIAL NEURAL NETWORKS METHODOLOGICAL ADVANCES AND BIOMEDICAL APPLICATIONS Edited by Kenji Suzuki Artificial Neural Networks - Methodological Advances and Biomedical Applications Edited by Kenji Suzuki Published by InTech Janeza Trdine 9, 51000 Rijeka, Croatia Copyright © 2011 InTech All chapters are Open Access articles distributed under the Creative Commons Non Commercial Share Alike Attribution 3.0 license, which permits to copy, distribute, transmit, and adapt the work in any medium, so long as the original work is properly cited. After this work has been published by InTech, authors have the right to republish it, in whole or part, in any publication of which they are the author, and to make other personal use of the work. Any republication, referencing or personal use of the work must explicitly identify the original source. Statements and opinions expressed in the chapters are these of the individual contributors and not necessarily those of the editors or publisher. No responsibility is accepted for the accuracy of information contained in the published articles. The publisher assumes no responsibility for any damage or injury to persons or property arising out of the use of any materials, instructions, methods or ideas contained in the book. Publishing Process Manager Ivana Lorkovic Technical Editor Teodora Smiljanic Cover Designer Martina Sirotic Image Copyright Bruce Rolff, 2010. Used under license from Shutterstock.com First published March, 2011 Printed in...

Words: 43079 - Pages: 173

Free Essay

The Logistic Map

...Chaotic Growth with the Logistic Model of P.-F. Verhulst Hugo Pastijn Department of Mathematics, Royal Military Academy B-1000 Brussels, Belgium Hugo.Pastijn@rma.ac.be Summary. Pierre-Fran¸ois Verhulst was born 200 years ago. After a short biograc phy of P.-F. Verhulst in which the link with the Royal Military Academy in Brussels is emphasized, the early history of the so-called “Logistic Model” is described. The relationship with older growth models is discussed, and the motivation of Verhulst to introduce different kinds of limited growth models is presented. The (re-)discovery of the chaotic behaviour of the discrete version of this logistic model in the late previous century is reminded. We conclude by referring to some generalizations of the logistic model, which were used to describe growth and diffusion processes in the context of technological innovation, and for which the author studied the chaotic behaviour by means of a series of computer experiments, performed in the eighties of last century by means of the then emerging “micro-computer” technology. 1 P.-F. Verhulst and the Royal Military Academy in Brussels In the year 1844, at the age of 40, when Pierre-Fran¸ois Verhulst on November c 30 presented his contribution to the “M´moires de l’Acad´mie” of the young e e Belgian nation, a paper which was published the next year in “tome XVIII” with the title: “Recherches math´matiques sur la loi d’accroissement de la e population” (mathematical investigations of the law of...

Words: 138629 - Pages: 555

Premium Essay

Data Mining Practical Machine Learning Tools and Techniques - Weka

...Data Mining Practical Machine Learning Tools and Techniques The Morgan Kaufmann Series in Data Management Systems Series Editor: Jim Gray, Microsoft Research Data Mining: Practical Machine Learning Tools and Techniques, Second Edition Ian H. Witten and Eibe Frank Fuzzy Modeling and Genetic Algorithms for Data Mining and Exploration Earl Cox Data Modeling Essentials, Third Edition Graeme C. Simsion and Graham C. Witt Location-Based Services Jochen Schiller and Agnès Voisard Database Modeling with Microsoft® Visio for Enterprise Architects Terry Halpin, Ken Evans, Patrick Hallock, and Bill Maclean Designing Data-Intensive Web Applications Stefano Ceri, Piero Fraternali, Aldo Bongio, Marco Brambilla, Sara Comai, and Maristella Matera Mining the Web: Discovering Knowledge from Hypertext Data Soumen Chakrabarti Understanding SQL and Java Together: A Guide to SQLJ, JDBC, and Related Technologies Jim Melton and Andrew Eisenberg Database: Principles, Programming, and Performance, Second Edition Patrick O’Neil and Elizabeth O’Neil The Object Data Standard: ODMG 3.0 Edited by R. G. G. Cattell, Douglas K. Barry, Mark Berler, Jeff Eastman, David Jordan, Craig Russell, Olaf Schadow, Torsten Stanienda, and Fernando Velez Data on the Web: From Relations to Semistructured Data and XML Serge Abiteboul, Peter Buneman, and Dan Suciu Data Mining: Practical Machine Learning Tools and Techniques with Java Implementations Ian H. Witten and Eibe Frank ...

Words: 191947 - Pages: 768

Premium Essay

Managerial Microeconomics

...This page intentionally left blank Managerial Economics Managerial economics, meaning the application of economic methods in the managerial decision-making process, is a fundamental part of any business or management course. This textbook covers all the main aspects of managerial economics: the theory of the firm; demand theory and estimation; production and cost theory and estimation; market structure and pricing; game theory; investment analysis and government policy. It includes numerous and extensive case studies, as well as review questions and problem-solving sections at the end of each chapter. Nick Wilkinson adopts a user-friendly problem-solving approach which takes the reader in gradual steps from simple problems through increasingly difficult material to complex case studies, providing an understanding of how the relevant principles can be applied to real-life situations involving managerial decision-making. This book will be invaluable to business and economics students at both undergraduate and graduate levels who have a basic training in calculus and quantitative methods. N I C K W I L K I N S O N is Associate Professor in Economics at Richmond, The American International University in London. He has taught business and economics in various international institutions in the UK and USA, as well as working in business management in both countries.    Cambridge, New York, Melbourne, Madrid, Cape Town, Singapore, São Paulo Cambridge...

Words: 75065 - Pages: 301

Premium Essay

Dataminig

...Data Mining Third Edition This page intentionally left blank Data Mining Practical Machine Learning Tools and Techniques Third Edition Ian H. Witten Eibe Frank Mark A. Hall AMSTERDAM • BOSTON • HEIDELBERG • LONDON NEW YORK • OXFORD • PARIS • SAN DIEGO SAN FRANCISCO • SINGAPORE • SYDNEY • TOKYO Morgan Kaufmann Publishers is an imprint of Elsevier Morgan Kaufmann Publishers is an imprint of Elsevier 30 Corporate Drive, Suite 400, Burlington, MA 01803, USA This book is printed on acid-free paper. Copyright © 2011 Elsevier Inc. All rights reserved. No part of this publication may be reproduced or transmitted in any form or by any means, electronic or mechanical, including photocopying, recording, or any information storage and retrieval system, without permission in writing from the publisher. Details on how to seek permission, further information about the Publisher’s permissions policies and our arrangements with organizations such as the Copyright Clearance Center and the Copyright Licensing Agency, can be found at our website: www.elsevier.com/permissions. This book and the individual contributions contained in it are protected under copyright by the Publisher (other than as may be noted herein). Notices Knowledge and best practice in this field are constantly changing. As new research and experience broaden our understanding, changes in research methods, professional practices, or medical treatment may become necessary. Practitioners and researchers must...

Words: 194698 - Pages: 779

Free Essay

La Singularidad

...NOTE: This PDF document has a handy set of “bookmarks” for it, which are accessible by pressing the Bookmarks tab on the left side of this window. ***************************************************** We are the last. The last generation to be unaugmented. The last generation to be intellectually alone. The last generation to be limited by our bodies. We are the first. The first generation to be augmented. The first generation to be intellectually together. The first generation to be limited only by our imaginations. We stand both before and after, balancing on the razor edge of the Event Horizon of the Singularity. That this sublime juxtapositional tautology has gone unnoticed until now is itself remarkable. We're so exquisitely privileged to be living in this time, to be born right on the precipice of the greatest paradigm shift in human history, the only thing that approaches the importance of that reality is finding like minds that realize the same, and being able to make some connection with them. If these books have influenced you the same way that they have us, we invite your contact at the email addresses listed below. Enjoy, Michael Beight, piman_314@yahoo.com Steven Reddell, cronyx@gmail.com Here are some new links that we’ve found interesting: KurzweilAI.net News articles, essays, and discussion on the latest topics in technology and accelerating intelligence. SingInst.org The Singularity Institute for Artificial Intelligence: think tank devoted to increasing...

Words: 237133 - Pages: 949

Free Essay

Nit-Silchar B.Tech Syllabus

...NATIONAL INSTITUTE OF TECHNOLOGY SILCHAR Bachelor of Technology Programmes amï´>r¶ JH$s g§ñWmZ, m¡Úmo{ à VO o pñ Vw dZ m dY r V ‘ ñ Syllabi and Regulations for Undergraduate PROGRAMME OF STUDY (wef 2012 entry batch) Ma {gb Course Structure for B.Tech (4years, 8 Semester Course) Civil Engineering ( to be applicable from 2012 entry batch onwards) Course No CH-1101 /PH-1101 EE-1101 MA-1101 CE-1101 HS-1101 CH-1111 /PH-1111 ME-1111 Course Name Semester-1 Chemistry/Physics Basic Electrical Engineering Mathematics-I Engineering Graphics Communication Skills Chemistry/Physics Laboratory Workshop Physical Training-I NCC/NSO/NSS L 3 3 3 1 3 0 0 0 0 13 T 1 0 1 0 0 0 0 0 0 2 1 1 1 1 0 0 0 0 4 1 1 0 0 0 0 0 0 2 0 0 0 0 P 0 0 0 3 0 2 3 2 2 8 0 0 0 0 0 2 2 2 2 0 0 0 0 0 2 2 2 6 0 0 8 2 C 8 6 8 5 6 2 3 0 0 38 8 8 8 8 6 2 0 0 40 8 8 6 6 6 2 2 2 40 6 6 8 2 Course No EC-1101 CS-1101 MA-1102 ME-1101 PH-1101/ CH-1101 CS-1111 EE-1111 PH-1111/ CH-1111 Course Name Semester-2 Basic Electronics Introduction to Computing Mathematics-II Engineering Mechanics Physics/Chemistry Computing Laboratory Electrical Science Laboratory Physics/Chemistry Laboratory Physical Training –II NCC/NSO/NSS Semester-4 Structural Analysis-I Hydraulics Environmental Engg-I Structural Design-I Managerial Economics Engg. Geology Laboratory Hydraulics Laboratory Physical Training-IV NCC/NSO/NSS Semester-6 Structural Design-II Structural Analysis-III Foundation Engineering Transportation Engineering-II Hydrology &Flood...

Words: 126345 - Pages: 506

Free Essay

Financial Risk Measurement for Financial Risk Management

...NBER WORKING PAPER SERIES FINANCIAL RISK MEASUREMENT FOR FINANCIAL RISK MANAGEMENT Torben G. Andersen Tim Bollerslev Peter F. Christoffersen Francis X. Diebold Working Paper 18084 http://www.nber.org/papers/w18084 NATIONAL BUREAU OF ECONOMIC RESEARCH 1050 Massachusetts Avenue Cambridge, MA 02138 May 2012 Forthcoming in Handbook of the Economics of Finance, Volume 2, North Holland, an imprint of Elsevier. For helpful comments we thank Hal Cole and Dongho Song. For research support, Andersen, Bollerslev and Diebold thank the National Science Foundation (U.S.), and Christoffersen thanks the Social Sciences and Humanities Research Council (Canada). We appreciate support from CREATES funded by the Danish National Science Foundation. The views expressed herein are those of the authors and do not necessarily reflect the views of the National Bureau of Economic Research. NBER working papers are circulated for discussion and comment purposes. They have not been peerreviewed or been subject to the review by the NBER Board of Directors that accompanies official NBER publications. © 2012 by Torben G. Andersen, Tim Bollerslev, Peter F. Christoffersen, and Francis X. Diebold. All rights reserved. Short sections of text, not to exceed two paragraphs, may be quoted without explicit permission provided that full credit, including © notice, is given to the source. Financial Risk Measurement for Financial Risk Management Torben G. Andersen, Tim Bollerslev, Peter F. Christoffersen, and...

Words: 41700 - Pages: 167

Premium Essay

Textbook

...introduction to econometrics specifically written for finance students. It includes examples and case studies which finance students will recognise and relate to. This new edition builds on the successful data- and problem-driven approach of the first edition, giving students the skills to estimate and interpret models while developing an intuitive grasp of underlying theoretical concepts. Key features: ● Thoroughly revised and updated, including two new chapters on ● ● ● ● ● ● panel data and limited dependent variable models Problem-solving approach assumes no prior knowledge of econometrics emphasising intuition rather than formulae, giving students the skills and confidence to estimate and interpret models Detailed examples and case studies from finance show students how techniques are applied in real research Sample instructions and output from the popular computer package EViews enable students to implement models themselves and understand how to interpret results Gives advice on planning and executing a project in empirical finance, preparing students for using econometrics in practice Covers important modern topics such as time-series forecasting, volatility modelling, switching models and simulation methods Thoroughly class-tested in leading finance schools Chris Brooks is Professor of Finance at the ICMA Centre, University of Reading, UK, where he also obtained his PhD. He has published over sixty articles in leading academic and practitioner journals including the Journal of...

Words: 195008 - Pages: 781

Premium Essay

Econometrics

...econometrics specifically written for finance students. It includes examples and case studies which finance students will recognise and relate to. This new edition builds on the successful data- and problem-driven approach of the first edition, giving students the skills to estimate and interpret models while developing an intuitive grasp of underlying theoretical concepts. Key features: ● Thoroughly revised and updated, including two new chapters on ● ● ● ● ● ● panel data and limited dependent variable models Problem-solving approach assumes no prior knowledge of econometrics emphasising intuition rather than formulae, giving students the skills and confidence to estimate and interpret models Detailed examples and case studies from finance show students how techniques are applied in real research Sample instructions and output from the popular computer package EViews enable students to implement models themselves and understand how to interpret results Gives advice on planning and executing a project in empirical finance, preparing students for using econometrics in practice Covers important modern topics such as time-series forecasting, volatility modelling, switching models and simulation methods Thoroughly class-tested in leading finance schools Chris Brooks is Professor of Finance at the ICMA Centre, University of Reading, UK, where he also obtained his PhD. He has published over sixty articles in leading academic and practitioner journals including ...

Words: 195008 - Pages: 781

Free Essay

The Thief of Time

...The Thief of Time The Thief of Time Philosophical Essays on Procrastination Edited by Chrisoula Andreou Mark D. White 2010 Oxford University Press, Inc., publishes works that further Oxford University’s objective of excellence in research, scholarship, and education. Oxford New York Auckland Cape Town Dar es Salaam Hong Kong Karachi Kuala Lumpur Madrid Melbourne Mexico City Nairobi New Delhi Shanghai Taipei Toronto With offices in Argentina Austria Brazil Chile Czech Republic France Greece Guatemala Hungary Italy Japan Poland Portugal Singapore South Korea Switzerland Thailand Turkey Ukraine Vietnam Copyright © 2010 by Oxford University Press, Inc. Published by Oxford University Press, Inc. 198 Madison Avenue, New York, NY 10016 www.oup.com Oxford is a registered trademark of Oxford University Press All rights reserved. No part of this publication may be reproduced, stored in a retrieval system, or transmitted, in any form or by any means, electronic, mechanical, photocopying, recording, or otherwise, without the prior permission of Oxford University Press. Library of Congress Cataloging-in-Publication Data The thief of time: philosophical essays on procrastination / edited by Chrisoula Andreou and Mark D. White. p. cm. Includes bibliographical references and index. ISBN 978-0-19-537668-5 (hardback: alk. paper) 1. Procrastination. I. Andreou, Chrisoula. II. White, Mark D., 1971– BF637.P76T45 2010 128'.4—dc22 2009021750 987654321 Printed in the United States of...

Words: 125542 - Pages: 503