L'entropie des langages temporisés régulier

Orateur: BASSET Nicolas
Localisation: Université Sorbonne Paris Nord, France
Type: Séminaire des doctorants
Site: UPEC
Salle: P3 036
Date de début: 18/01/2012 - 15:00
Date de fin: 18/01/2012 - 15:00

L'entropie d'un langage reconnu par automate fini est la quantité d'information par symbole d'un mot typique du langage, par exemple le langage de mots sur l'alphabet $\{ a,b \}$ qui ne contiennent pas deux $a$ consécutifs a une entropie de $\log (\phi)$ ou $\phi$ est le nombre d'or. La théorie des automates temporisés est bien plus jeune que celle des automate fini et le concept d'entropie d'un langage régulier temporisé (i.e reconnu par un automate temporisé) est un concept que mes collègues Eugène Asarin et Aldric Degorre n'ont définit que deux ou trois ans avant que je les rejoigne sur le sujet. Je présenterai donc à l'aide d'exemple l'entropie des automates et l'entropie des automates temporisés.