L'entropie d'un langage reconnu par automate fini est la quantité d'information par symbole d'un mot typique du langage, par exemple le langage de mots sur l'alphabet $\{ a,b \}$ qui ne contiennent pas deux $a$ consécutifs a une entropie de $\log (\phi)$ ou $\phi$ est le nombre d'or. La théorie des automates temporisés est bien plus jeune que celle des automate fini et le concept d'entropie d'un langage régulier temporisé (i.e reconnu par un automate temporisé) est un concept que mes collègues Eugène Asarin et Aldric Degorre n'ont définit que deux ou trois ans avant que je les rejoigne sur le sujet. Je présenterai donc à l'aide d'exemple l'entropie des automates et l'entropie des automates temporisés.