élément de chaîne

  • 1Chaine de desintegration — Chaîne de désintégration Une chaîne de désintégration, ou chaîne radioactive, ou désintégration en cascade, ou encore filiation radioactive, désigne une série de désintégrations, apparaissant par transformation spontanée d un radioisotope… …

    Wikipédia en Français

  • 2Chaîne De Désintégration — Une chaîne de désintégration, ou chaîne radioactive, ou désintégration en cascade, ou encore filiation radioactive, désigne une série de désintégrations, apparaissant par transformation spontanée d un radioisotope instable, permettant d arriver à …

    Wikipédia en Français

  • 3Chaîne radioactive — Chaîne de désintégration Une chaîne de désintégration, ou chaîne radioactive, ou désintégration en cascade, ou encore filiation radioactive, désigne une série de désintégrations, apparaissant par transformation spontanée d un radioisotope… …

    Wikipédia en Français

  • 4chaîne — [ ʃɛn ] n. f. • chaeine v. 1080; lat. catena I ♦ Suite d anneaux entrelacés (⇒ chaînon, 1. maille, maillon). A ♦ 1 ♦ Dispositif formé d anneaux entrelacés servant à orner. ⇒ chaînette, gourmette. Chaîne et médaille offertes au baptême. Chaîne d… …

    Encyclopédie Universelle

  • 5chaîné — chaîne [ ʃɛn ] n. f. • chaeine v. 1080; lat. catena I ♦ Suite d anneaux entrelacés (⇒ chaînon, 1. maille, maillon). A ♦ 1 ♦ Dispositif formé d anneaux entrelacés servant à orner. ⇒ chaînette, gourmette. Chaîne et médaille offertes au baptême.… …

    Encyclopédie Universelle

  • 6Chaine De Markov — Chaîne de Markov Selon les auteurs, une chaîne de Markov est de manière générale un processus de Markov à temps discret ou un processus de Markov à temps discret et à espace d états discret. En mathématiques, un processus de Markov est un… …

    Wikipédia en Français

  • 7Chaine de Markov — Chaîne de Markov Selon les auteurs, une chaîne de Markov est de manière générale un processus de Markov à temps discret ou un processus de Markov à temps discret et à espace d états discret. En mathématiques, un processus de Markov est un… …

    Wikipédia en Français

  • 8Chaine de markov — Chaîne de Markov Selon les auteurs, une chaîne de Markov est de manière générale un processus de Markov à temps discret ou un processus de Markov à temps discret et à espace d états discret. En mathématiques, un processus de Markov est un… …

    Wikipédia en Français

  • 9Chaîne De Markov — Selon les auteurs, une chaîne de Markov est de manière générale un processus de Markov à temps discret ou un processus de Markov à temps discret et à espace d états discret. En mathématiques, un processus de Markov est un processus stochastique… …

    Wikipédia en Français

  • 10Chaîne de Markov à espace d'états discret — Chaîne de Markov Selon les auteurs, une chaîne de Markov est de manière générale un processus de Markov à temps discret ou un processus de Markov à temps discret et à espace d états discret. En mathématiques, un processus de Markov est un… …

    Wikipédia en Français