transinformation
Смотреть что такое "transinformation" в других словарях:
Transinformation — oder gegenseitige Information ist eine Größe aus der Informationstheorie, die die Stärke des statistischen Zusammenhangs zweier Zufallsgrößen angibt. Die Transinformation wird auch als Synentropie bezeichnet. Im Gegensatz zur Synentropie einer… … Deutsch Wikipedia
Gegenseitige Information — Transinformation oder gegenseitige Information ist eine Größe aus der Informationstheorie, die die Stärke des statistischen Zusammenhangs zweier Zufallsgrößen angibt. Die Transinformation wird auch als Synentropie bezeichnet. Im Gegensatz zur… … Deutsch Wikipedia
Mutual Information — Transinformation oder gegenseitige Information ist eine Größe aus der Informationstheorie, die die Stärke des statistischen Zusammenhangs zweier Zufallsgrößen angibt. Die Transinformation wird auch als Synentropie bezeichnet. Im Gegensatz zur… … Deutsch Wikipedia
Registrierung (Bildverarbeitung) — PET/CT: links CT, Mitte PET, rechts Resultat einer Registrierung Bildregistrierung ist ein wichtiger Prozess in der digitalen Bildverarbeitung und wird dazu benutzt, zwei oder mehrere Bilder derselben Szene, oder zumindest ähnlicher Szenen,… … Deutsch Wikipedia
INFORMATION (THÉORIE DE L’) — La théorie de l’information ou, de façon plus précise, la théorie statistique de la communication, est l’aboutissement des travaux d’un grand nombre de chercheurs (H. Nyquist, R.W.L. Hartley, D. Gabor...) sur l’utilisation optimale des moyens de… … Encyclopédie Universelle
Partialkorrelation — Der Korrelationskoeffizient (auch: Korrelationswert) oder die Produkt Moment Korrelation (von Bravais und Pearson, daher auch Pearson Korrelation genannt) ist ein dimensionsloses Maß für den Grad des linearen Zusammenhangs (Zusammenhangsmaße)… … Deutsch Wikipedia
Pearson-Koeffizient — Der Korrelationskoeffizient (auch: Korrelationswert) oder die Produkt Moment Korrelation (von Bravais und Pearson, daher auch Pearson Korrelation genannt) ist ein dimensionsloses Maß für den Grad des linearen Zusammenhangs (Zusammenhangsmaße)… … Deutsch Wikipedia
Pearson-Korrelationskoeffizient — Der Korrelationskoeffizient (auch: Korrelationswert) oder die Produkt Moment Korrelation (von Bravais und Pearson, daher auch Pearson Korrelation genannt) ist ein dimensionsloses Maß für den Grad des linearen Zusammenhangs (Zusammenhangsmaße)… … Deutsch Wikipedia
Überraschungswert — Der Begriff der Information, wie er in der Informationstheorie nach Shannon[1] verwendet wird, ist streng von dem gewöhnlichen Gebrauch dieses Begriffes zu unterscheiden. Insbesondere darf darin die Information nicht mit dem Begriff der Bedeutung … Deutsch Wikipedia
Quantities of information — A simple information diagram illustrating the relationships among some of Shannon s basic quantities of information. The mathematical theory of information is based on probability theory and statistics, and measures information with several… … Wikipedia
Bedingte Entropie — In der Informationstheorie ist die bedingte Entropie ein Maß für die „Ungewissheit“ über den Wert einer Zufallsvariablen X, welche verbleibt, nachdem das Ergebnis einer anderen Zufallsvariable Y bekannt wird. Die bedingte Entropie wird H(X | Y)… … Deutsch Wikipedia