Le modèle de communication de Shannon Weaver a été créé en 1948 lorsque Claude Elwood Shannon a écrit un article «une théorie mathématique de la communication» dans le journal technique du système Bell avec Warren Weaver. Le livre co-écrit avec Warren Weaver, la théorie mathématique de la communication, réimprime l`article 1948 de Shannon et la popularisation de Weaver, qui est accessible au non-spécialiste. En bref, Weaver a réimprimé le papier en deux parties de Shannon, écrit une introduction de 28 pages pour un livre de feuilles de 144, et a changé le titre de «une théorie mathématique… à “la théorie mathématique…”. Les concepts de Shannon ont également été popularisés, sous réserve de sa propre relecture, dans les symboles, les signaux et le bruit de John Robinson Pierce, une introduction populaire pour les non-spécialistes. [6] selon la théorie, la transmission du message impliquait l`envoi d`informations par le biais de signaux électroniques. “Information” dans le sens de la théorie de l`information du mot, ne doit pas être confondu avec “information” que nous comprenons couramment. Selon Shannon et Weaver, l`information est définie comme «une mesure de la liberté de choix lorsqu`on choisit un message». Dans la théorie de l`information, l`information et l`incertitude sont étroitement liées.

L`information se rapporte au degré d`incertitude présent dans une situation. Plus l`incertitude supprimée par un message est importante, plus la corrélation entre l`entrée et la sortie d`un canal de communication est forte, plus les instructions particulières sont détaillées, plus les informations sont transmises. L`incertitude concerne également le concept de prévisibilité. Quand quelque chose est complètement prévisible, il est tout à fait certain. Par conséquent, il contient très peu, le cas échéant, des informations. Un terme connexe, l`entropie, est également important dans la théorie de l`information. L`entropie fait référence au degré de randomité, d`absence d`organisation ou de désordre dans une situation. La théorie de l`information mesure les quantités de toutes sortes d`informations en termes de bits (chiffre binaire). La redondance est un autre concept qui a émergé de la théorie de l`information à la communication. La redondance est le contraire de l`information.

Quelque chose qui est redondant ajoute peu, le cas échéant, des informations à un message. La redondance est importante car elle aide à combattre le bruit dans un système communica-

By | 2019-02-18T23:00:48+00:00 februari 18th, 2019|Geen categorie|