La teoría de la información, también conocida como teoría matemática de la comunicación o teoría matemática de la información, es una propuesta teórica presentada por Claude E. Shannon y Warren Weaver a finales de la década de los años 1940. Esta teoría está relacionada con las leyes matemáticas que rigen la transmisión y el procesamiento de la información y se ocupa de la medición de la información y de la representación de la misma, así como también de la capacidad de los sistemas de comunicación para transmitir y procesar información.
“(Shannon) entiende la comunicación como un proceso de transferencia de información (…) proporcionó nuevas dimensiones de la construcción de un modelo de comunicación humana, aunque era básicamente un modelo físico de las comunicaciones radiales y telefónicas. Desde entonces en el vocabulario de la comunicación aparecieron conceptos como entropía, redundancia, bit, capacidad del canal, ruido y feed back”.
El modelo propuesto por Shannon es un sistema general
de la comunicación que parte de una fuente de información
desde la cual, a través de un transmisor, se emite
una señal, la cual viaja por un canal, pero a lo largo de su
viaje puede ser interferida por algún ruido. La señal sale
del canal, llega a un receptor que decodifica la información
convirtiéndola posteriormente en mensaje que pasa
a un destinatario. Con el modelo de la teoría de la información
se trata de llegar a determinar la forma más
económica, rápida y segura de codificar un mensaje, sin
que la presencia de algún ruido complique su transmisión.
Para esto, el destinatario debe comprender la señal correctamente;
el problema es que aunque exista un mismo
código de por medio, esto no significa que el destinatario
va a captar el significado que el emisor le quiso dar al
mensaje. La codificación puede referirse tanto a la transformación
de voz o imagen en señales eléctricas o electromagnéticas,
como al cifrado de mensajes para asegurar
su privacidad. Un concepto fundamental en la teoría de
la información es que la cantidad de información contenida
en un mensaje es un valor matemático bien definido y
medible. El término cantidad no se refiere a la cuantía de
datos, sino a la probabilidad de que un mensaje, dentro
de un conjunto de mensajes posibles, sea recibido.
Claude Elwood Shannon
Claude Elwood Shannon (30 de abril de 1916-24 de febrero de 2001) fue un matemático, ingeniero eléctrico y criptógrafo estadounidense recordado como «el padre de la teoría de la información».
Shannon es reconocido por haber fundado el campo de la teoría de la información con la publicación Una teoría matemática de la comunicación, que supuso un hito en 1948. Es quizás igualmente conocido por haber sentado las bases de la teoría del diseño del ordenador digital y el circuito digital en 1937. Con 21 años, mientras realizaba su maestría en el Massachusetts Institute of Technology (MIT), demostró con su tesis, que las aplicaciones electrónicas de álgebra booleana podrían construir cualquier relación lógico-numérica.3 Shannon contribuyó asimismo al campo del criptoanálisis para la defensa de Estados Unidos durante la Segunda Guerra Mundial, con trabajos sobre el descifrado de códigos y la seguridad en las telecomunicaciones.
¡Para más información, conoce estas fuentes!
2. Islas, O. Modelos de la comunicación
3. Biografía Claude Elwood Shannon
Sopa de letras de Aristóteles y Shannon
No hay comentarios:
Publicar un comentario