entropy
Puede definirse como el número mínimo de bits necesarios para codificar todos los significados posibles del mensaje.
- communication theoryteoría de la comunicación
- information theoryteoría de la información
- Shannon, Claude ElwoodEstados Unidos, 1916 - 2001
- uncertaintyincertidumbre
- 1916 abril 30
- Nace Claude Elwood Shannon, en Gaylord, Michigan, USA. Sentó las bases de la teoría de la información, proponiendo la analogía entre información y entropía con el fin de obtener una medida cuantitativa de la cantidad de información contenida en un mensaje.