Tugurium/GTI

Glosario Terminología Informática

entropy

0 entropía
Medida de la cantidad de información contenida en un mensaje evaluado en terminos de incertidumbre. Fué definida por Shannon en 1948 y recibe este nombre por analogía con la entropía de termodinámica.
Puede definirse como el número mínimo de bits necesarios para codificar todos los significados posibles del mensaje.
1996-12-26
1916 abril 30
Nace Claude Elwood Shannon, en Gaylord, Michigan, USA. Sentó las bases de la teoría de la información, proponiendo la analogía entre información y entropía con el fin de obtener una medida cuantitativa de la cantidad de información contenida en un mensaje.