A Medida de Informação de Shannon: Entropia

Logo após Claude E. Shannon, em 1948, ter publicado o artigo A Mathematical Theory of Communication, diversas áreas se valeram de seus escritos, principalmente por ele ter desenvolvido uma fórmula para “medir informação” em seu modelo matemático de comunicação, denominando-a entropia. Shannon optou...

Descripción completa

Guardado en:
Detalles Bibliográficos
Autores principales: José Carlos Magossi, Pedro Henrique Camargo de Abreu, Antônio César da Costa Barros, José Renato Paviotti
Formato: article
Lenguaje:EN
ES
PT
Publicado: Sociedade Brasileira de História da Matemáticas (SBHMat) 2021
Materias:
Acceso en línea:https://doaj.org/article/57307d9b95d44dc2948fcf0d4444a28e
Etiquetas: Agregar Etiqueta
Sin Etiquetas, Sea el primero en etiquetar este registro!
Descripción
Sumario:Logo após Claude E. Shannon, em 1948, ter publicado o artigo A Mathematical Theory of Communication, diversas áreas se valeram de seus escritos, principalmente por ele ter desenvolvido uma fórmula para “medir informação” em seu modelo matemático de comunicação, denominando-a entropia. Shannon optou pela justificativa operacional da existência de sua fórmula de entropia. Por conseguinte, houve uma expansão das áreas de investigações matemáticas sobre as possíveis caracterizações de medidas de informação. Neste texto o objetivo é focar nas estruturas matemáticas que fundamentam o conceito de medidas de informação. Estima-se com isso, no sentido didático, que haja esclarecimentos com relação às múltiplas leituras do conceito de entropia.