Ando un poco escaso de tiempo, pero acabo de leer este artículo que a lo mejor os interesa.
Dejo el link aquí
Y el link al paper aquí
Y ahora resumo un poco:
El tema es que hasta ahora se utilizaba la entropía de Shannon para mirar la efectividad de un sistema criptográfico. Resumiendo y siendo muy poco riguroso, se observaba que en un caso promedio el sistema criptográfico funcionaba bien. Siendo un caso promedio ese en el cual los carácteres estaban distribuidos "uniformemente". Esto es muy útil en comunicaciones y compresión porque al fin y al cabo vas a tener muchos datos comunicandose o comprimiendose y se parecerán bastante a un caso promedio al cabo del tiempo.
Pero en criptografía no te interesa que en general haya una buena seguridad, sino que en el peor caso haya una buena seguridad. Es decir, si se utilizan definiciones de información y entropía que tengan más en cuenta los casos "poco probables" (peor caso, es decir que el atacante descubra una correlación entre el mensaje encriptado y sin encriptar que le sea útil por ejemplo), cambian todas estas nociones de seguridad.
No sólo eso sino que con estos "peores casos", el hecho de alejarse aunque sea un poco de una distribución uniforme (utilizar con más probabilidad ciertas letras que otras, que sea más probable cierto tipo de ruido que otro, por ejemplo), hace bajar mucho la seguridad de estos sistemas si no se mira con la entropía de Shannon.
El artículo acaba comentando que no convierte en totalmente inseguros los sistemas actuales, pero reduce drásticamente su complejidad (siguen siendo exponenciales). Lo chuli es que hay nuevas técnicas para analizar estos sistemas y nos permitirá entender un poco mejor qué significa seguridad :-)
Espero que os interese, si queréis alguna explicación más detallada de la entropía de Shannon y otros tipos de entropía y su relación con la información, intentaré responder lo mejor que pueda.
Saludos,