miércoles, 21 de noviembre de 2012

Un aspecto de la entropía en la información del ciudadano

Escucha este texto

En estos días de Internet, Twitter y Facebook la mayoría de las personas buscan información en la red de redes. Es común decir que si no está en Internet no existe, es más, se dice que estamos en la sociedad de la información, que estamos inundados de información y que es difícil procesar toda esa información, pero ¿qué es información? y ¿cómo se puede medir la cantidad de información? Las respuestas a estas preguntas darán un mayor sentido a las afirmaciones previas y podrán ayudarnos a entender algunos procesos sociales importantes. Para aclarar estas preguntas analicemos algunas frases comunes que dan información: a) Al lanzar la moneda al aire salió sol, b) Morelos tiene una Secretaría de Innovación, Ciencia y Tecnología, c) El tránsito en el libramiento de la ciudad está lento, d) La mayor inversión en el estado será para la educación.
Bajo el esquema más simple para determinar la cantidad de información las primeras dos afirmaciones tienen solamente dos posibles respuestas: la primera (a) águila o sol, y la segunda (b) Morelos tiene o no tiene una Secretaría de Ciencia y Tecnología; la tercera afirmación (c) puede tener tres respuestas importantes: libre, lento, bloqueado; mientras que la última (d) puede tener una diversidad de posibilidades, por ejemplo: cultura, desarrollo social, seguridad, apoyo a empresas, medio ambiente y muchas otras más. Es decir, para transmitir la información en el último caso (d) se seleccionó una opción de un conjunto muy amplio de diferentes rubros. Con esto quiero ilustrar que desde el punto de vista de un sistema de comunicación, la información a transmitir se caracteriza, ante todo, por la posible cantidad de variantes del mensaje. En resumen, la cantidad de información que caracteriza un mensaje se puede determinar por el número de mensajes posibles, pero no depende del contenido semántico del mensaje. Esto último parece contraintuitivo, sin embargo si analizamos el punto con cuidado veremos que al usar el número de mensajes posibles y la probabilidad de que sea anunciado el mensaje específicamente conforma una representación cuantificable y simple de la información en un mensaje. Ésta es la idea central en la teoría de la información de Claude Shannon. En esta teoría Shannon definió una cantidad que indica qué tan certera es la información y esto depende de cuántas posibles alternativas descarta el mensaje enviado. Así, las primeras tres afirmaciones descartan pocas alternativas en el mensaje, en cambio la última selecciona una de entre muchas otras opciones, es así, como podemos decir que la última frase tiene mayor información que las primeras, ya que el mensaje disminuye ampliamente la incertidumbre del conjunto de opciones. De hecho Shannon propuso que la medida de la información se cuantificara como el producto de la probabilidad p de tener un mensaje de entre muchos por el logaritmo de esta probabilidad, a esta fórmula se le llama la entropía de Shannon o la entropía informática y se parece a la fórmula de Boltzmann para la entropía S=-p log(p).
En estos días de redes sociales hemos visto como las Secretarías del gobierno morelense han abierto cuentas en Twitter para informar y con ello dar a conocer aspectos de las actividades que hacen, contribuyendo a disminuir la entropía informática en el entorno. Esta acción es muy importante para conocer lo que se está haciendo. Sin embargo, las páginas en Internet de estas secretarías no existen o muestran información del sexenio pasado. Esta ausencia de páginas en Internet provoca ansiedad en la sociedad que quiere saber de las acciones, planes, organigrama, encargados de las diferentes oficinas, entre otras cosas, para continuar colaborando. Claramente, una de las virtudes de la campaña de Graco Ramírez para convencer a los ciudadanos de votar por él es que convocó a un gran número de personas para conformar la Nueva Visión. Pero la ausencia de estas páginas se convierte en desventaja, ya que no hay una forma rápida de acceso a la información que, aunque fue emitida con oportunidad, no se mantiene al alcance de las personas. Por ejemplo, no es fácil obtener los datos de las personas que han sido designadas como encargadas de las diferentes oficinas de gobierno. Entonces, al no definirse esta información, dado el gran número de posibilidades se encuentra una entropía grande y no da certezas en la sociedad.
Estoy seguro que están trabajando en la conformación de las páginas de todas las oficinas de gobierno, pero sirva esta misiva para señalar que en la actual sociedad de la información las vías de comunicación requieren prioridad.
Este artículo fue publicado el día 21 de Noviembre

2 comentarios:

  1. Para conocer la probabilidad 'p' habría que conocer el numero de posibles respuestas, no? Que pasa cuando no hay información?

    Para la pregunta ¿quien será el encargado de la oficina A? Para calcular la probabilidad 'p' tendríamos que saber el numero de posibles candidatos a ocupar el puesto, no? De otra forma, tendríamos un numero de posibles respuestas arbitrariamente grande y una entropía arbitrariamente grande también, no?

    ResponderEliminar
  2. Si. Al tener una gran cantidad de posibles respuestas la entropía es grande. Sin embargo, la información, el conocimiento y los experimentos disminuyen la entropía.

    ResponderEliminar

Tu comentario se publicará a la brevedad posible.