Vivimos en la era de la información, dicen, cierto es que, ante los avances tecnológicos sin precedentes de las ultimas décadas, quien no está informado, es porque no quiere. Quienes usamos twitter, por ejemplo, tenemos claro que nos encontramos ante una avalancha informativa y el fenómeno suma y sigue, pero si tomamos el termino desde una perspectiva mas científica, ¿es esta es una cuestión exclusiva de nuestra era, o de la humanidad o de los seres vivos en general? .
La información existe en todos los rincones del universo con algún atisbo de organización, desde el mismo momento del big bang, pero solo ahora nos hemos dado cuenta de ello y aprendido a medirla.
La revolución de las tecnologías de la información y la comunicación, no se puede concebir sin la teoría de la información, publicada en 1949 por Claude Shannon, ingeniero y matemático de los Laboratorios Bell, en nueva york, y Warren Weaver también matemático y por aquel entonces director de la división de ciencias naturales de la fundación Rockerfeller en la misma cuidad.
La teoría surge de la necesidad de transmitir datos de un modo eficaz, rápido y seguro, en un momento en el que los avances de las disciplinas como la cibernética, la informática o las telecomunicaciones iban a la par.
Shannon y Weaver desarrollaron una metodología que permite medir la cantidad de información contenida en cualquier mensaje . La información se convirtió en ese momento en magnitud física y como tal, gozaría de una unidad fundamental para medirla, el bit, que ofrece dos alternativas contrapuestas: uno-cero, si-no- verdadero-falso, presencia-ausencia, lleno-vacío, on- off

La informacion de un bit:

El bit es la unidad mas pequeña de información, algo que proporciona un bit de información, como un interruptor, se puede encontrar en dos estados complementarios: encendido o apagado

Dos interruptores proporcionan  dos bits y cuatro estados posibles

Un tercer bit duplica las posibilidades a ocho

El byte utilizado en informatica contiene 8 bits y contempla 256 estados. Para el almacenamiento, procesado y transmicion de datos en informatica, a cada uno de esos estados se le asigna un caracter (una letra, un numero, o un simbolo)

1 Byte= 8 bits = 256 estados (2⁸ )

Pero ¿que es la información?

La idea de información se basa en analizar cuan probable es un mensaje un cierto numero de alternativas. Veamos un ejemplo de como se puede medir la información de esta forma. Imaginemos que estamos jugando al ¨ahorcado¨. El jugador menos aventajado es al que le toca la primera letra. Esto es debido a que, al comienzo, el termino que hay que desvelar se baraja entre un amplio abanico que incluyen todas las palabras del diccionario que tengan el mismo numero de letras. pero con cada letra que se acierta, los jugadores tienen algo mas de información sobre la cual basar su próxima jugada, por lo tanto existe mas probabilidad de dar con el termino ¨escondido¨, ya que hay menos posibilidades para elegir. Así la información ayuda a reducir la incertidumbre y a tomar decisiones ; proporciona conocimientos del presente para actuar en el futuro.
Científicos de diferentes disciplinas, como las neurociencias, la lógica, la lingüística o la biología molecular han trasladado la teoría a sus respectivas áreas de estudio. Una de las claves del éxito del método reside en su simplicidad, puesto que el calculo de la información se reduce a un problema de probabilidades no muy complicado. La información promedio de un mensaje se determina a partir de la probabilidad de que cada elemento que lo compone, sea elegido entre un conjunto de alternativas. Siguiendo con el ejemplo de ahorcado el mensaje seria la palabra que queremos encontrar, las letras los elementos que lo componen y el conjunto de alternativas posibles el abecedario. Pero lo que ha favorecido el uso de este modelo en otros ámbitos ha sido sobre todo, que permite estimar los bits de información de un mensaje con independencia de su significado, una libertad semántica con la que se ha dado rienda suelta al concepto de información para extrapolarlo a otros terrenos.

Todo lo que contiene orden contiene información

Cuantificar los bits que contiene cualquier cosa es factible. Tras su definición científica, la información ha sido interpretada como una medida de la complejidad de los sistemas físicos. Para el biólogo Tom Stonier, Autor de La información y la estructura interna del universo (Hacer, 1996), esta magnitud ¨estᨠintrínsecamente relacionada con la organización de un determinado sistema y se puede describir como la causa eficiente del estado de organización de este¨. Así, algo compuesto de elementos variopintos, con relaciones enrevesadas entre ellos, guarda mas información que un conjunto de cosas monótonas y simples.
Por ejemplo, en la década de los 60s, el ecologo Ramon Margalef uso el índice de Shannon-Weaver para estudiar la biodiversidad de los ecosistemas. Aquellos mas diversos , con numerosas especies representadas equitativamente, son los que contienen mayor cantidad de información. Para el ecologo ¨la información se expresa por un mecanismo y almacenar la información, significa incrementar la complejidad de este¨. Dicho de otra forma, los seres vivos y sus relaciones han ganado y almacenado información a medida que se han ido volviendo mas complejos a lo largo de los millones de años de evolución.

La información ayuda a reducir la incertidumbre y a tomar decisiones

El largo camino hacia lo sofisticado

El desarrollo de la computación tras la teoría de la información ha posibilitado a los ordenadores almacenar y procesar mas y mas bits en menos espacio. Seth Lloyd, investigador del Massachussets Institute of Technology (MIT) señala que ¨cada año y medio el tamaño los componentes informáticos se reduce a la mitad¨. El científico asegura que como resultado de este fenómeno, en los ordenadores actuales, los procesadores  pueden procesar cientos de miles de millones de bits por segundo, cantidad equiparable a la de nuestro cerebro.
Sin embargo, a pesar del ritmo frenético con que avanza la informática, la computación o las telecomunicaciones, los ingenieros aun no han logrado hacer que las maquinas gestionen los bits de un modo tan eficiente como lo hace la materia gris.
Lloyd señala que un ordenador se vuelve mas rápido en cuanto a capacidad de procesamiento, pero esto no se traduce en una mayor sofisticacion. Un animal sencillo como puede ser la babosa marina equipada con un cerebro de unos pocos millones de neuronas, es capaz de desempeñar todas las funciones complejas propias de su biología: se nutre , se reproduce, se desplaza, se defiende… Esta es la sofisticacion a la que se refiere el experto del MIT. En este sentido, apuesta que todavía faltan miles (o millones) de años para que los ordenadores procesen información de un modo tan sofisticado como lo hacen las neuronas. En cambio el cerebro animal es proceso evolutivo que ha durado un par de eones, durante los cuales el sistema se ha ido depurando, mientras que el cerebro de nuestras maquinas apenas cumple 60 años de mejoras.

La Vida es información

Y no solo el sistema nervioso procesa información en la naturaleza, todas las células cuentan también con sus microprocesadores. El ADN almacena información que la maquinaria celular se encarga de procesar e interpretar para fabricar proteínas, los componentes funcionales y estructurales de la célula . La vida se fundamenta en el ADN y por lo tanto, en el procesamiento de los bits almacenados en dicha molécula. Por lo tanto la evolución de los seres vivos encuentra su raíz en el hecho de que la información va cambiando, mutando, con el paso de las generaciones. Asimismo, las células comparten datos con el resto del organismo al cual pertenecen, los procesan y actúan según el tipo de estimulo que reciban del otro lado de su membrana.
El ADN, como cualquier otra molécula se compone de átomos que guardan una relación y un orden. Es por este motivo por el que contienen información. Pero es que incluso la historia se repite en los niveles de organización inferiores, puesto que los átomos están formados por piezas aun menores agrupadas también de acuerdo con un orden. En el mundo no vivo, moléculas, átomos y partículas subatomicas también almacenan y procesan información.
En realidad, hace unos 13.700 millones de años, tras aquella gran explosión, el primer rudimento de universo empezó ya a procesar información. La enorme densidad de las partículas y la colosal temperatura la que estas estaban sometidas en el momento del Big Bang provocaron un numero infinito de coaliciones, cada una de las cuales registraba bits de información en constante crecimiento, al mismo ritmo que la materia se fue creando y el orden se fue imponiendo. El universo donde vivimos no es mas que una gran computadora que registra y procesa información. ¨Billones de billones de billones de billones de billones de billones de bits de información¨ apunta Lloyd