Claude Shannon, el padre del bit y la teoría de la información

00:00:00

28/09/2016

Claude Shannon, el padre del bit y la teoría de la información

Claude Shannon, el padre del bit y la teoría de la información

Marco Gonsen | Editor

Editor General de Excélsior. Autor de la columna Memoria Flash sobre cultura digital. Con más de 20 años de experiencia en la industria periodística...

Una de las más famosas anécdotas de Jorge Luis Borges es relatada por su biógrafa, Alicia Jurado, quien cuenta la respuesta que dio a una persona que lamentó que la madre del escritor argentino muriera a los 99 años, sin alcanzar el siglo de vida. Borges simplemente le espetó: “Usted exagera los encantos del sistema decimal”.

Y si bien gran parte de la humanidad comparte la fascinación por la contabilidad basada en el número de dedos, 10, hubo quienes creyeron que bastaban justo los dígitos uno y cero para explicar los fundamentos de la vida (y facilitarla, de paso). De uno de ellos, el matemático inglés George Boole, se celebró el bicentenario el pasado 2 de noviembre; su seguidor más notable, el científico estadunidense Claude Elwood Shannon, cumpliría 100 años el próximo sábado.

Nacido en Michigan el 30 de abril de 1916, Shannon se tituló tres décadas después como ingeniero en la universidad de ese estado. Ahí conoció y estudió el álgebra de Boole, el cual establecía una forma de expresar proposiciones lógicas en forma de ecuaciones. Según este principio, había dos tipos de enunciados: verdaderos, que tenían como valor la cifra “1”, y “falsos”, a los que Boole asignó el “0”. Las operaciones básicas entre ambas son la suma (que gramaticalmente equivale a la conjunción “o”) y la multiplicación (representada por la conjunción “y”).

Por ejemplo: la oración “todos los ciudadanos con derecho a voto son mayores de 18 años” es verdadera y su valor es “1”; la proposición “todos los ciudadanos con derecho a voto están debidamente empadronados” es falsa y vale “0”. Al sumarlas se dirá “todos los ciudadanos con derecho a voto son mayores de 18 años o están debidamente empadronados”, que es verdad y valdrá “1”. Por el contrario, al multiplicarlas se dirá “todos los ciudadanos con derecho a voto son mayores de 18 años y están debidamente empadronados”, lo cual es falso y, por tanto, vale “0”.

Mientras trabajaba en los Laboratorios Bell, que patrocinaba la telefónica AT&T, Shannon ideó un sistema de circuitos eléctricos que emulaban la lógica binaria de los enunciados de Boole, y en el cual los interruptores de energía funcionaban con los valores “encendido” (1) y “apagado” (0). Así, si dos interruptores en serie están conectados por una “o”, basta con que sólo uno de ellos esté encendido para que la electricidad fluya sin dificultad. Pero, si están conectados por una “y”, será suficiente que uno de ellos esté apagado para anular el circuito.

El detalle de esta operación –básica hoy para el mundo digital– está descrito por Shannon en su tesis A symbolic analysis of relay and switching circuits, publicada en 1938, una década antes de difundir el ensayo por el cual también debieran recordarlo los licenciados en comunicación que cursaron parte de esa ciencia mientras pretendían aprender periodismo.

En su artículo A mathematical theory of communication (1948), Shannon equiparó la transmisión de datos al circuito eléctrico que él mismo había desarrollado, basado en unos y ceros.

Para ello recurrió a la palabra “bit” –acuñada por su colega John Wilder Tukey y que es la contracción de “binary digit”– y la designó como unidad de información. En ese contexto desarrolló el diagrama clásico mediante el cual un mensaje parte de una fuente emisora por medio de un transmisor que lo codifica y lo envía por un canal; la señal al final es captada por un receptor o destino, con la posibilidad de que en el camino haya ruidos que interfieran con el flujo.

Como bien apunta Alfonso Monsalve en su libro Teoría de la Información y Comunicación Social (Abya-Yala, Quito, 2003), de esta forma Shannon también contribuyó a la ciencia social, mérito que se suma a otras aportaciones en criptografía e inteligencia artificial. Fallecido el 24 de febrero de 2001 tras una larga batalla contra el Alzheimer, el MIT lo recuerda incluso por haber inventado un aparato capaz de resolver el cubo de Rubik.

Aunque lo suyo no fue el sistema decimal, Shannon está siendo recordado en el centenario de su natalicio gracias a una serie de congresos, conferencias y exhibiciones en varios países, impulsadas por el Institute of Electrical and Electronics Engineers (IEEE), que comenzaron en septiembre de 2015 y se extenderán a noviembre próximo. Prueba irrefutable de que la lógica binaria también tiene su encanto.

COMPARTE TU OPINIÓN