La noción de Entropía remite a la termodinámica y a la mecánica estadística pero, tras el éxito conocido por la Teoría matemática de la comunicación, de C. Shannon (1948), —cuyos instrumentos de cálculo arrancan de las operaciones formales empleadas en la mecánica estadística— la similaridad operativa para medir los intercambios energéticos y las transmisiones de mensajes, confluyó a unificar en un mismo modelo el estudio del cambio en la naturaleza y en la sociedad. El articulo de Shannon A mathematical Theory of communication, publicado por primera vez en 1948, representa, como se ha dicho, un aprovechamiento de instrumentos matemáticos ya utilizados en la termodinámica y en la mecánica estadística. Tanto en uno como en otro campo de la física, el objeto material de estudio es el intercambio de energía entre estados energéticamente diferenciados (condición indispensable para el intercambio energético). Para la termodinámica, este intercambio representa la posibilidad de aprovechar como «fuerza» la energía calórica que, pasando de una fuente caliente, energiza otra «fría» por el intercambio. Para la mecánica estadística, sin embargo, el objeto formal es el cálculo de la probabilidad de un proceso termodinámico, a partir de la «comparación» entre los estados energéticos previos a un intercambio, cálculo que recibió una fórmula definitiva en 1894 por obra de Boltzmann; en efecto, en 1824, el físico francés Sadi Carnot, en su obra Réflexions sur la puissance motrice du feu et les machines propes à dévellopper cette puissance, propone el principio: «Una máquina térmica no puede funcionar sin el paso de calor de una fuente caliente a una fuente fría» principio que, en 1850, el físico alemán Claussius reformula diciendo: «El calor no puede pasar por sí mismo de un cuerpo frío a un cuerpo caliente», dando lugar a la noción que él mismo, en 1876, denomina entropía. Esta noción fue generalizada a finales de aquel mismo siglo por Ludwig Boltzmann, en cuya tumba, el año 1896, se escribió su fórmula S = k log w, mediante la cual la entropía (S) aparece proporcional al logaritmo de la probabilidad (w) del estado termodinámico de un gas, multiplicado por una constante (k), descubierta por él mismo y que es exactamente: 1,38 x l0-16 (CGS) En 1928, R.V.L. Hartley, ingeniero radiofónico de la Western Electric Company y, posteriormente, de la Bell American Thelephone and Telegraph Company (para la que trabajaría Shannon) aplicó por primera vez aquella formalización matemática a la transmisión de «impulsos» eléctricos con los que trabaja el telégrafo, con objeto de calcular la potencia de un medio de transmisión en función de su capacidad. Por otra parte, von Newmann (1932) se había ocupado ya del problema planteado por la mecánica estadística, aplicando sus bases formales a la mecánica cuántica. Y quien primero desplazó del campo de la física estos presupuestos teóricos para aplicarlos a un campo distinto, como el de la biología, fue N. Wienner. Este autor los aprovechó para aplicarlos al estudio de los fenómenos que ocurren en el sistema nervioso central de los animales.
Sin embargo, no deben confundirse las condiciones materiales de los intercambios energéticos con las condiciones formales en razón de las cuales se calcula la probabilidad de los intercambios, y que también son aplicables al cálculo de la cantidad de señales para intercambios reales ya conocidos. La confusión se origina en virtud de que los intercambios energéticos cuya cantidad previsible es calculable, pueden adquirir dos tipos de rendimientos diferentes, pero analizados con idéntico sistema operatorio. Estos dos rendimientos son el entrópico y el informativo. El rendimiento entrópico supone una noción de «energía», en los intercambios, definida mediante lo que se conoce como capacidad para efectuar un trabajo, capacidad que materialmente depende de cuáles sean los estados energéticos previos al intercambio. El rendimiento informativo supone una noción diferente de «energía», de manera que los intercambios no remiten a un «trabajo», sino a la producción y reproducción de «señales» en dos diferentes puntos del universo material. La señal, desde el punto de vista físico, es cualquier modulación energética que se transmite en el espacio/tiempo y, si bien no puede haber modulaciones sin un tren de energía, lo que se calcula no es la capacidad de trabajo, sino la capacidad de modulaciones como efecto de un trabajo que se da por supuesto. Dicho de otra manera, el sentido entrópico remite al cálculo de la posibilidad misma de intercambios energéticos, dados los estados previos a ese intercambio, y lo que se calcula son cantidades «dinámicas» (térmicas, mecánicas, cuánticas, etc.); el sentido informativo remite al cálculo de la disponibilidad de un intercambio que se da por supuesto, para medir no una cantidad de «fuerza», sino una cantidad de «mensajes», constituidos y diferenciados por la secuencialidad de modulaciones energéticas —señales—, físicamente posibles. (Como más tarde apuntaré, la similaridad que operativamente se da entre cálculo entrópico y cálculo informativo hizo confundir operación, operador y contenido.)
Existe un precedente muy lejano, tan lejano como Ramón Llull, a quien los cibernéticos miran como su predecesor histórico más lejano, que con su Ars Magna es considerado el creador perdido de una ciencia general del intercambio (cfr. Martín Serrano, 1978, 191). Su Ars Magna es, según Delpech, el primer modelo dialéctico de la actividad mental. Según Martín Serrano, la cibernética moderna se ha constituido en un método general de estudio del cambio y la reproducción de sistemas informados y, por ello, al igual que hace Wienner, Chomsky, Barthes, Hjelmslev y Ashby, cita a Llull como el precursor de la cibernética. Desde Wienner es un hecho que, para los cibernéticos, los mismos principios explican la transmisión de datos y la transmisión de impulsos, razón por la cual se justifica la significación del término cibernética como «arte de la eficacia de la acción» (Couffignal, L., 1966).
Los presupuestos fundamentales para que cibernética y comunicación, cibernética e interacción humana se identifiquen, son los que se derivan de considerar a la cibernética como una ecología; así por ejemplo, la noción de ecología está implícita en la consideración de que entre un actor humano y su medio exterior o unwelt, el intercambio de mensajes es a la vez un efecto y una causa entre la acción y la reacción. Lo cual lleva a considerar el intercambio como una acción comunicativa constituida por el conjunto de actores que intervienen y el conjunto de factores espacio-temporales que la determinan; y en este sentido se supone una teleología, según la cual, el sistema así informado, siempre persigue un fin, que se traduce en un cambio del unwelt. Lo más grave es que, por esta vía, la cibernética se conforma como una axiología de la acción y la comunicación.
La cibernética como axiología es además una axiología del riesgo, como apunta Martín Serrano en la obra citada, de modo que el investigador debe elegir entre fines alternativos, medidos por niveles específicos de probabilidad. «El riesgo depende del carácter activo o pasivo del sistema cuyo comportamiento se espera controlar» (Martin Serrano, 1978). En la medida en que el método cibernético ubica sus análisis en el marco de cualquier posibilidad imaginable, su objeto de estudio hace de las comunicaciones entre los actores de un grupo, y entre el grupo y el medio natural y axiológico, un modelo de probabilidad más que un sistema de alternativas; sobre este modelo se ubica después una utopía: la previsión y el control pueden efectuarse en función de que a éstos se les asigne un proyecto humano. En la teoría de la información, la unidad de decisión y de inteligibilidad es la misma, vía por la cual inteligibilidad y previsión resultan equivalentes. Con ello, se acaba estudiando con el mismo método, problemas referidos ya sea a la teoría, ya sea a la práctica. «El estudio de los modelos de control social, de la predicción sobre el comportamiento de los sistemas sociales, de la inteligibilidad de las organizaciones y del determinismo de los procesos, son unificables como análisis de la información del sistema» (Martín Serrano, M. 1978, 203-4). La clave, pues, de la teoría informacional de la sociedad, hace que resulte comprensible la aspiración de la antropología estructural de Lévi-Strauss a convertirse en una entropología, desde el momento en que la medida de la complejidad en los intercambios, ya sea de palabras, mujeres o bienes, resulte descubierta por un mismo mecanismo matemático. Pero, sobre todo, algunos dilemas clásicos de las ciencias humanas, como los de predicción científica y libertad, revolución y participación, resultan replanteados de un modo teórico, que los hace compatibles. Así, por ejemplo, siguiendo el comentario efectuado por Martín Serrano (1978, 206-207). como corolario a la formulación informacional (I = N – log2 h) ocurre que si alguna vez el objeto de la sociología se convierte en un sistema totalmente indeterminado (el valor de N para los grados de libertad del sistema es muy pequeño) desaparecería la sociología como ciencia de la predicción: ésta resultaría demasiado conocida; inversamente, si los grados de libertad son relativamente infinitos, la sociología como instrumento de predicción sería absolutamente imposible, razón por la cual la clave informacional de la sociedad reclama que al mismo tiempo el objeto social carezca, y no carezca, de libertad real para transgredir o cambiar sus normas: dialéctica entre información y redundancia
Como ha podido observarse, desde Wienner en las ciencias biológicas, y desde Shannon en las ciencias físicas, complejidad, forma u orden se identifican con comunicación, con lo que indistintamente teoría de la información o teoría de la comunicación terminan representándose epistemológicamente en el trabajo científico como el paradigma universal, mediante el cual se borran las fronteras entre ciencias de la naturaleza y ciencias de la cultura, entre ciencias naturales y ciencias sociales. El intento es considerar a la teoría de la información-comunicación una nueva Epistemología en sí misma, lo que no podía sino satisfacer a los teóricos de las ciencias humanas cuyo complejo de inferioridad respecto al desarrollo de las ciencias físicas es tan antiguo.
La perspectiva abierta por el descubrimiento de la noción de «información», opuesta al de «entropía energética» engarza y consolida los conflictos teóricos históricamente originados por las distinciones entre operador, operación y contenido.
Esta tradición de pensamiento hace que, según Carnap (1964), todas las ciencias posean un método común: identificar las operaciones mediante las cuales el operador humano organiza los grupos de operaciones que realiza con las colecciones de objetos o de actos para la comunicación, ya sea cotidiana o científica. Mientras que el objeto propio de cada ciencia es el estudio de los objetos a los que se aplican estas operaciones; si los objetos son los símbolos, se trata de ciencias deductivas, lógico-matemáticas; si los objetos son significados, se trata de ciencias lingüísticas o semióticas; si los objetos son afectos, emociones, actitudes, se trata de psicología; si los objetos son normas, valores, etc., se trata de sociología. La teoría general de sistemas, y la teoría de la información, acaban constituyéndose por esta vía en la teoría del conocimiento científico. A este carro se suben entusiasmados muchos, o la gran parte, de los que en las ciencias humanas se denominan a sí mismos teóricos de la comunicación.