Universidad del Zulia (LUZ)
Revista Venezolana de Gerencia (RVG)
Año 30 No. 111, 2025, 1600-1612
Julio-Septiembre
ISSN 1315-9984 / e-ISSN 2477-9423
Como citar: Montoya, J. F., Garcés, L. F., y Giraldo, C. D. J. (2025). Gestión de la Información: la transformación de la entropía como efecto transformador de la realidad humana. Revista Venezolana de Gerencia, 30(111), 1600-1612. https://doi.org/10.52080/rvgluz.30.111.22
Gestión de la Información: la transformación de la entropía como efecto transformador de la realidad humana
Montoya Carvajal, Juan Fernando*
Garcés Giraldo, Luis Fernando**
Giraldo, Conrado de Jesús***
Resumen
Con esta reflexión se pretende explicar mediante argumentación lógica que la gestión de la información es un tipo de estructura disipativa. Este trabajo surge desde el concepto de entropía (segunda ley de la termodinámica) como cantidad que determina la irreversibilidad de un proceso y el concepto que explica la causa de la transformación natural, tendiendo a un incremento permanente en el universo, lo cual subyace en la degradación de los sistemas y la convergencia hacia el caos. La metodología empleada para analizar los sistemas de información como estructuras disipativas es analítico, explicando la transformación de estados en función de la entropía y la energía. Desde un análisis termodinámico se concluye que los sistemas de información son estructuras disipativas que se ordenan a partir de un agente externo que abastece de componentes de orden desnaturalizador de la entropía.
Palabras clave: entropía; estructura disipativa; gestión de la información.
Recibido: 04.02.25 Aceptado: 28.04.25
* Fundación universitaria CEIPA, Grupo de Investigación GECCOS E-mail: jfmonto0@gmail.com. ORCID: https://orcid.org/0000-0001-8476-4435.
* Escuela de Posgrado, Universidad Continental, Perú, Email: lgarces@continental.edu.pe ORCID: https://orcid.org/0000-0003-3286-8704. E-mail: lgarces@continental.edu.pe (Autor de correspondencia)
* Facultad de Filosofía, Universidad Pontificia Bolivariana, Colombia, conrado.giraldo@upb.edu.co ORCID: https://orcid.org/0000-0003-1885-9158
Information Management: the transformation of entropy as a transforming effect on human reality
Abstract
The aim of this reflection is to explain by means of logical argumentation that information management is a type of dissipative structure. This work arises from the concept of entropy (second law of thermodynamics) as a quantity that determines the irreversibility of a process and the concept that explains the cause of natural transformation, tending to a permanent increase in the universe, which underlies the degradation of systems and the convergence towards chaos. The methodology used to analyze information systems as dissipative structures is analytical, explaining the transformation of states as a function of entropy and energy. From a thermodynamic analysis it is concluded that information systems are dissipative structures that are ordered by an external agent that supplies components of entropy denaturing order.
Keywords: entropy; dissipative structure; information management.
1. Introducción
Los sistemas de información abordan gran parte de los procesos de comunicación en la actualidad, lo que lleva a que sea necesario el uso de herramientas precisas de transmisión de la información, gestándose una cultura del conocimiento y las formas sistemáticas de difusión. Esto es posible a través de las unidades de transferencia del conocimiento. Como concepto universal, la entropía es un concepto arraigado a los procesos naturales que ha evolucionado como parámetro a través de la teoría de la comunicación y en la teoría de la información.
El ser humano como efecto autopoiético se configuró a través del proceso evolutivo y ordenado, logrando construir formas paralelas a su complejidad inherente, tales como la estructuración de la información y la gestión del conocimiento (Maturana, 1999). La realidad biológica de lo humano y el conocimiento consolidado constituyen un sistema que excede las formas sociales y se expande como una configuración dinámica que evoluciona a través del tiempo (Potter, 2006).
De acuerdo con Prigogine (1993), existen sistemas que se ordenan a pesar de la tendencia natural a que la entropía del universo aumenta inexorablemente, siendo ejemplo de ello el ser humano, cuyas necesidades básicas han evolucionado junto con su naturaleza hasta conformar desde su ingenio la evolución tecnológica y la consolidación de la gestión de la información (Debbouche, 2021).
Los sistemas aislados tienden a incrementar su entropía hasta un valor máximo, logrando su desnaturalización, es decir, las estructuras disipativas o sistemas ordenados a través de los procesos cíclicos naturales que requieren de un entorno que suministre la capacidad de evolucionar y ordenarse. Es decir, las estructuras disipativas son sistemas abiertos, donde se transfieren a través de sus fronteras elementos de orden y capacidad de desarrollo configuracional (Sometband, 1999).
Lo humano se asocia con el concepto de estructura disipativa, requiriendo de la dilución de otros sistemas para evolucionar hasta lograr sus condiciones vitales óptimas. Como efecto de la interacción humana se gesta la información, incrementando su efecto a través del tiempo y transmitiéndose en formas propias de la comunicación entre sociedades (Prigogine, 1991). Como sistema derivado de la humanidad, la información en conjunto corresponde con la definición de estructura disipativa, ordenándose a partir de la contribución humana como gestor del proceso y desarrollo de métodos de orden, permitiendo consolidar el conocimiento como aporte significativo de la realidad humana (Rojas, 2011).
La gestión del conocimiento permite comprender la estructura disipativa en su conformación dinámica, siendo necesario para la expansión del conocimiento el aporte del entorno humano, es decir, que la evolución del conocimiento corresponde con la transformación de la estructura social a través del tiempo. Como estructura disipativa, el conocimiento requiere del aporte humano para su expansión y ordenamiento (Yoris, 2017).
Los sistemas de información requieren de un proceso transformador para lograr minimizar la entropía y evitar la dispersión de la información, siendo indispensable una metodología para configurar el orden de operación del sistema, para lo cual se hace necesaria una gestión que permita administrar componentes que se genera a través de la evolución del conocimiento (Vargas et al., 2019).
La gestión del conocimiento consolida una estructuración de la información, logrando ordenamiento funcional con el máximo de eficiencia, esto debido a la disminución de irreversibilidades o efectos entrópicos. En este trabajo se propone reflexionar en torno a la gestión del conocimiento como estructura disipativa, proponiendo un modelo de ordenamiento de la información para consolidar un sistema de información en una herramienta asociada a una unidad de transferencia de conocimiento.
Con este aporte se emplea el concepto de entropía en los sistemas de información, tomando como sistema un conjunto de información como estado inicial y evaluando las condiciones energéticas de transformación, buscando disminuir la entropía del sistema y, por ende, la optimización de la eficiencia del conjunto de información. Se hace necesaria una reflexión en torno a los sistemas de información que se transmiten a la sociedad, dado que es necesario contribuir al aporte humano, que el conocimiento sea una consideración sustancial ante el pensamiento y no necesariamente un aporte en función de una cohesión que se diluye por las tendencias de la comunicación social (Bauman, 1999).
2. Entropía y la gestión de la información
Con la segunda ley de la termodinámica se introdujo el concepto de entropía, el cual se constituyó como una medida de la degradación de la energía y su incremento, la dirección hacia donde se daban los procesos naturales (Valentim, 2022). La entropía como cantidad significó la medida macroscópica del “desorden”, dando certeza de que el universo tiende a un valor máximo de caos, esto debido a que la entropía, a diferencia de otras cantidades físicas, no es una cantidad conservativa, dado que se genera a través de la transformación de los sistemas que llevan a cabo procesos naturales (Lombardi, 1991). Como cantidad macroscópica, la entropía definida por Rudolf Clausius correspondía con una cantidad macroscópica, cuya naturaleza era abstracta y ajena a la lógica racional, pues el hecho de generarse no correspondía con la explicación de otros principios conservativos (Popović, 2017).
Por su parte, Ludwing Boltzmann, la entropía tomó una forma diferente, en la que se redefinía como una función estadística; por lo tanto, el incremento entrópico postulado en la segunda ley de la termodinámica se presentaba siempre hacia la acción más probable. A pesar de ser una teoría sólida, el trabajo de Boltzmann fue ampliamente debatido debido a la consideración de una variable estadística al interior de la definición de entropía, pero esto debido a la consideración de sistemas continuos en vez de sistemas discretos. Con la entropía vista como un operador estadístico, se hizo posible comprender los sistemas como conjuntos de ordenamiento atómico, cuya estructura de orden depende de las condiciones de energía configuracional (Ben Naim, 2011).
Con Boltzmann evoluciona el concepto de entropía al considerar efectos probables, lo cual permite considerar, en el caso de una distribución de eventos independientes entre sí, reestructurar la forma matemática hasta convertirse en una operación sobre la probabilidad del evento (Montoya et al., 2024).
El aporte de Claude Shannon consistió en tomar la entropía como operador de una distribución de probabilidad en un operador de probabilidad, logrando comprender los sistemas de información como evolución del concepto instituido en la segunda ley, con la diferencia de que ahora no corresponde con la medida de la degradación de la energía, sino la medición del índice de dispersión en un sistema de información (Ben-Nahim, 2020).
Mientras que Shannon, la entropía se consolida como un índice de dispersión de información, siendo posible cuantificar estadísticamente la eficiencia de un sistema en función del mínimo de entropía. Con la teoría de la información de Shannon, la segunda ley de la termodinámica ahora afirmaría que en un sistema aislado el índice de desinformación tiende a un máximo (Briggs, 1989).
Teniendo claro que los sistemas de información son conjuntos de datos creados a través de la historia de la humanidad, se concibe un conjunto de información que rodea la realidad humana, siempre expandiéndose entrópicamente, pero no necesariamente tendiendo a un caos, sino a una transformación ordenada y estructurada, definiendo categorías y clasificaciones funcionales, contribuyendo a la inferencia argumentativa y creando conocimiento. Con la estructuración del conocimiento, se puede pensar que la información total pensada como universo de datos realmente es un conjunto de subsistemas que evolucionan a través del tiempo, configurando estructuras de orden de información, lo cual en la naturaleza se define como estructuras disipativas (Alves, 2018).
El aporte de Prigogine propone sistemas abiertos que se ordenan a partir de otros sistemas a pesar del principio de incremento entrópico, denominándoles estructuras disipativas, las cuales evolucionan incrementando su complejidad y optimizando su eficiencia adaptativa al medio circundante (Sometband, 1999).
Desde la termodinámica, es posible pensar los sistemas de información como efectos entrópicos que se ordenan a partir de un entorno humano, actuando como estructura disipativa y evolucionando hasta consolidar la realidad informática de la era actual (Zen, 2022).
La explicación del incremento entrópico en el tiempo corresponde a la transformación de los componentes del sistema, debido a la manifestación de transferencia de energía mediante flujos debido a potenciales o fuerzas impulsoras fenomenológicas (Silvestrini, 1985). Cada potencial entre componentes induce un flujo por exceso o defecto de potencial, siendo este tipo de flujos de una naturaleza propia del fenómeno, estableciéndose con ello el principio fundamental de generación de entropía.
La transformación de los componentes o sistemas abiertos que conforman al conjunto o sistema total se asocia al no equilibrio, es decir, no existe un equilibrio porque cada componente evoluciona en el tiempo sin llegar a una expresión fija, lo cual subyace en la manifestación caótica de la interacción, manifestándose en una turbulencia sostenida por el conjunto de flujos a través del sistema. Desde la interpretación del fenómeno termodinámico, el sistema abierto ante la transferencia asociada a la transformación se parte de los principios de generación de entropía mediante la ecuación de Onsager, la cual evidencia la generación de entropía a partir de flujos generados por una fuerza impulsora asociada a un gradiente de efectos entre los componentes que constituyen al sistema completo o macroestado (Ósipov, 2003).
La ecuación de Onsager se expresa mediante la relación
(Ecuación 1)
Donde es la generación de entropía al interior del sistema completo debido a la transformación de componentes o sistemas abiertos,
es el potencial o fuerza impulsora de la difusión de efectos al interior del sistema y
representa el flujo gestor de la turbulencia caótica neta al interior del sistema.
La generación de entropía es la suma de los productos matemáticos entre potenciales y flujos, lo cual se asocia a la conformación de un incremento en la entropía y a su vez la constitución de los sistemas abiertos que a su vez son componentes, generándose orden fuera del equilibrio por parte de la transferencia de flujos, lo cual da entender que a pesar de lo caótico de la turbulencia por parte del conjunto de flujos, se generan estructuras de orden o estructuras disipativas al interior de un sistema completo que genera su entropía hasta un valor máximo de entropía (Montoya, 2024).
Los sistemas de información son estructuras disipativas que disminuyen su entropía a partir de un sistema externo, es decir que el aporte humano configura la estructura de orden de información en sistemas dinámicas, eficientes y de uso aplicado para la construcción del conocimiento (Mukherjee, 2017).
La entropía es una cantidad no conservativa, es decir, es una cantidad que se genera inexorablemente, lo cual para un sistema aislado significa que la desinformación tiende a un valor máximo, pero en el caso de ser un sistema abierto que transfiere con su alrededor información, se podría disminuir la entropía generada y con ello optimizar el sistema de conocimiento.
3. Minimización de la entropía en el sistema de información
El proceso requerido para transformar un estado de información en otro estado de mayor orden requiere de un valor asociado de energía, es decir, dado que los estados de máximo orden no se presentan espontáneamente y requieren de un flujo de energía para alcanzar la mínima entropía (Gleick, 1987).
Partiendo de un estado inicial con energía , la transformación a un estado final con
requiere de un proceso asociado a un cambio de energía
, por lo tanto
(Ecuación 2)
En la ilustración 1 se presenta un esquema de lo que corresponde a la transformación del sistema entre estados.
Ilustración 1
Proceso de transformación entre estados de orden
La energía de transformación entre estados de orden corresponde con un incremento como tasa de cambio, dado que los procesos de cambio de propiedades entre estados se realizan con el tiempo como variable (Gráfico 1). Suponiendo una instancia asociada el estado 1 al momento de transformarse en un estado 2 asociado una instancia temporal
.
Gráfico 1
Energía necesaria para transformar los estados de información como función del tiempo
De acuerdo con el esquema, sería posible considerar una tasa promedio de transformación de energía, es decir que la potencia o tasa de energía de transformación media sería la expresión
(Ecuación 3)
Se podría considerar que la transformación de un sistema de información requiere de un proceso energético, tal que la tasa de transformación energética P en cada instante sería la expresión . Entonces la energía neta
necesaria para la transformación del sistema sería
(Ecuación 4)
Lo cual mediante aproximación sería
(Ecuación 5)
Es decir que el aporte de transformación del sistema de información requiere de una contribución de energía ordenador, por lo tanto, la ejecución debe hacerse a diferentes instancias temporales a las tasas de transformación
respectivamente.
El efecto de transformación del sistema de información corresponde directamente con el ordenamiento, por ende, de la disminución de la entropía del sistema, es decir que la entropía asociada al proceso corresponde con la forma que se presenta en el Gráfico 2, donde claramente presenta una tendencia creciente respecto al efecto de transformación energética.
Gráfico 2
Transformación entrópica para un sistema de información en el intervalo de tiempo entre t1 y t2
Entre dos instancias inicial t1 y t2 final de tiempo se puede evaluar la tasa promedio de entropía con la relación
(Ecuación 6)
Siendo la tasa instantánea una derivada negativa de la entropía respecto al tiempo, por lo tanto, el cambio de entropía en el intervalo de tiempo sería
(Ecuación 7)
Donde el efecto ordenador representado con valor negativo sería el cambio aproximado en el intervalo de tiempo de transformación sería
(Ecuación 8)
El signo negativo indica que la entropía disminuye a medida que el sistema de información se ordena a partir de la configuración de energía restauradora, por lo tanto, se plantea la forma como se relacionan ambas tasas promedio y
. Eliminando el tiempo como parámetro entre las tasas de entropía y energía se obtiene el cambio de configuración y ordenamiento con la expresión.
(Ecuación 9)
Con esta expresión se puede comprender que la energía requerida para ordenar el sistema incrementa a medida que la entropía disminuye, es decir que a medida que el sistema de información se ordena la entropía tiende a un valor mínimo y a su vez el sistema presenta mayor potencial energético de uso, es decir, menor dispersión de la información y por ende mayor eficiencia del sistema.
De acuerdo con la correlación entre la entropía y las condiciones de transformación, los sistemas de información se pueden considerar como estados termodinámicos, por ende, se puede proponer un modelo de estructuración y a su vez un modelo predictivo de las condiciones de los conjuntos de información, siendo incluso posible consolidar la eficiencia neta de la unidad de conocimiento.
4. Proceso de transformación óptima de información
Considerando que la entropía del sistema en el segundo estado (t2) es mínima (S2 = 0), entonces se tendría que la entropía en el estado inicial S1 sería
(Ecuación 10)
Donde sería una constante obtenida de una razón de valores promedio. Es decir, que la entropía requerida para que el sistema de información obtenga un máximo de eficiencia desde un estado de máximo desorden, requiere de una cantidad de trabajo o energía
como gasto necesario para lograr la óptima configuración, por lo tanto, el estado de máximo orden requiere de una cantidad de energía de configuración ejecutado por el entorno del sistema de información. Lo anterior demuestra que el sistema de información de máxima eficiencia corresponde con una estructura disipativa que se ordena a partir de una contribución de trabajo y a su vez una transformación correspondiente con la entropía directamente proporcional a esta cantidad de trabajo.
Si se asocia a la entropía de configuración con la definición de Boltzmann, entonces la entropía (entropía en el estado de información inicial) sería
(Ecuación 11)
Donde es una constante y es el número de microestados. Respecto al estado de mínima entropía
, significa que
, es decir que todos los microestados que conforman a un sistema ordenado corresponden un único valor posible y por ende no existe dispersión de la información. De acuerdo con lo anterior, se tiene entonces que el número de microestados en un sistema altamente desordenado sería del orden
(Ecuación 12)
Donde es una constante. Según la anterior expresión, se tiene entonces que el número de microestados que requieren transformarse a partir de un valor total de energía es
(Peña-Páez, 2021). La expresión 12) hace referencia a una descripción matemática de forma caótica, donde la constante
se asocia a la forma Lyapunov (Mukherjee, 2017)
5. Estados de información como configuración cuantizada
Teniendo un sistema de información con una gran cantidad de componentes, el sistema define un máximo de eficiencia cuando se presenta un flujo de orden configuracional, tal que a partir de un trabajo ejercido sobre el sistema de información transforma el número de microestados en un único valor definido como macroestado . Si el macroestado se compone microestados, entonces a mayor cantidad de energía de transformación, mayor cantidad de microestados a ordenar para lograr la máxima eficiencia del sistema, es decir que el sistema de información es una estructura disipativa definida a partir de un número cuantizado de estructuras individuales de orden (Jullian, 2015; García, s/f).
En el caso de un sistema compuesto por un número de componentes N, entonces el número de microestados ordenados sería a su vez
(Ecuación 13)
Para esto se requiere de una configuración binaria, en la que se presente un estado de orden a medida que la configuración se transforma en función de buscar la unidad para el número de microestados (Keshmiri, 2020). De acuerdo con una distribución binomial, se podría definir un número neto de componentes del sistema logrando con ello la transformación a través de su configuración de posibles microestados hasta lograr la máxima eficiencia o mínima entropía. Para el caso de un valor considerable de componentes, se tiene entonces que la dispersión de la información se obtiene a partir de la relación de Shannon
(Ecuación 14)
Donde corresponde con la probabilidad, la cual se asocia al estado de ordenamiento de los componentes del sistema del macroestado.
6. Desinformación y la contaminación como efectos humanos
Al igual que la contaminación de residuos sólidos, la contaminación de falsa información en la actualidad se puede presentar en un análisis equivalente en ambos casos, es decir, la desinformación tiende a un máximo al igual que la contaminación de residuos sólidos, dado que ambos casos se asocian con la entropía generada con los procesos humanos a través de la transformación tecnológica. Considerando la desinformación como contaminación, permite materializar termodinámicamente los procesos de transformación en función de los estados o etapas del sistema, siendo posible considerar sistemas de información que se pueden reutilizar, sistemas de información aptos para transformarse o sistemas que deben ser completamente desnaturalizados (Yaashikaa, 2022).
Los residuos, al igual que la desinformación, cumplen con potenciales procesos de transformación que requieren de aportes energéticos y estructuración a sistemas más eficientes, disminuyendo el proceso entrópico a medida que el sistema mejora sus propiedades (Duk-Min Kim, 2023). Pensar los sistemas de información como estructuras disipativas hace posible transformar las condiciones de información y optimizar la difusión de conocimiento, dado que los procesos entrópicos tienden a disminuir a medida que las transformaciones de condiciones se ejerzan desde fuerzas impulsoras de cambio, siendo un proceso de neutralización para los residuos sólidos y el proceso de transformación del conocimiento en el caso de sistemas de información (Mohamed, 2023). Pretender optimizar la información, buscar transformar la transferencia de conocimiento a partir de lo humano, buscando la adecuada simbiosis entre la naturaleza y la tecnología, alcanzando el equilibrio entrópico entre la evolución del conocimiento sin afectar el entorno humano y lo natural (Shu-Ting Zhang, 2023).
7. Conclusiones
Un sistema de información se podría pensar como un estado termodinámico definido por propiedades como la energía y la entropía, presentando una transformación a un estado final a partir de un incremento de energía del sistema debido a un trabajo externo que configura la estructura disipativa. Por lo tanto, la entropía del sistema se minimiza a medida que éste se transforma hasta alcanzar un equilibrio de los microestados en un único macroestado. El sistema de información óptimo corresponde con el de mínima entropía, evaluando como sistema el conjunto cuantizado de elementos de orden en la transformación.
El índice de desinformación en un sistema es la entropía, creándose a través de los procesos llevados a cabo al interior de un sistema, lo cual tiende a un valor máximo de manera irreversible debido al segundo principio de la termodinámica, el cual subraya que la naturaleza es desafiante para mantener la integridad de la información en cualquier sistema.
El caos inherente a la información solo puede ser controlado a partir de procesos de transformación desde flujos de orden, es decir, procesos ordenados con mínimo impacto entrópico, llevado a partir de procesos lógicos que disminuyan la dispersión de la información, empleando un lenguaje claro y asociado a la exactitud, identificando las componentes del sistema, los posibles microestados y con ello la transformación necesaria para optimizar la eficiencia del sistema como estructura disipativa.
Como estructura disipativa, los estados de información en su transformación a una unidad de transferencia de conocimiento se pueden pensar como un conjunto de residuos en su proceso de reutilización, con el fin de optimizar los procesos asociados a la disminución entrópica, visibilizando los sistemas de información como estructuras disipativas ordenadas desde el aporte humano.
Referencias
Alves, P. R. L., Duarte, L. G. S., & Mota, L. A. C. P. (2018). Detecting chaos and predicting in Dow Jones Index. Chaos, Solitons and Fractals: The Interdisciplinary Journal of Nonlinear Science, and Nonequilibrium and Complex Phenomena, 110, 232–238.
Barnett, W. A., Bella, G., Ghosh, T., Mattana, P., & Venturi, B. (2022). Is policy causing chaos in the United Kingdom? Economic Modelling, 108(September 2021), 105767. https://doi.org/10.1016/j.econmod.2022.105767
Bauman, Z. (1999). Modernidad líquida. Fondo de Cultura Económica.
Ben-Nahim, A. (2011). La entropía desvelada. Tusquets Editores S. A.
Ben-Nahim, A. (2020). Entropy and Time. Entropy, 22(1), 1–18. https://pmc.ncbi.nlm.nih.gov/articles/PMC7516914/
Briggs, J., y Peat, D. (1989). Espejo y reflejo. Gedisa Editorial.
Cañellas, A. J. C. (2005). Teoría del caos y práctica educativa.
Debbouche, N., Almatroud, A. O., Ouannas, A., & Batiha, I. M. (2021). Chaos and coexisting attractors in glucose-insulin regulatory system with incommensurate fractional-order derivatives. Chaos, Solitons, and Fractals, 143(110575), 110575. https://doi.org/10.1016/j.chaos.2020.110575
El-Saadony, M. T., Saad, A. M., El-Wafai, N. A., Abou-Aly, H. E., Salem, H. M., Soliman, S. M., Abd El-Mageed, T. A., Elrys, A. S., Selim, S., Abd El-Hack, M. E., Kappachery, S., El-Tarabily, K. A., & AbuQamar, S. F. (2023). Hazardous wastes and management strategies of landfill leachates: A comprehensive review. Environmental Technology & Innovation, 31(103150), 103150. https://doi.org/10.1016/j.eti.2023.103150
Farrokhi-Asl, H., Makui, A., Ghousi, R., & Rabbani, M. (2020). Developing a hazardous waste management system with consideration of health, safety, and environment. Computers & Electrical Engineering: An International Journal, 82(106553), 106553. https://doi.org/10.1016/j.compeleceng.2020.106553
García, Á. F. (s/f). Macroestado, microestados. Temperatura, entropía. Ehu.es. http://www.sc.ehu.es/sbweb/fisica_/estadistica/estadistica/formula/formula.html
Gleick, J. (1987). Caos: la creación de una ciencia. Crítica editorial.
Gleick, P. H. (1993). Water and conflict: Fresh water resources and international security. International security, 18(1), 79. https://doi.org/10.2307/2539033
Jullian, A. G. (2015). El otro como estructura disipativa. Reflexiones, 94(2), 145–151. https://www.redalyc.org/journal/729/72946471011/html/
Keshmiri, S. (2020). Entropy and the brain: An overview. Entropy (Basel, Switzerland), 22(9), 917. https://doi.org/10.3390/e22090917
Kim, D.-M., Lim, W.-L., Im, D.-G., Hwang, J.-W., Yu, S., Yun, S.-T., & Kim, J.-H. (2023). Fractionation behaviors of Cu, Zn, and S-O isotopes in groundwater contaminated with petroleum and treated by oxidation. Journal of Hazardous Materials, 458(131901), 131901. https://doi.org/10.1016/j.jhazmat.2023.131901
Lombardi, O., y Lombardi, O. (1991). La teoría del caos y sus problemas epistemológicos. La Teoría del Caos, (1892), 91–109.
Maturana, H. (1999). Transformación en la convivencia. Dolmen.
Montoya, J. F., Giraldo, C., & Garcés, L. F. (2023). Entropía y tiempo: gestores de la realidad. Revista lasallista de investigacion, 20(2), 254–264. https://doi.org/10.22507/rli.v20n2a13
Montoya, J. F., Giraldo, C., y Garcés, L. F. (2024). Residuos sólidos como estructuras disipativas. Producción + Limpia, 19(1), 152-164. https://doi.org/10.22507/pml.v19n1a9
Mukherjee, S., Ray, R., Samanta, R., & Khondekar, M. H. (2017). Nonlinearity and chaos in wireless network traffic. Chaos, Solitons and Fractals: The Interdisciplinary Journal of Nonlinear Science, and Nonequilibrium and Complex Phenomena, 96, 23–29. https://doi.org/10.1016/j.chaos.2017.01.005
Ósipov, A. (2003). Caos y autoorganización. Rústica Editorial.
Peña-Páez, L. M. (2021). Filosofía de la matemática: La intuición en el pensamiento de Kurt Gödel. Filosofia Unisinos, 1–13. https://doi.org/10.4013/fsu.2021.222.06
Popović, M. (2017). chrF++: words helping character n-grams. In Proceedings of the Second Conference on Machine Translation, pages 612–618, Copenhagen, Denmark. Association for Computational Linguistics. https://aclanthology.org/W17-4770.pdf
Prigogine, I. (1991). El nacimiento del tiempo. Tusquets editores.
Prigogine, I. (1993). Las leyes del caos. Tusquets Editores S. A.
Rojas, C. (2011). Las ciencias y la hermenéutica. Revista Umbral, 5, 4–30. https://revistas.upr.edu/index.php/umbral/article/view/8436
Silvestrini, V. (1985). ¿Qué es la entropía? Riuniti editorial.
Silvestrini, V. (1985). Qué es la entropia. Editiri Riuniti.
Sometband, M. (1999). Entre el orden y el caos: la complejidad. Fondo de cultura económica.
Valentim, M. A. (2021). Filosofía y entropía. Anacronismo e Irrupción, 11(21), 539-558. https://publicaciones.sociales.uba.ar/index.php/anacronismo/article/view/7091
Vargas, E. E., Rengifo, R. A., Guizado, F., y Sánchez, F. D. M. (2019). Sistemas de información como herramienta para reorganizar procesos de manufactura. Revista Venezolana de Gerencia, 24(85), 265-279. https://doi.org/10.37960/revista.v24i85.23840
Yaashikaa, P. R., & Kumar, P. S. (2022). Bioremediation of hazardous pollutants from agricultural soils: A sustainable approach for waste management towards urban sustainability. Environmental Pollution (Barking, Essex: 1987), 312(120031), 120031. https://doi.org/10.1016/j.envpol.2022.120031
Yoris, O. (2017). La universidad como estructura disipativa. Multiciencias, 16(3), 294-297. https://produccioncientificaluz.org/index.php/multiciencias/article/view/22988
Zhang, S.-T., Li, T., Deng, S.-K., Spain, J. C., & Zhou, N.-Y. (2023). A cytochrome P450 system initiates 4-nitroanisole degradation in Rhodococcus sp. strain JS3073. Journal of Hazardous Materials, 458(131886), 131886. https://doi.org/10.1016/j.jhazmat.2023.131886
Zhang, Z., Malik, M. Z., Khan, A., Ali, N., Malik, S., & Bilal, M. (2022). Environmental impacts of hazardous waste, and management strategies to reconcile circular economy and eco-sustainability. The Science of the Total Environment, 807(Pt 2), 150856. https://doi.org/10.1016/j.scitotenv.2021.150856