Lo que se entropea con palabras simples. Lo que es la entropía y cómo lidiar con ella. Comunicación con materia oscura.

Toda la energía de la combustión de la gasolina en todos los autos del mundo durante el año pasado ha pasado, en última instancia, en el aire y la tierra. Eso es lo que es la entropía, y este fenómeno está presente en cualquier proceso, en cualquier sistema.

Dicha transición al calor de baja temperatura significa un aumento en el trastorno en las moléculas. Incluso cuando se conserva el calor, por ejemplo, al mezclar aire frío y frío, el desorden aumenta: (un grupo de moléculas rápidas en un área) + (un grupo de lento en el otro) se convierte en (una mezcla de moléculas con un intermedio movimiento caótico). La consideración de la mezcla simple de gas caluroso y frío y el estudio teórico general de las máquinas térmicas (termodinámicas) nos lleva a la conclusión de que la tendencia natural es el cambio en la entropía, un aumento en el trastorno a lo largo del tiempo.

Esto le da tiempo a una propiedad importante, centrada en caso de procesos estadísticos. En un mecánico simple, expresado en las leyes de Newton, el tiempo puede fluir en ambas direcciones. La película sobre la colisión de dos moléculas se verá igualmente plausible, sin importar cómo lanzaramos la película, desde el principio o desde el final. Pero la película en la que las moléculas de gas caliente se mezclan con frío, se ve salvaje si se ejecuta desde el final. Por lo tanto, las colisiones de las moléculas MIRIAD indican la dirección del flujo del tiempo en nuestro mundo. La medida física del "desorden", llamada "principio de entropía" inventado.

Dicen: "De acuerdo con la ley de la entropía, el lío en el universo está comprometido a aumentar". De ahí la idea de la "muerte térmica" del universo, cuando todo se ubique a la misma temperatura baja y máxima desorden de la sustancia y la radiación.

El concepto de entropía se puede definir como la proporción de la cantidad de calor a la temperatura absoluta, o como la probabilidad de una cierta configuración en el mundo de las moléculas. Los detalles adicionales de esta definición y su uso nos aumentarían mucho más allá de nuestro curso, pero vale la pena ver este concepto en un desarrollo. ciencia moderna. "El futuro pertenece al hecho", dijo Frederick CeFfer, "quien puede manejar la entropía ... las revoluciones industriales del pasado solo afectaron el consumo de energía, pero las fábricas de los futuros autómatas son la revolución de la entropía".

Las moléculas de gas en el proceso de colisiones podrían, en principio, podrían hospedarse para rápido (caliente) en una sola pieza del recipiente y lento (frío), a otro. Esto significaría una disminución en el desorden en lugar de lo que predice la ley de creciente entropía. Pero un evento tan aleatorio es casi increíble, no es imposible, pero simplemente es extremadamente improbable. La ubicación y la velocidad erráticas más probables de las moléculas, de modo que una ubicación ordenada después de varias colisiones es mayor probable que sea caótica.

La ocurrencia de orden es muy poco probablemente incluso durante mucho tiempo. La aparición del orden es extremadamente improbable ..., es muy probable que el lío es muy probable, es por eso que las propiedades de entropía pueden definirse por tres métodos equivalentes: 1) como una medida del trastorno; 2) a través del calor y la temperatura; 3) a través de las probabilidades de las configuraciones de moléculas (en la medida de lo estadísticamente probable).

La segunda ley de la termodinámica es esencialmente lectura: la entropía busca aumentar. Debido a los procesos inevitables, como las pérdidas de calor, la fricción, la colisión inelástica ..., aumenta. Máximo, a lo que podemos esperar en el caso de una máquina de calor perfecta de trabajo continuo, es la preservación de la constante de entropía.

El cambio en la entropía es muy importante para calcular el funcionamiento de las máquinas térmicas, donde nos esforzamos por el consumo de toda la energía térmica disponible. Parece ser muy importante para los objetos biológicos para los cuales se domina la dirección del tiempo.

Por cierto, la idea del principio de entropía también se usa en la "teoría de la información", que subyace al diseño de los sistemas de comunicación, etc. Supongamos que logró observar el movimiento de una molécula de gas separada y puede escribir el Movimiento de cada uno de ellos. Para esta información detallada, no ve el gas como un sistema homogéneo en el estado del caos máximo, pero solo verá que el movimiento es extremadamente irregular.

Obtención de información, reduce la entropía. Por lo tanto, la información transferida por teléfono en forma de un mensaje desde el termómetro hasta el termostato se asemeja a una entropía negativa. Esta analogía ayuda de manera efectiva al codificar una variedad de llamadas telefónicas simultáneas, creando amplificadores, mejorando la calidad de los dispositivos de grabación, diseñando autómatas y al estudiar nuestro propio sistema nervioso, lenguaje, memoria y posiblemente la razón.

Acerca de difícil: lo que es la entropía, el cambio en la entropía de los procesos y sistemas, el concepto de entropía, propiedades y leyes de entropía.

  • Galería de imágenes, fotos, fotos.
  • Lo que es entropado: conceptos básicos, oportunidades, perspectivas, desarrollo.
  • Datos interesantes, información útil.
  • Noticias verdes - Qué entropy es.
  • Enlaces a materiales y fuentes: lo que se entropea, un cambio en la entropía de los procesos y sistemas, el concepto de entropía, propiedades y leyes de entropía.
    Registros relacionados

Entropía. Tal vez este sea uno de los más difíciles de entender los conceptos con los que puede reunirse en el curso de la física, al menos, si hablamos de la física de la clásica. Pocos de los graduados de las facultades físicas pueden explicar lo que es. Sin embargo, la mayoría de los problemas con la entendimiento de la entropía, se pueden eliminar si entiendes una cosa. La entropía es cualitativamente diferente de otros valores termodinámicos: tales como presión, volumen o energía interna, porque es una propiedad no del sistema, pero consideramos este sistema. Desafortunadamente, generalmente se considera en el curso de la termodinámica, junto con otras funciones termodinámicas, lo que agrava el malentendido.

Entonces, ¿qué es la entropía?

Si en pocas palabras, entonces

La entropía es la cantidad de información que no conoce el sistema.

Por ejemplo, si me preguntas a dónde vivo, y responderé: En Rusia, entonces mi entropía será alta para ti, toda la misma Rusia es un país grande. Si le llamo su código postal: 603081, entonces mi entropía caerá por usted, ya que obtendrá más información.


El código postal contiene seis dígitos, es decir, le di seis símbolos de información. La entropía de su conocimiento de mí cayó aproximadamente 6 caracteres. (De hecho, no del todo, porque algunos índices son responsables de más direcciones, y algunos son menos, pero descuidaremos esto).

O considerar otro ejemplo. Déjame tener diez jugando a los huesos (hexágono) y tirarlos, le informo que su cantidad es igual a 30. Asegurando solo esto, no puede decir que específicamente números en cada uno de los huesos, carecen de información. Estos números específicos en los huesos en la física estadística se llaman microsises, y la cantidad total (30 en nuestro caso) es una macro-stand. Hay 2.930.455 microstastas que corresponden a la cantidad de igual a 30. Por lo tanto, la entropía de este stand macro es de aproximadamente 6,5 caracteres (la mitad aparece debido al hecho de que en la numeración de microsises en orden en el séptimo descargo no está disponible. Números, pero solo 0, 1 y 2).


¿Y si te dijera que la cantidad es 59? Para este macrocro, solo hay 10 microstastas posibles, de modo que su entropía es igual a un solo carácter. Como puede ver, diferentes macrosmen tienen diferentes entropías.

Ahora déjame decirte que la suma de los primeros cinco huesos 13, y la cantidad de los cinco - 17 restantes, por lo que la cantidad total es nuevamente 30. Sin embargo, usted, en este caso, hay más información, por lo que la entropía de la El sistema para usted debe caer. Y, de hecho, 13 en cinco huesos se pueden obtener en 420 de diferentes maneras, y el 17 a 780 yu, es decir, el número total de microstasis será solo 420x780 \u003d 327 600. La entropía de dicho sistema es aproximadamente una Carácter que en el primer ejemplo.

Medimos la entropía como el número de caracteres requeridos para registrar la cantidad de microstástas. Matemáticamente, esta cantidad se define como un logaritmo, por lo que se refiere al símbolo de entropía, y el número de microstinas con el símbolo, podemos escribir:

Esto no es más que la fórmula de Boltzmann (con una precisión de un multiplicador K, que depende de las unidades seleccionadas de medición) para la entropía. Si una microstación corresponde a la macrostopia, su entropía de acuerdo con esta fórmula es cero. Si tiene dos sistemas, entonces la entropía completa es igual a la suma de la entropía de cada uno de estos sistemas, porque el registro (AB) \u003d Log A + Log B.

A partir de la descripción anterior, queda claro por qué no se debe pensar en la entropía como propiedad del sistema. El sistema tiene cierta energía interna, el impulso, la carga, pero no tiene una determinada entropía: la entropía de diez huesos depende de si solo tiene su cantidad total, o también tops de huesos privados.

En otras palabras, la entropía es cómo describimos el sistema. Y lo hace muy diferente de otros valores, con los cuales es habitual trabajar en física.

Ejemplo físico: gas bajo el pistón.

El sistema clásico, que se considera en física, es el gas ubicado en el recipiente debajo del pistón. La microstación de gas es la posición y el impulso (velocidad) de cada una de sus moléculas. Esto es equivalente a lo que conoce el valor que cayó en cada hueso en el ejemplo que se revisó anteriormente. Las macrosticación de gas se describen mediante valores tales como presión, densidad, volumen, composición química. Es como la suma de los valores que caen en los huesos.


Las magnitudes que describen el soporte macro se pueden asociar entre sí a través de la llamada "ecuación estatal". Es la presencia de esta conexión que no conoce los microstásticos, para predecir lo que sucederá en nuestro sistema si comienza a calentarlo o mueve el pistón. Para un gas perfecto, la ecuación de estado tiene una forma simple:

aunque es más probable que esté familiarizado con la ecuación de Klapairone, Mendeleev PV \u003d νRT es la misma ecuación, solo con la adición de un par de constantes para confundirlo. Cuantos más microsises corresponden a esta macrocro, es decir, cuanto más partículas formen parte de nuestro sistema, mejor la ecuación del estado lo describe. Para el gas, los valores característicos del número de partículas son iguales al número de Avogadro, es decir, constituyen alrededor de 1023.

Los valores del tipo de presión, la temperatura y la densidad se denominan promedios, ya que se promedian la manifestación entre sí, de cada uno de los microstásteres que cumplen con esta macro-stand (o más bien, cerca de ella, MacRosts). Para averiguar en qué MicroStation es el sistema, necesitamos mucha información: necesitamos conocer la posición y la velocidad de cada partícula. La cantidad de esta información se llama entropía.

¿Cómo cambia la entropía con un cambio en la macro-pie? Es fácil de entender. Por ejemplo, si somos un poco de gas rápido, entonces la velocidad de sus partículas aumentará, por lo tanto, el grado de ignorancia sobre esta velocidad aumentará, es decir, la entropía crecerá. O, si aumentamos el volumen de gas, eliminando rápidamente el pistón, el grado de nuestra ignorancia aumentará la posición de las partículas, y la entropía también crecerá.

Cuerpos sólidos y energía potencial.

Si miramos un poco de gas en lugar de gas. sólido, especialmente con una estructura ordenada, como en los cristales, por ejemplo, una pieza de metal, entonces su entropía será pequeña. ¿Por qué? Debido a que sabiendo la posición de un átomo en tal estructura, ya sabes y la posición de todos los demás (están incorporados en la estructura de cristal derecho), la velocidad de los mismos átomos es pequeña, porque no pueden volar lejos de su posición y solo fluctúan ligeramente alrededor de la posición de equilibrio.


Si una pieza de metal está en el campo de la gravedad (por ejemplo, elevado por encima de la superficie de la tierra), la energía potencial de cada átomo en el metal es aproximadamente igual a la energía potencial de otros átomos, y la entropía asociada es baja . Esto presenta energía potencial de cinética, que para el movimiento térmico puede variar mucho del átomo al átomo.

Si una pieza de metal aumentó a cierta altura, libera, entonces su energía potencial cambiará a la energía cinética, pero el aumento de la entropía casi no será, porque todos los átomos se moverán aproximadamente igualmente. Pero cuando la pieza cae en el suelo, durante el golpe, los átomos de metal recibirán una dirección de movimiento aleatoria, y la entropía aumentará dramáticamente. La energía cinética del movimiento direccional cambiará a la energía cinética del movimiento de calor. Antes del golpe, sabíamos aproximadamente cómo se mueve cada átomo, ahora perdimos esta información.

Entender la segunda ley de la termodinámica.

La segunda ley de la termodinámica sostiene que la entropía (sistema cerrado) siempre aumenta. Ahora podemos entender por qué: porque es imposible obtener más información sobre las microstasis. Una vez que haya perdido información sobre mi microstación (como un trozo de metal una pieza de metal), no puede devolverlo.


Volvamos a los huesos de juego. Recuerde que un soporte macro con la cantidad de 59 tiene una entropía muy baja, pero también para obtenerlo no es tan fácil. Si tiras los dados a una vez, entonces se caerán esas sumas (macro-stand) que responden gran cantidad Las microstasas, es decir, se implementarán macro-stands con gran entropía. La entropía más alta tiene la cantidad de 35, y es ella quien caería más a menudo que otros. Se trata de esto que dice la segunda ley de la termodinámica. Cualquier interacción aleatoria (incontrolada) conduce a un aumento en la entropía, al menos hasta que alcance su máximo.

Agitando gases

Y un ejemplo más para asegurar dicho. Tengamos un contenedor en el que hay dos gas separados por la partición ubicada en el centro del contenedor. Llamaremos a las moléculas de un gas de gas, y el otro - rojo.

Si abre la partición, los gases comenzarán a mezclarse, porque el número de microscastros en los que se mezclan los gases, mucho más que los microscastros en los que están separados, y todas las microsises son naturalmente iguales. Cuando abrimos la partición, para cada molécula, perdimos información en qué lado de la partición se encuentra ahora. Si las moléculas fueron n, entonces el N bit de información (bits y símbolos, en este contexto, es, de hecho, lo mismo, y difiere solo en un determinado factor constante).

Entendemos con el Daemon Maxwell.

Bueno, finalmente, considere la decisión en el marco de nuestro paradigma de la famosa paradoja del demonio Maxwell. Déjame recordarte que él es el siguiente. Que tengamos gases mezclados de moléculas azules y rojas. Pondremos de vuelta el tabique, habiendo hecho un pequeño agujero en él, en el que ponemos un demonio imaginario. Su tarea es omitir la izquierda del rojo y derecho a la izquierda solo azul. Obviamente, después de algún tiempo, los gases se dividirán nuevamente: todas las moléculas azules quedarán de la partición, y todo rojo, a la derecha.

Resulta que nuestro demonio bajó la entropía del sistema. Con el demonio, no pasó nada, es decir, su entropía no cambió, y tuvimos un sistema cerrado. Resulta que encontramos un ejemplo cuando la segunda ley de la termodinámica no se realiza! ¿Cómo fue posible?

Esta paradoja se resuelve, sin embargo, muy simple. Después de todo, la entropía es una propiedad no del sistema, pero nuestro conocimiento sobre este sistema. También conocemos un poco sobre el sistema, por lo que parecemos ser que su entropía disminuye. Pero nuestro demonio sabe mucho sobre el sistema, para compartir moléculas, debe conocer la posición y la velocidad de cada uno de ellos (al menos en la recogida). Si él conoce las moléculas, desde su punto de vista, de hecho, la entropía del sistema, de hecho, es cero, simplemente no tiene ninguna información que falta sobre ella. En este caso, la entropía del sistema como cero, y se mantuvo igual a cero, y la segunda ley de la termodinámica no se rompió en ninguna parte.

Pero incluso si el demonio no conoce toda la información sobre la microstación del sistema, al menos, debe saber el color de la molécula que lo desalienta para entenderlo o no. Y si el número total de moléculas es n, el demonio debe poseer n bits de la información del sistema, pero es mucha información que perdimos cuando abrieron la partición. Es decir, el número de información perdida es exactamente igual al número de información que debe obtenerse sobre el sistema para devolverlo a su estado original, y suena bastante lógico, y nuevamente no contradice la segunda ley de la termodinámica.

Esta publicación es una traducción gratuita de la respuesta, que Mark Eichenlaub le dio a la pregunta ¿Qué es una forma intuitiva de entender la entropía?, Preguntó en el sitio web de Quora.

La entropía es una medida del sistema de complicación. No desorden, sino complicaciones y desarrollo. Cuanto más entropía, más difícil es comprender la lógica de este sistema en particular, la situación, los fenómenos. Se cree que cuanto más tiempo pasa, los menos ordenados se convierten en el universo. La razón de esta es la velocidad desigual del desarrollo del universo en su conjunto y nosotros como observadores de entropía. Nosotros, como observadores, son una gran cantidad de órdenes de magnitud más fácil que el universo. Por lo tanto, nos parece excesivamente excesivo, no podemos entender la mayoría de las relaciones causales, sus componentes. El aspecto psicológico es importante: las personas son difíciles de acostumbrarse al hecho de que no son únicas. Comprenda, la tesis que las personas son una corona de evolución, no lejos de la convicción anterior de que la tierra es el centro del universo. Es bueno creer en mi exclusividad y no es sorprendente que las estructuras que sean más difíciles para nosotros, tendemos a ver desordenados y caóticos.

ARRIBA, hay muy buenas respuestas que explican la entropía en función del paradigma científico moderno. En los ejemplos ordinarios, los encuestados explican este fenómeno. Calcetines dispersos, gafas rotas, monos del juego en ajedrez, etc. Pero si miras de cerca, entiendes: el pedido aquí se expresa en una verdadera presentación humana. La palabra "mejor" se aplica a la buena mitad de tales ejemplos. Mejor plegado en los calcetines del gabinete que los calcetines dispersos en el suelo. Mejor un vaso entero que un vaso de roto. Cuaderno escrito por un hermoso cuaderno de escritura a mano con transferencia. En la lógica humana no está claro qué hacer con la entropía. La talla de humo del tubo no está utilizada. El libro dividido en trozos pequeños es inútil. Desde el dialecto y el ruido de varias expresiones en el metro, es difícil soportar al menos el mínimo de información. En este sentido, será muy interesante volver a la definición de entropía introducida por un físico y matemático Rudolph Clausio, quien vio este fenómeno, como la medida de la dispersión irreversible de la energía. ¿De quién va esta energía? ¿Quién se pone más difícil de aprovecharlo? ¡Si hombre! El agua derramada es muy difícil (si no imposible), a una caída para reunirse en un vaso de nuevo. Para arreglar la ropa vieja, debe usar el nuevo material (tejido, hilos, etc.). No tiene en cuenta el significado, que esta entropía no puede soportar no para las personas. Daré un ejemplo cuando la dispersión de energía para nosotros llevará el significado exacto opuesto para otro sistema:

Sabes que cada segundo, una gran cantidad de información de nuestro planeta vuela al espacio. Por ejemplo, en forma de ondas de radio. Para nosotros, esta información parece absolutamente perdida. Pero si hay una civilización extraterrestre bastante desarrollada en el camino de las ondas de radio, sus representantes pueden aceptar y descifrar una parte de esta energía perdida para nosotros. Escuche y comprenda nuestras voces, consulte nuestros programas de televisión y radio, conéctese a nuestro tráfico de Internet)). En este caso, nuestra entropía puede optimizar otras criaturas razonables. Y cuanto más la dispersión de energía es para nosotros, más energía pueden recolectar.

Entropía (del Dr. Griego. ἐντροπία - Turnando, transformación) - el término utilizado en ciencias naturales y precisas. Primero se introdujo en el marco de la termodinámica en función del estado del sistema termodinámico, lo que determina la medida de la dispersión irreversible de la energía. En la física estadística, la entropía es una medida de la probabilidad de cualquier estado macroscópico. Además de la física, el término se usa ampliamente en matemáticas: teoría de la información y estadísticas matemáticas. La entropía se puede interpretar como una medida de incertidumbre (desordante) de algún sistema (por ejemplo, cualquier experiencia (prueba), que puede tener resultados diferentes y, por lo tanto, la cantidad de información). Otra interpretación de este concepto es el sistema de contenedor de información. Con esta interpretación, el hecho de que el creador del concepto de entropía en la teoría de la información, Claude Claude Shannon, primero quisiera nombrar esta cantidad de información. En un sentido amplio, en qué palabra se usa a menudo en la vida cotidiana, la entropía significa la medida del sistema inolvidable; Cuanto más pequeños los elementos del sistema están subordinados a cualquier orden, la entropía más alta.

La magnitud opuesta a la entropía se llama. negencropía. o menos probable escenario.

Diferentes disciplinas

  • La entropía termodinámica es una función termodinámica que caracteriza la medida de la disipación de energía irreversible en ella.
  • Entropía de la información: medida de la incertidumbre de la fuente de mensajes, determinada por las probabilidades de la aparición de ciertos caracteres cuando se transmiten.
  • Entropía diferencial: entropía para distribuciones continuas.
  • La entropía del sistema dinámico, en la teoría de los sistemas dinámicos de la medida de la caotización en el comportamiento de las trayectorias del sistema.
  • La entropía de reflexión es parte de la información discreta del sistema que no se reproduce cuando el sistema se refleja a través de la totalidad de sus partes.
  • La entropía en la teoría del control es una medida de la incertidumbre del estado o comportamiento del sistema en estas condiciones.

En termodinámica

El concepto de entropía fue introducido por primera vez por CLAUSIO en la termodinámica en 1865 para determinar la medida de la dispersión irreversible de la energía, las medidas de rechazo del proceso real desde el ideal. Definido como la suma del calor resultante, es una función del estado y permanece constante con procesos reversibles cerrados, mientras que en irreversible, su cambio siempre es positivo.

La entropía matemáticamente se define como una función de un sistema de un sistema igual al proceso de equilibrio con la cantidad de calor, un sistema informado o vilocked del sistema, se refirió a la temperatura termodinámica del sistema:

ds \u003d \\ frac (\\ delta q) (t),

dónde dS. - el incremento de la entropía; \\ Delta Q. - Calor mínimo suministrado al sistema; (T) - Temperatura absoluta del proceso.

Entropy establece un enlace entre macro y micro estados. La característica de esta característica es que esta es la única función en la física que muestra la dirección de los procesos. Dado que la entropía es una función de función, no depende de cómo se realiza la transición de un estado del sistema a otro, pero se determina solo por los estados iniciales y finales del sistema.

ver también

Escriba un comentario sobre el artículo "Entropy"

Notas

  1. D. N. Zubarev, V. G. Morozov. // Enciclopedia física / D. M. Alekseev, A. M. Baldin, A. M. Broevich, A. S. Borovik-Romanov, B. K. Weinstein, S. V. Vonovsky, A. V. GAPONOV -GREKHOV, SS Gershtein, II Gurevich, AA Gusev, Ma YelJashevich, Me Zhabotinsky, DN Zubarev, BB Kadomtsev, es Shapiro, D. V. Shirskova; bajo total. ed. A. M. Prokhorov. - M.: Enciclopedia soviética, 1988-1999.
  2. Entropía // Enciclopedia soviética grande: [en 30 toneladas] / ch. ed. A. M. Prokhorov. - 3er Ed. - m. : Enciclopedia soviética, 1969-1978.

Literatura

  • Shambadal P. Desarrollo y aplicación del concepto de entropía. - M.: Ciencia, 1967. - 280 s.
  • Martin N., Inglaterra J. Teoría matemática de la entropía. - m.: Mir, 1988. - 350 s.
  • Hinchin A. Ya. // Éxitos de las ciencias matemáticas. - 1953. - T. 8, no. 3 (55). - P. 3-20.
  • Gensdorf P., Prigogin I. Teoría termodinámica de estructuras, estabilidad y fluctuaciones. - m., 1973.
  • Prigogin I., Stengers I. Orden del caos. Nuevo diálogo humano con la naturaleza. - M., 1986.
  • BULLYUEÑO L. Ciencia y teoría de la información. - M., 1960.
  • Wiener N. Cibernética y sociedad. - M., 1958.
  • Wiener N. Cibernetics o control y comunicación en el animal y el automóvil. - M., 1968.
  • De Grot S., Mazur P. Sinquilibrio termodinámica. - m., 1964.
  • Zommerfeld A. Termodinámica y física estadística. - M., 1955.
  • PETRUSHENKO L. A. A. A. La auto-aprobación de la materia a la luz de la cibernética. - M., 1974.
  • Ashbi U. R. Introducción a la cibernética. - M., 1965.
  • Yaglom A. M., Yaglom I. M. Probabilidad e información. - m., 1973.
  • Volkenstein M. V. Entropía e información. - M.: Ciencia, 1986. - 192 p.

Extracto de Estropía

- Oh, Nies Braves, Oh, Mes Bons, Mes Bons amis! Voila des Hommes! Oh, Mes Braves, Mes Bons amis! [¡Sobre bien hecho! Sobre mis buenos amigos buenos amigos! ¡Aquí están la gente! Sobre mis buenos amigos!] - Y, como un niño, se dirigió al hombro un soldado.
Mientras tanto, Morel estaba sentado en un lugar mejor rodeado de soldados.
Morel, un pequeño francés grueso, con ojos inflamados, con fugas, unidos a lo largo de la mujer con un pañuelo sobre una gorra, se vistió con un esposo femenino. Él, al parecer, Zahmelev, abrazando la mano de un soldado que estaba sentado cerca de él, cantó una ronca, una voz rota de la canción francesa. Los soldados se mantuvieron detrás de los lados, mirándolo.
- Bueno, bueno, bueno, enseña, ¿cómo? Seré una variedad. ¿Cómo? .. - dijo el compositor de Joker, quien abrazó la morel.
Vive Henri Quatre,
Vive CE Roi Vaillanti -
[¡Cuarto largo de Heinrich!
¡Viva mucho este rey valiente!
etc. (canción francesa)]
Moror perdió, guiñando el ojo.
SE DIBLE UN QUATRE ...
- ¡Vivarika! VIF Seruvar! Sidlyablik ... - repitió el soldado, agitando la mano y realmente atrapando la entrada.
- ¡Vish, hábil! ¡Ve! .. - Rose de diferentes lados, risas alegres. Morel, arrugando, se rió también.
- Bueno, Valya, todavía, más!
Qui eut le triple talent,
De Boire, De Battre,
Et d "etre untt galant ...
[Quien tenía un triple talento,
beber, pelear
Y ser una cortesía ...]
- Pero después de todo, también se plegó. Bueno, bueno, ¡caminando! ..
"Kyu ..." dijo con esfuerzo. "Kew Yu Yu ...", se sacó, moviendo diligentemente sus labios, "Lethardtal, de Bu de Ba y la privación", perdió.
- ¡Ay, importante! ¡Así es como hrantzuz! Oh ... ir a ir! - Bueno, ¿todavía quieres?
- Dale una papilla entonces; Después de todo, no será pronto con el hambre.
De nuevo se le dio papilla; Y Morel, riendo, comenzó para el tercer jugador de bolos. Las sonrisas alegres estaban en todas las caras de los jóvenes soldados mirando la morel. Los viejos soldados que consideraban indecentes a participar en tales trifles, yacían en el otro lado del fuego, pero ocasionalmente, levantándose en el codo, miró al hurón con una sonrisa.
"También la gente", dijo uno de ellos, esquivando al chino. - Y el ajenjo está creciendo en su raíz.
- ¡OO! Señor, señor! ¡Qué estrella, pasión! A la escarcha ... - y todo se calmó.
Estrellas, como si supieran que nadie los vería, pinchó en el cielo negro. Eso parpadea, está empobrecido, y luego se estremece, están encantados de algo alegre, pero misteriosamente se juntan.

H.
Las tropas francesas se derritieron uniformemente en la progresión matemáticamente correcta. Y esa transición a través de Berezina, sobre la cual se escribió tanto, solo había una de las destrucción intermedia del Ejército Francés, y en absoluto un episodio decisivo de la campaña. Si escribían tanto sobre Berezin y escriben, entonces de los franceses, esto sucedió solo porque en el puente de desastres de Berezinsky, que se encuentra en ejercito francés Anteriormente, de manera uniforme, aquí se agrupó repentinamente en un momento y en una vista trágica, que todos tenían en la memoria. Desde el lado de los rusos, hablaron tanto y escribieron sobre Berezin solo porque estaban alejados de la guerra de la guerra, en San Petersburgo, el plan (Pfule) se elaboró \u200b\u200ben el oeste estratégico de Napoleón en el río Berezine. Todos estaban seguros de que todo realmente actuará exactamente como en el plan, y por lo tanto insistió en que era Berezinskaya cruzando a los franceses. En esencia, los resultados del cruce de Berezinsky eran mucho menos frenéticos para la pérdida francesa de armas y prisioneros que el rojo, como lo muestran los números.
El único significado del cruce de Berezinsky es que este cruce es obviamente y, sin duda, ha demostrado ser el pedo de todos los planes para el corte y la justicia de los únicos posibles, según lo requerido por Kutuzov y todas las tropas (masa) de la acción, solo siguiendo el enemigo. La multitud de los franceses huyó con la fuerza de velocidad en constante creciente, con toda la energía dirigida a lograr el objetivo. Huyó como una bestia herida, y no podía estar en la carretera. No demostró tanto un dispositivo de corrección, cuánto movimiento en los puentes. Cuando los puentes se rompieron, los soldados desarmados, los residentes de Moscú, las mujeres con hijos que estaban en el capataz,, todo bajo la influencia de la fuerza de la inercia, no se rindió, sino que corrió adelante en el bote, en volantes.
El deseo era razonable. La posición y correr y inquietud era igualmente mala. Mantenerse con el suyo, cada uno en desastre esperaba la ayuda de un compañero, por un cierto lugar ocupado por él entre ellos. Sobrevivido por los rusos, estaba en la misma posición del desastre, pero se convirtió en un paso más bajo en la sección que satisface las necesidades de la vida. Los franceses no necesitaron tener información leal que la mitad de los prisioneros, con quienes no sabían qué hacer, a pesar de todos los deseos de los rusos para salvarlos, murieron por frío y hambre; Sintieron que no podía ser de otra manera. Los jefes y cazadores rusos más foodnales a los franceses, los franceses en el servicio ruso no pudieron hacer nada por los prisioneros. Los franceses arruinaron el desastre en el que estaba el ejército ruso. Era imposible quitarle el pan y un vestido de los hambrientos, los soldados necesarios para regalar no dañinos, no odiados, no culpables, sino solo francés innecesario. Algunos y lo hicieron; Pero fue solo una excepción.
Nazada fue la muerte fiel; Hubo esperanza por delante. Los barcos fueron quemados; No había otra salvación, excepto por el escape acumulativo, y todas las fuerzas de los franceses fueron dirigidas a este vuelo acumulativo.
Cuanto más se huyeron de los franceses, más afortunados hubo sus restos, especialmente después de Berezina, por lo que, como resultado del Plan San Petersburgo, tenía esperanzas especiales, las más fuertes de las pasiones de los jefes rusos, acusados \u200b\u200bentre sí y especialmente Kutuzov. . Creyendo que el fracaso del plan de Berezinsky Petersburg se le atribuirá, la insatisfacción con ellos, el desprecio por él y las burlas de él es más fuerte y más fuerte. Por supuesto, se expresó a impulsos y desprecio, por supuesto, en la forma en que Kutuzov no podía y preguntaba de qué fue acusado. No habló en serio; Me arrepiento de él y pidiendo su permiso, hizo el tipo de ejecución del rito triste, y detrás de su espalda estaba guiñando un ojo y en cada paso que intentaron engañarlo.

La entropía es una medida del sistema de complicación. No desorden, sino complicaciones y desarrollo. Cuanto más entropía, más difícil es comprender la lógica de este sistema en particular, la situación, los fenómenos. Se cree que cuanto más tiempo pasa, los menos ordenados se convierten en el universo. La razón de esta es la velocidad desigual del desarrollo del universo en su conjunto y nosotros como observadores de entropía. Nosotros, como observadores, son una gran cantidad de órdenes de magnitud más fácil que el universo. Por lo tanto, nos parece excesivamente excesivo, no podemos entender la mayoría de las relaciones causales, sus componentes. El aspecto psicológico es importante: las personas son difíciles de acostumbrarse al hecho de que no son únicas. Comprenda, la tesis que las personas son una corona de evolución, no lejos de la convicción anterior de que la tierra es el centro del universo. Es bueno creer en mi exclusividad y no es sorprendente que las estructuras que sean más difíciles para nosotros, tendemos a ver desordenados y caóticos.

ARRIBA, hay muy buenas respuestas que explican la entropía en función del paradigma científico moderno. En los ejemplos ordinarios, los encuestados explican este fenómeno. Calcetines dispersos, gafas rotas, monos del juego en ajedrez, etc. Pero si miras de cerca, entiendes: el pedido aquí se expresa en una verdadera presentación humana. La palabra "mejor" se aplica a la buena mitad de tales ejemplos. Mejor plegado en los calcetines del gabinete que los calcetines dispersos en el suelo. Mejor un vaso entero que un vaso de roto. Cuaderno escrito por un hermoso cuaderno de escritura a mano con transferencia. En la lógica humana no está claro qué hacer con la entropía. La talla de humo del tubo no está utilizada. El libro dividido en trozos pequeños es inútil. Desde el dialecto y el ruido de varias expresiones en el metro, es difícil soportar al menos el mínimo de información. En este sentido, será muy interesante volver a la definición de entropía introducida por un físico y matemático Rudolph Clausio, quien vio este fenómeno, como la medida de la dispersión irreversible de la energía. ¿De quién va esta energía? ¿Quién se pone más difícil de aprovecharlo? ¡Si hombre! El agua derramada es muy difícil (si no imposible), a una caída para reunirse en un vaso de nuevo. Para arreglar la ropa vieja, debe usar el nuevo material (tejido, hilos, etc.). No tiene en cuenta el significado, que esta entropía no puede soportar no para las personas. Daré un ejemplo cuando la dispersión de energía para nosotros llevará el significado exacto opuesto para otro sistema:

Sabes que cada segundo, una gran cantidad de información de nuestro planeta vuela al espacio. Por ejemplo, en forma de ondas de radio. Para nosotros, esta información parece absolutamente perdida. Pero si hay una civilización extraterrestre bastante desarrollada en el camino de las ondas de radio, sus representantes pueden aceptar y descifrar una parte de esta energía perdida para nosotros. Escuche y comprenda nuestras voces, consulte nuestros programas de televisión y radio, conéctese a nuestro tráfico de Internet)). En este caso, nuestra entropía puede optimizar otras criaturas razonables. Y cuanto más la dispersión de energía es para nosotros, más energía pueden recolectar.

Cuota: