2023-9 trading log

18
Entropy is a measure of the amount of disorder or randomness in a system. In thermodynamics, it is a measure of the unavailability of a system's thermal energy for conversion into mechanical work, often interpreted as the degree of disorder or randomness in the system. In information theory, entropy is a measure of the uncertainty or randomness of information content in a message or signal. The greater the entropy in a message or signal, the less predictable it is.

Wyłączenie odpowiedzialności

Informacje i publikacje przygotowane przez TradingView lub jego użytkowników, prezentowane na tej stronie, nie stanowią rekomendacji ani porad handlowych, inwestycyjnych i finansowych i nie powinny być w ten sposób traktowane ani wykorzystywane. Więcej informacji na ten temat znajdziesz w naszym Regulaminie.