Wissenschaft
Menschen Wissenschaft Politik Mystery Kriminalfälle Spiritualität Verschwörungen Technologie Ufologie Natur Umfragen Unterhaltung
weitere Rubriken
PhilosophieTräumeOrteEsoterikLiteraturAstronomieHelpdeskGruppenGamingFilmeMusikClashVerbesserungenAllmysteryEnglish
Diskussions-Übersichten
BesuchtTeilgenommenAlleNeueGeschlossenLesenswertSchlüsselwörter
Schiebe oft benutzte Tabs in die Navigationsleiste (zurücksetzen).

Was ist "Entropy"?

15 Beiträge ▪ Schlüsselwörter: Entropy ▪ Abonnieren: Feed E-Mail
Seite 1 von 1

Was ist "Entropy"?

04.06.2008 um 18:42
oder auch Entropie
hab in einem Seminar davon gehört, war allerdings nur die Definition für den Literaturbegriff: Entropie ist das Maß der Unordnung eines Systems
mir wurde allerdings nahegelegt, das in der Physik diese Definition Humbug ist - leider wurde mir nicht erklärt, warum ... daher die Frage ... was ist ?


melden
JPhys ehemaliges Mitglied

Link kopieren
Lesezeichen setzen

Was ist "Entropy"?

04.06.2008 um 19:20
Jeder Mikrozustand ist gleich wahrscheinlich.

Viele Mikrozustaenden sind von aussen aber kaum von einander zu unterscheiden.
Bei den Gasmolekuelen eines Raumes faellt es gar nicht auf ob sich nun eines etwas weiter Rechts oder etwas weiter Links befindet.

Darum fasst man Mikrozustaende zu Makrizustaenden Zusammen.
Also alle Mikrozustaende von aussen Gleich aussehen in einen Makrozustand der dann nur noch uber Dinge wie Druck Temperatur aussere Form aber nicht mehr durch Detailinformatioen uber alle einzelnen Atome gekennzeichent ist

Die Wahrscheinlichkeit das ein Bestimmter Makrozustand eingenommen wird ist proportional zur zahl der Mikrozustaend aus denen er besteht,

Die Entropie eines Makrozustandes ist der Logaritmus aus der Anzahl der Mirozustaende

Wer die Logarithmusfunktion kennt weiss das sie fuer grosse Zahlen sehr langsam ansteigt.

Eine minimale Aenderung der Entrioei ist fuehrt deshalb zu einer riesiegen Aenderung der Zahl der Zustaende

Daum ist der Makrozustand mit hoeherer Entropie sehr viel wahrscheinlicher als der Makrozustand mit geringerer Entropie. Und das System bewegt sich sehr wahrscheinlich von kleiner zu grosser Entropie.

Das ist der 2te Hauptsatz der Thermodynamik die Entropie steigt immer an.


(Stell dir Millionen mal Mliliionen mal Millionen mal Millionen mal Millionen Wuerfel vor wenn Jeder davon beim Wuerfeln eine sechs zeigt bewegt verkleinert sich die Entropie sondt vergroessert sie sich das meine ich mit sehr wahrscheinlich )


Wenn es dir gelingt dafuer zu sorgen das nicht gewuerfelt wird sondern die wuerfel alle auf sechs "gelegt" werden hast du das Pertuumm 2ter Art erfunden und alle Energieprobleme der Menschheit(die wegen der Energieerhaltung ja eher Entropieprobleme heissen muessten) geloest.


melden

Was ist "Entropy"?

04.06.2008 um 19:26
Wikipedia: Entropie
lol wiki ftw


melden

Was ist "Entropy"?

05.06.2008 um 13:00
Mal etwas anders beschrieben als bei Wiki.

Entropie ist die anzahl der möglichen Zustände die ein System erreichen kann.
Der begriff lässt sich leicht am Binär Code erklären.

hat man 1 u. 0 sind es zwei Möglichkeiten. 10 oder 01

hat man 1100 sind es schon mehr Möglichkeiten.

1100,0011,0101,1010,1001,0110, usw


Ein Gerücht zur folge hat sich Ludwig Bolzman das Leben genommen, weil er mit einen Physikalischen Problem nicht fertig geworden ist.
Also immer schön vorsichtig sein. :)


melden

Was ist "Entropy"?

05.06.2008 um 13:16
@rob
Es liegt einfach am Begriff der "Unordnung", der physikalisch gesehen nicht viel Sinn ergibt.


melden
JPhys ehemaliges Mitglied

Link kopieren
Lesezeichen setzen

Was ist "Entropy"?

05.06.2008 um 13:23
Zahl der Verschiedenen Zustaende die alle gleich aussehen

Stell dir einen Geschirschublade vor in die du wilkuerlich Messer und gabeln schmeist.

Alle Messer links alle Gabel rechts ist dann sehr unwahrscheinlich.

Viel wahrscheinlicher ist Messer und Gabel wild durcheinander. So das es Unordentlich aussieht.


Entropie ist ein Name fuer sehr Wahrscheinlich
Das mit der Unordnung ergibt sich darin dass wir das sehr wahrscheinliche meistens ziehmllich Caotisch finden. (Das ist aber unser Subjektives Ordnungsgefuehl)


melden

Was ist "Entropy"?

05.06.2008 um 13:31
"Entropie ist ein Name fuer sehr Wahrscheinlich"

Mit der Größe der Entropie lässt sich errechnen wie hoch die Wahrscheinlichkeit ist das das System einen bestimmten zustand einnimmt.


melden

Was ist "Entropy"?

05.06.2008 um 17:52
und genau deswegen ist das hier besser als Wiki :)


melden

Was ist "Entropy"?

05.06.2008 um 18:13
Dazu empfehle ich dir das Buch des Chaosforschers Jeremy Rifkin,ein beachtenswerter Querdenker,das Buch heisst,wie sollte es auch anders sein,Entropie

http://www.manfredhiebl.de/Physik/entropie.htm


melden
JPhys ehemaliges Mitglied

Link kopieren
Lesezeichen setzen

Was ist "Entropy"?

05.06.2008 um 19:13
also wie Gesagt die Entropie ist die Zahl der moeglichen Mikrozusatende die ein Makrozusatnd hat.

Bringen wir zwei System in Kontakt miteinander so dass sie Energie austauschen koennen.
Als Makrozustand fassen wir auf wenn System 1 eine Gewisse Energie U1 und System U2 eine Gewisse Energie U2 hat.

Mit der Energie U1 im System 1 kann man im System 1 K1 Ustaende erzeugen was eine Entropie von
S1=log(K1) ergibt.
Mit der Energie U2 im System 2 kann man im System 1 K2 Ustaende erzeugen
S2=log(K2) ergibt.

Was ist die Entropie des Gesamtsystem 1 und 2 zusammen
Man kann jeden Zustand des Systems 1 mit jedem Zustand des system 2 kombinieren und erhaelt
K=K1*K2
also
S=log(K)=log(K1*K2)=log(K1)+log(K2)=S1+S2
In einem vorgegebenen Makrozustand ist Entropie also Additiv.
Die Gesamtentropie ist die Summe der Einzelentropien.

Wie verteilt sich dann die Energie zwischen den Systemen?
So dass die Gesamtentropie Maximal wird!
wann wird etwas Maximal wenn die Ableitung Null ist/.

S(U1)=S1(U1)-S2(U-U1)
0=dS/dU1=dS1/dU-dS2/dU
Gleichgewicht ist erreicht wenn die Ableitungen der Entropie nach der Energie in beiden Systemen Gleich sind.

Gleichgewicht ist aber dann erreicht wenn beides die gleiche Temperatur hat.

Die Temperatur ist deshalb definiert als T=1/(dS/dU)
(Den Kehrwert deshalb weil man das so leichter messen kann weil die Waerme ausdehnung dazu proportional ist)
Aber wenn zwei Zahlen gleich sind ist ja bekanntlich auch ihr Kehrwert gleich.


(Ich habe in der Rechnung den Bolzmannfaktor weggelassen, da er zu Verstaendnis nichts beitraegt)


melden

Was ist "Entropy"?

17.01.2014 um 19:48
Entropie ist nicht sehr einfach zu bestimmen, obwohl es eine wichtige Größe ist, um System (z.B. Reaktionen) zu beschreiben.

Entropie ist eine sogenannte Zustandsgröße (so wie die Temperatur oder Druck), die ein System beschreibt. Die Größe Entropie ergibt sich aus dem zweiten Hauptsatz der Thermodynamik und gibt an, in welche Richtung eine Reaktion läuft. (jeder kennt den Ausdruck: bei einer freiwillig ablaufenden Reaktion nimmt die Entropie zu). Die Entropie berechnet sich aus der Formel S = k ln(W) [k = Bolzmannkonstante, W = Besetzungszustand]. Durch diese Formel wird immer umgangssprachlich gesagt, die Entropie ist ein Maß für die Unordnung.

Beispiel: Ideales Kristallgitter, alle Atome befinden sich am gleichen Platz => W = 1 => S = k ln(1) = 0 (was auch sein sollte).

ausführlicher http://www.lernort-mint.de/Physikalische%20Chemie/Termodynamik/entropie.html


melden

Was ist "Entropy"?

17.01.2014 um 22:08
@xchar
Keine Leichenschänderei bitte ^.^ Der Thread ist von 2008 und der Threadersteller hat seit 6 Jahren nichts mehr im Forum geschrieben.


1x zitiertmelden
Usul ehemaliges Mitglied

Link kopieren
Lesezeichen setzen

Was ist "Entropy"?

19.01.2014 um 15:44
Zitat von HYPATIAHYPATIA schrieb:Keine Leichenschänderei bitte
Ungeachtet dessen, weil das Thema ja vielleicht auch andere interessiert, möchte ich neben den oben genannten "thermodynamischen" Erklärungsversuchen noch eine aus der Informationstheorie anführen.

Angenommen du hast z. B. 12 Schubfächer, und in einem der Schubfächer findet sich der Goldklumpen (oder ein anderes Objekt deiner Begierde. Socken zum Beispiel). Du darfst Ja/Nein-Fragen stellen, um herauszufinden, in welcher Schubfach das Gold ist.

Du fragst nicht: "Ist es im 1. Fach - Nein", "Ist es im 2. Fach - Nein"...usw. das dauert viel zu lange.

Du fragst stattdessen: "Ist es in den ersten 6 Schubfächern? - Nein" --> Aha, es ist in den Schubfächern 7 bis 12.

"Ist es in den Schubfächern 7 bis 9? - Ja", "ist es in den Schubfächern 7 bis 8? - Nein". Aha, es ist im Schubfach 9.

Mit diesem Frag/Antwort-Schema kommst du am schnellsten zum Ziel. Im Mittel ist die Anzahl der Ja/Nein-Fragen die du stellen musst = log(N) mit dem Logarithmus zur Basis 2 und N = Anzahl der Schublade (im Beispiel N = 12). (Wikipedia: Entropie (Informationstheorie))


melden

Was ist "Entropy"?

19.01.2014 um 18:20
@Usul

Deine Beschreibung passt auch gut hierzu.

Divide and conquer algorithm


melden

Was ist "Entropy"?

25.02.2014 um 00:21
hab hier auch einen link für dich ...

http://www.weltderphysik.de/gebiete/theorie/entropie/


melden