Analogie und Negentropie: Unterschied zwischen den Seiten

Aus AnthroWiki
(Unterschied zwischen Seiten)
imported>Odyssee
Keine Bearbeitungszusammenfassung
 
imported>Odyssee
Keine Bearbeitungszusammenfassung
 
Zeile 1: Zeile 1:
Als '''Analogie''' (von {{ELSalt|ἀναλογία}}, „Verhältnis“) wird in der [[Philosophie]] die [[Gleichheit]] oder [[Ähnlichkeit]] beliebiger [[Struktur]]en hinsichtlich bestimmter [[Eigenschaft]]en bezeichnet. Ein [[Analogieschluss]] oder [[Analogismus]] ist eine [[Schluss]]folgerung, die auf der Analogie zwischen Objekten beruht.
__NOTOC__
Der Begriff '''negative Entropie''', später verkürzt zu '''Negentropie'''<ref>Der Physiker [[Wikipedia:Léon Brillouin|Léon Brillouin]] verkürzte die Bezeichnung später zu Negentropie, um den ganzen Sachverhalt auf "positivere" Weise auszudrücken.</ref>, wurde von dem [[Wikipedia:Österreich|österreichischen]] [[Wikipedia:Quantenphysik|Quantenphysik]]er [[Wikipedia:Erwin Schrödinger|Erwin Schrödinger]] in seinem wegweisenden Buch ''„Was ist Leben?“'' geprägt. [[Leben]] ist nach Schrödinger etwas, das negative [[Entropie]] aufnimmt bzw. - was gleichbedeutend ist - positive Entropie abgibt. [[Informationstheorie|Informationstheoretisch]] bedeutet das die beständige Aufnahme von [[Information]]. Die Negentropie ist groß, wenn eine Zeichenfolge viel Information enthält, bei einer zufälligen Zeichenfolge hingegen klein bzw. bei völliger [[Wikipedia:Gleichverteilung|Gleichverteilung]] 0 (die Entropie ist dann maximal). Sie wird daher auch definiert als „''durchschnittlicher Informationsgehalt des Einzelzeichens innerhalb einer gegebenen Zeichenmenge''“<ref>http://www.spektrum.de/lexikon/biologie/negentropie/45639</ref>. Die Negentropie ist groß, wenn eine Zeichenfolge viel Information enthält, bei einer zufälligen Zeichenfolge hingegen klein bzw. bei völliger [[Wikipedia:Gleichverteilung|Gleichverteilung]] 0 (die Entropie ist dann maximal). Die Negentropie <math>J</math> einer diskreten Zufallsvariable <math>y</math> wird daher auch über die [[Redundanz]] definiert<ref>ISO/IEC DIS 2382-16</ref>:


In der [[Antike]] wurde der [[Begriff]] der Analogie zunächst für [[Mathematik|mathematische]] bzw. [[Geometrie|geometrische]] Proportionen gebraucht. [[Platon]] führte ihn in die Philosophie ein, da er gemäß seiner [[Ideenlehre]] der Ansicht war, dass die [[Sinnliche Welt|sichtbare Welt]] ein vergängliches [[Abbild]] der [[ewig]]en [[Ideenwelt]] sei, und darum letztere durch ihr [[sinnlich]]es '''Analogon''' [[Erkenntnis|erkannt]] oder zumindest beschrieben werden kann. In der [[christlich]]en Philosophie des [[Mittelalter]]s versuchte man die Frage zu klären, wie man mittels Analogien sinnvoll von [[Gott]] sprechen könne. In der [[Neuzeit]], d.h. im beginnenden [[Bewusstseinsseelenzeitalter]], wurde das analogische Denken in den [[Naturwissenschaft]]en sehr lange erfolgreich benutzt, um die auf dem Gebiet der [[Mechanik]] aufgefundenen und mathematisch formulierten Gesetze auch für ganz andere [[Phänomen]]bereiche nutzbar zu machen. So wurde etwa die mechanische Wellenlehre auf das [[Licht]] übertragen und dieses analog als [[elektromagnetische Welle]] beschrieben. Damit wurde aber zugleich das mechanistische [[Denken]] in Weltbereiche hineingetragen, das diesen nur sehr bedingt angemessen ist und dessen [[wesen]]tlichste Eigenschaften dadurch gerade ausgeblendet wurden. Das hat auch [[Rudolf Steiner]] ganz klar erkannt und darum auf die große Bedeutung der [[Goetheanistische Naturwissenschaft|Goetheanistischen Naturanschuung]] hingewiesen, die diesem Fehler nicht unterliegt.
:<math>J(y) = H(y_{\text{gleich}}) - H(y)</math>


== Biologie ==
Wesentlich ist dabei, dass die [[Entropie]] <math>H(y)</math> des Systems mit negativem Vorzeichen eingeht; der erste Term dient der Normierung und entspricht der vollständigen Gleichverteilung <math>y_{\text{gleich}}</math>.


=== Analogie und Homologie ===
[[Datei:Mischentropie.jpg|miniatur|250px|Die [[Wikipedia:Mischungsentropie|Mischungsentropie]]]]
In der [[Biologie]] spricht man von Analogie, wenn verschiedene Ordnungen ([[Wikipedia:Taon|Taxa]]) von Lebewesen unabhängig voneinander ähnliche (''analoge'') [[Merkmal]]e, [[Organe]], [[Gene]], [[Verhalten]]sweisen u. dgl. entwickeln, die ihre Vorfahren noch nicht hatten. Es handelt sich also um eine '''Parallelentwicklung''' bzw. um eine '''konvergente Evolution''' oder kurz um eine '''Konvergenz'''. Ein gutes Beispiel dafür ist etwa die sehr ähnliche Schädelbildung des [[Wikipedia:Wolf|Wolf]]s und des mittlerweile ausgestorbenen [[Wikipedia:Beutelwolf|Beutelwolf]]s oder die Konvergenz von [[Wikipedia:Igel|Igel]] und [[Wikipedia:Ameisenigel|Ameisenigel]].
Oft wird die Negentropie auch als Maß für die [[Ordnung]] bzw. [[Komplexität]] eines [[System]]s interpretiert. Diese Definition ist jedoch nur mit Vorsicht zu gebrauchen, da unser intuitiver Ordnungsbegriff in vielen Fällen nicht mit der statistischen Definition der Entropie übereinstimmt. Auch wurde bislang noch kein allgemeingültiger physikalischer Ordnungsbegriff formuliert. Eher lässt sich die Entropie als ''Maß für die Unwissenheit'' bzw. für den mangelnden [[Information]]sgehalt eines Systems auffassen. Das lässt am Beispiel der Mischungsentropie gut veranschaulichen. Im nebenstehenden Bild ist im linken Glas der Farbstoff noch nicht völlig gleichmäßig verteilt, die Entropie ist also kleiner als im rechten Glas, wo bereits eine vollständige Gleichverteilung des Farbstoffs stattgefunden hat. Schon rein anschaulich bietet uns das rechte Bild viel weniger Informationen als das wesentlich detailreichere linke Bild.


Wurden hingegen die einander ähnlichen Eigenschaften der verschiedenen Taxa von einem (vielleicht zeitlich weiter zurückliegenden) gemeinsamen Vorfahren ererbt, spricht man von '''Homologie'''.
Aus [[anthroposophisch]]er Sicht hängt die Negentropie mit der Wirkung [[ätherisch]]er [[Bildekräfte]] zusammen.


[[Kategorie:Philosophie]] [[Kategorie:Erkenntnistheorie]] [[Kategorie:Analoges Denken]]
== Siehe auch ==
* {{WikipediaDE|Negentropie}}
 
== Literatur ==
 
* Erwin Schrödinger: ''Was ist Leben? - Die lebende Zelle mit den Augen des Physikers betrachtet'', Leo Lehnen Verlag (Sammlung Dalp), München, 1951, 2.Aufl.
* [[Joachim Stiller]]: [http://joachimstiller.de/download/sonstiges_entropie.pdf Was ist Enthropie?] PDF
 
== Weblinks ==
 
* [http://www.chemie.de/lexikon/Negentropie.html Negentropie]] auf [[http://www.chemie.de chemie.de]
 
== Einzelanchweise ==
<references/>
 
[[Kategorie:Physik]] [[Kategorie:Wärme]] [[Kategorie:Thermodynamik]] [[Kategorie:Informationstheorie]]

Version vom 9. Februar 2018, 17:10 Uhr

Der Begriff negative Entropie, später verkürzt zu Negentropie[1], wurde von dem österreichischen Quantenphysiker Erwin Schrödinger in seinem wegweisenden Buch „Was ist Leben?“ geprägt. Leben ist nach Schrödinger etwas, das negative Entropie aufnimmt bzw. - was gleichbedeutend ist - positive Entropie abgibt. Informationstheoretisch bedeutet das die beständige Aufnahme von Information. Die Negentropie ist groß, wenn eine Zeichenfolge viel Information enthält, bei einer zufälligen Zeichenfolge hingegen klein bzw. bei völliger Gleichverteilung 0 (die Entropie ist dann maximal). Sie wird daher auch definiert als „durchschnittlicher Informationsgehalt des Einzelzeichens innerhalb einer gegebenen Zeichenmenge[2]. Die Negentropie ist groß, wenn eine Zeichenfolge viel Information enthält, bei einer zufälligen Zeichenfolge hingegen klein bzw. bei völliger Gleichverteilung 0 (die Entropie ist dann maximal). Die Negentropie einer diskreten Zufallsvariable wird daher auch über die Redundanz definiert[3]:

Wesentlich ist dabei, dass die Entropie des Systems mit negativem Vorzeichen eingeht; der erste Term dient der Normierung und entspricht der vollständigen Gleichverteilung .

Die Mischungsentropie

Oft wird die Negentropie auch als Maß für die Ordnung bzw. Komplexität eines Systems interpretiert. Diese Definition ist jedoch nur mit Vorsicht zu gebrauchen, da unser intuitiver Ordnungsbegriff in vielen Fällen nicht mit der statistischen Definition der Entropie übereinstimmt. Auch wurde bislang noch kein allgemeingültiger physikalischer Ordnungsbegriff formuliert. Eher lässt sich die Entropie als Maß für die Unwissenheit bzw. für den mangelnden Informationsgehalt eines Systems auffassen. Das lässt am Beispiel der Mischungsentropie gut veranschaulichen. Im nebenstehenden Bild ist im linken Glas der Farbstoff noch nicht völlig gleichmäßig verteilt, die Entropie ist also kleiner als im rechten Glas, wo bereits eine vollständige Gleichverteilung des Farbstoffs stattgefunden hat. Schon rein anschaulich bietet uns das rechte Bild viel weniger Informationen als das wesentlich detailreichere linke Bild.

Aus anthroposophischer Sicht hängt die Negentropie mit der Wirkung ätherischer Bildekräfte zusammen.

Siehe auch

Literatur

  • Erwin Schrödinger: Was ist Leben? - Die lebende Zelle mit den Augen des Physikers betrachtet, Leo Lehnen Verlag (Sammlung Dalp), München, 1951, 2.Aufl.
  • Joachim Stiller: Was ist Enthropie? PDF

Weblinks

Einzelanchweise

  1. Der Physiker Léon Brillouin verkürzte die Bezeichnung später zu Negentropie, um den ganzen Sachverhalt auf "positivere" Weise auszudrücken.
  2. http://www.spektrum.de/lexikon/biologie/negentropie/45639
  3. ISO/IEC DIS 2382-16