Diskussion:Information

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen
Diese Diskussionsseite dient dazu, Verbesserungen am Artikel „Information“ zu besprechen. Persönliche Betrachtungen zum Thema gehören nicht hierher. Für allgemeine Wissensfragen gibt es die Auskunft.

Füge neue Diskussionsthemen unten an:

Klicke auf Abschnitt hinzufügen, um ein neues Diskussionsthema zu beginnen.

Das Bit als kleinste Informationseinheit

[Quelltext bearbeiten]

Ich könnte mir folgendes Denken: Information ist ...., die kleinste Informationseinheit ist das BIT -> Nun zuerst nachlesen, was ein Bit ist. Jetzt kann man auf dieser Basis die unterschiedlichen Aspekte von Information entwickeln. Ich bin gerne bereit, hier mitzuarbeiten Benutzer:Rainer Nase 07:46, 19. Jan. 2003

(wie macht man den Zeitstempel automatisch?)

Dieser Abschnitt kann archiviert werden. Bits werden seit längerem im Artikel thematisiert. ---<)kmk(>- (Diskussion) 05:56, 20. Jan. 2019 (CET)

Lesenswert-Diskussion Nov. 2005

[Quelltext bearbeiten]

Information (von lateinisch: informare 'bilden, durch Unterweisung Gestalt geben') ist ein potenziell oder tatsächlich vorhandenes nutzbares oder genutztes Muster von Materie und/oder Energieformen, die für einen Betrachter innerhalb eines bestimmten Kontextes relevant ist. Wesentlich für die Information ist die Wiedererkennbarkeit sowie der Neuigkeitsgehalt. Das verwendete Muster verändert den Zustand eines Betrachters – im menschlichen Zusammenhang insbesondere dessen Wissen. Formaler ist Information die Beseitigung von Unbestimmtheit.

Pro Antifaschist 666 23:50, 7. Nov. 2005 (CET)Beantworten

Üblicherweise begründet hier derjenige, der zuerst mit "Contra" stimmt, seine Meinung. Nicht zuletzt um den Autoren einen Hinweis zur Verbesserung des Artikels zu geben. --Bender235 00:51, 14. Nov. 2005 (CET)Beantworten

Informieren hat nicht nur die Bedeutung von "unterrichten" oder sich "Kenntnis zu verschaffen über irgend etwas". Informieren hat auch etwas zu tun mit in-formare - etwas formen. Wer informiert, der kann beeinflussen, formen, etwas in eine bestimmte Form bringen, indem er es auch in einer bestimmten Form vermittelt (Nachricht jemanden nach etwas richten). Wenngleich wir davon ausgehen können, dass jeder Mensch geprägt ist und dazu neigt, eher das zu glauben, was seine Meinung bestätigt, so lässt er sich trotzdem von Inhalten beeinflussen, die ihm vorgelegt werden. Gedanken lassen sich allein schon insofern steuern, als der Informant darüber bestimmt, was wir denken oder reden sollen. Er bestimmt das Denktraktandum. Es ist deshalb nicht verwunderlich, wenn z.B. bei Jugendlichen, die sich dauernd mit dem Thema Drogen auseinandersetzen müssen, plötzlich auch mit Drogen experimentiert wird. Das gedankliche Fokussieren hat allmählich unbewusst Interesse und Neugierde geweckt. Die Medien, welche die Themen und Bilder auswählen und bestimmen können, verfügen über ein grosses Machtmittel im Bereich Beeinflussung. Dann, wenn Information zur Desinformation wird, gilt es bei Beeinflussungsprozessen wachsam zu sein. Vorab dann, wenn der Informierende übertreibt, bewusst verknappt (Themen ausklammert) überbewertet, verdreht oder absichtlich oder unabsichtlich verfälscht. In Krisen- und Kriegssituationen hat sich bestätigt, wie wichtig Informationen als Beeinflussungselemente sind (2. Weltkrieg, Vietnamkrieg, Golfkrieg usw.) Wer informiert und wer informiert wird, muss sich ferner damit abfinden: Jedermann ist präformiert, das heisst geprägt, und kann das Subjektive nie vollständig ablegen.

Qualitative und quantitative Information

[Quelltext bearbeiten]

"Die grosse Tragödie unserer Gesellschaft ist, dass wir quantitativ über - und qualitativ unterinformiert sind. Wir wissen bedeutend mehr als unsere Vorfahren, doch wir wissen es bedeutend weniger gut, Wir müssen besser informiert werden im wahren Sinne des Wortes: auf bessere Weise, nicht durch mehr Informationen. Zu oft geht das Spektakuläre dem Wesentlichen vor, das Wichtige wird von Unfällen und Verbrechen überlagert, das Bedeutsame vom Sensationellen verdrängt. Überbordende Quantität und unzureichende Qualität bewirken eine ernsthafte Desinformation der Information, die viele Leute daran hindert, klarzusehen und Zusammenhänge richtig zu erkennen."

Quelle P.Lévy (Informationschef Europarat)

Definitionen in verschiedenen Wissenschaften/Anwendungsbereichen (Entwurf)

[Quelltext bearbeiten]

Der Begriff „Information“ ist nicht einheitlich und allgemeinverbindlich definiert [ref offen]. Anschließend finden sich Definitionen aus verschiedenen Bereichen. Die folgenden Kriterien beschreiben den Begriff Information weitgehend allgemeingültig, d.h. unabhängig von konkreten Anwendungsgebieten(~):

  • Informationen basieren i.d.R. auf 'Daten', sind aber nicht identisch mit dem Datenbegriff
  • Es entsteht 'Wissenszuwachs' beim Empfänger in einem bestimmten Kontext, also empfänger-/situationsabhängig
  • Zu unterscheiden sind die Ebenen Code, Syntax, Semantik, Pragmatik
  • Unabhängig vom Auslöser des Info-Transfers: Empfangen nach aktivem Senden (Zeitung) oder 'abrufen' durch den Empfänger (Internet)
  • ...
  • Definition: xxxx <referenzen>
  • <Erläuterungen>

(einzelne Definitionen)

[Quelltext bearbeiten]

VORBY; Hier vorläufig nicht als Gliederungspunkte formatiert

=== Informatik ===
=== Ingenieurwissenschaften, insbesondere
Informationstheorie, Nachrichtentechnik ===
  • Definition: < noch raussuchen, sinngemäß: Daten, die den Zustand eines Systems verändern. Steht irgendwo ziemlich am Anfang von A mathematical theory of communication >
  • Alternative Formulierung: Information ist der Anteil eines Signals (bzw. von Daten) der interpretierbar aber nicht vorhersehbar ist.

Grundlage des Informationsbegriffs in der Nachrichtentechnik ist die Arbeit „A mathematical theory of communication“ (dt.: Mathematische Grundlagen in der Informationstheorie)[1][2] von Claude Shannon. Er sieht Information nicht als eine Eigenschaft bestimmter Daten an, sondern als Eigenschaft eines Verarbeitungsprozesses dieser Daten durch den Empfänger oder eines verarbeitenden Systems. Die selben Daten können je nach Kontext also einmal Informationen darstellen, in einem anderen Fall aber nicht.

In späteren Arbeiten hat Shannon seine Theorie weiter ausgebaut: „Communication in the presence of noise“[3] (Nachrichtenübermittlung bei vorhandenen Störungen) und „Communication Theory of Secrecy Systems“[4] (Theorie verschlüsselter Kommunikation)

Shannons Theorie bildet die Grundlage für die Auslegung aller Arten von Datenübertragungs-Systemen, sowie für Datenkompression und lieferte wichtige Grundlagen für die Kryptographie als wissenschaftlicher Theorie.

Missverständnisse:
Für die Fähigkeit eines Signals oder Datenstroms Informationen zu transportieren hat Shannon den Begriff der Entropie eingeführt. Es hält sich weithin das Missverständnis, dass die Entropie ein Maß für den Informationsgehalt sei. Das ist aus zwei Gründen falsch:

  • Die Entropie ist ein Maß für die Fähigkeit Information zu transportieren. Es stellt damit eine Obergrenze dar. Die Entropie lässt aber keine Aussage darüber zu, ob diese Fähigkeit tatsächlich dazu benutzt wird Information im Shannon'schen Sinne zu übertragen, oder die Daten z.B. redundant sind oder vom Zielsystem interpretiert werden können.
  • Die Entropie bezieht sich nicht auf einen Informations-Gehalt, sondern auf eine Informations-Dichte, nämlich Bit pro übertragenem Zeichen. Um auf die Obergrenze der Informations-Gehalts zu kommen muss die Entropie noch mit der Anzahl der Zeichen multipliziert werden.
Anmerkung

Das Missverständnis hält sich wohl auch deshalb so hartnäckig, weil es im entsprechenden Artikeln in Wikipedia fehlerhaft dargestellt ist. Leider fehlt mir im Moment die Zeit, das mal sorgfältig und mit Quellen untermauert durchzuarbeiten. --MRewald (Diskussion) 14:15, 21. Jul. 2018 (CEST)Beantworten

=== Informationsökonomik ===
=== Semiotik ===
=== Informationswissenschaft, Dokumentations- und Ordnungslehre, Bibliothekarisches Grundwissen ===

Siehe derzeitiger Artikeltext

Anmerkung

Der derzeitige Artikeltext verwendet die Vokabeln Signal und Nachricht, die in der Nachrichtentechnik eine definierte Bedeutung haben. Die Annahme, dass die Bedeutung in der Dokumentations- und Ordnungslehre identisch ist, halte ich für kühn. Das sollte zumindest geprüft werden und gegebenenfalls die Unterschiede erläutert.

=== Mathematik ===
=== Allgemeiner Sprachgebrauch ===

Im allgemeinen Sprachgebrauch wird zwischen Daten und Informationen oft nicht unterschieden. --MRewald (Diskussion) 19:55, 21. Jul. 2018 (CEST)Beantworten

=== Philosophie ===
=== Biologie ===
=== Neuroinformatik ===
=== Soziologie ===
  1. Claude Elwood Shannon: A Mathematical Theory of Communication. In: Bell System Technical Journal. Band 27. Short Hills, 1948, ISSN 0005-8580, S. 379–423, 623–656 (ieee.org [abgerufen am 21. Juli 2018]).
  2. Am Anfang war das Bit: zum 100. Geburtstag von Claude Shannon. In: heise online. Abgerufen am 30. April 2016.
  3. Claude Elwood Shannon: Communication in the presence of noise. Nachdruck. Das Original wurde 1948 veröffentlicht. In: MIT (Hrsg.): Proceedings of the IEEE. Band 86, Februar 1998 (mit.edu [PDF; abgerufen am 21. Juli 2018]).
  4. Claude Elwood Shannon: Communication Theory of Secrecy Systems. Nachdruck. Original wurde 1949 veröffentlicht]]. Hrsg.: UCLA. (ucla.edu [PDF; abgerufen am 21. Juli 2018]).

Diskussion zu den Entwürfen

[Quelltext bearbeiten]

Hi @MRewald, zu Nachrichtentechnik: Nach meiner Vorstellung sollten die einzelnen Kapitel sehr viel kürzer ausfallen. Die jeweilige Sicht wäre dann zunächst verständlicher und könnte mit anderen Sichten leichter verglichen werden. Ob 'Entropie' wirklich nur der Nachrichtentechnik zugordnet werden kann? Lt Entropie (Informationstheorie) (auf das Du dich wohl inhaltlich beziehst) ist das anscheinend nicht der Fall, sondern stammt aus deer 'Informationstheorie'. Wahrscheinlich überschneiden sich verschiedene 'Wissensgebiete' diesbezüglich erheblich, gerade deshalb sollten wir hier nur ganz kurz das Wesentliche beschreiben. Mehr könnte man ggf. in eigenen Artikeln unterbringen, sodass hier wirklich nur Allgemeingültiges steen würde. --VÖRBY (Diskussion) 16:11, 21. Jul. 2018 (CEST)Beantworten

Hi @VÖRBY: Das Wort Entropie ist der Physik und der Chemie entlehnt und wurde meines Wissens von Shannon in der zitierten Arbeit für die Informationstheorie eingeführt. Shannon gilt als Begründer der Informationstheorie, deshalb sehe ich da keinen Widerspruch zwischen Informationstheorie und Shannon. Es gibt allerdings Vorarbeiten, zu denen zum einen sicherlich Shannons Doktor-Vater en:Frank Lauren Hitchcock gehört, ebenso seine älteren Kollegen Harry Nyquist (Nyquist-Shannon-Abtasttheorem), Ralph Hartley (Shannon-Hartley-Gesetz). Beiträge geleistet hat sicherlich auch seine Kollegin und spätere Ehefrau en:Betty Shannon, auch wenn sie als Co-Autorin in den Veröffentlichungen nicht genannt wird. Ebenso könnte man Shannons Doktorarbeit An Algebra for Theoretical Genetics im weiteren Sinne zu den Voarbeiten rechnen.
Das habe ich jetzt so schnell greifbar, weil ich es einfach aus einem Vortrag kopieren konnte, den ich vor einigen Monaten gehalten habe.
Was das Kürzen anbelangt, kann ich Deinen Wunsch gut nachvollziehen. Wir sind hier aber ja im Diskussions-Forum und es muss nicht alles in den Artikel übernommen werden. Insbesondere meine Anmerkung ist für den Artikel wohl eher nicht geeignet. Als Hintergrund-Information würde ich die Angaben, hier im Diskussionsforum, aber gerne stehen lassen, weil die Abweichungen zu anderen Wikipedia-Artikeln sonst nicht nachvollziehbar sind.
--MRewald (Diskussion) 16:59, 21. Jul. 2018 (CEST)Beantworten
Den Abschnitt Informationstheorie und Informationswissenschaft halte ich für etwas unglücklich gewählt.
Informationstheorie ist die mathematische Theorie, die von Shannon begründet wurde. Der Informations-Begriff ist damit identisch mit dem der Nachrichtentechnik. Informationswissenschaft dagegen hat einen engen Bezug zu Archiv- und Bibliothekswissenschaft und ist damit historisch erheblich älter. Es dürfte sich IMHO eher in Richtung der Überschrift Dokumentations- und Ordnungslehre bewegen. Da es dabei auch nicht um die Übermittlung von (potentieller) Information geht, sondern um deren Ordnung und Auffindbarkeit, vermute ich, dass sich der Informations-Begriff hier an wesentlich statischeren Vorstellungen orientiert. Das ist schon ein erheblicher Unterschied zu Shannon.
--MRewald (Diskussion) 20:15, 21. Jul. 2018 (CEST) überarbeitet --MRewald (Diskussion) 20:46, 21. Jul. 2018 (CEST)Beantworten
Du kannst das gerne anpassen. --VÖRBY (Diskussion) 08:43, 22. Jul. 2018 (CEST)Beantworten
Ok, ich wollte die Stichworte nicht löschen und habe sie deshalb etwas gruppiert, wie sie IMHO zusammen gehören. Vermutlich könnte man noch weiter gruppieren, aber von Gebieten, mit denen ich mich zu wenig auskenne habe ich die Finger gelassen.
Da mir das Thema im Moment etwas durch den Kopf geht, formuliere ich mal eine Hypothese zu den Kriterien von Information. Ein wesentlicher Unterschied scheint mir zu bestehen zwischen
* Informations-Übermittlung und
* Speichern und Bereithalten von Informationen
Beim Info-Transfer, werden die Daten entgegen genommen, wie sie sind und es geht um die lediglich kategorisiert unter dem Aspekt: Können die Daten verworfen werden oder müssen sie weiter geleitet werden. Eine weitere Sortierung oder Gruppierung findet nicht statt. Im Vordergrund steht dabei ein aktuell laufender Prozess, die Kriterien dafür, Daten zu verwerfen liegen stärker auf der Seite, sie zu verwerfen.
Beim Speichern von (potentiellen) Informationen geht es dagegen schwerpunktmäßig darum, die Daten so zu ordnen, dass sie bei Bedarf wieder gefunden werden können. In zweiter Linie dann schon auch, ob sie zu einem spezifischen Fachgebiet etwas beitragen oder nicht. Die Kriterien, ob Daten aufgenommen oder verworfen werden, werden in diesem Fall vermutlich auf der Seite liegen: "Wir wissen noch nicht, ob das nochmal zu gebrauchen sein wird. Im Zweifel eher speichern". VÖRBY: Das trifft nur auf den Begriff 'Daten' zu.
Das impliziert die folgende Unterscheidung:
* wird die Eigenschaft fest gemacht an einen konkreten Bearbeitungsprozess (die technische Sicht) oder
* wird die Eigenschaft daran fest gemacht, ob es für irgend jemanden in der Zukunft eine Information darstellen könnte (Bibliothekars-Sicht) VÖRBY: Dann ist das jetzt noch keine Information
Gemeinsam ist den beiden sicherlich: Was wert ist, gespeichert zu werden ist eine Information, alles Andere sind Daten ohne Informations-Charakter.
Kriterien, was eine Information ist, oder nicht, könnten sein:
* Kann es interpretiert werden? (ist es z.B. in einer passenden Sprache geschrieben, ist es verschlüsselt und verfüge ich über den Schlüssel)
* Ist es bereits bekannt?
* Kann es in einen bekannten Kontext eingeordnet werden?
* Hat es Konsequenzen?
* Ist es von Interesse?
Mit Ingetraut Dahlberg habe ich mich z.B. darüber gestritten, ob statistische Analysen Information vernichten oder generieren.
* Die Position der Informationswissenschaftlerin dabei: Die ursprünglichen Daten hätten noch nach verschiedenen Aspekten ausgewertet werden können, die in der statistischen Aggregation nicht mehr erkennbar sind, also wurde Information vernichtet.
* Meine (technische) Position: Ein Datenwust, der so komplex ist, dass ich vor lauter Bäumen den Wald nicht mehr sehe, enthält für mich keine Informationen, da ich ihn nicht interpretieren kann. Die Verkürzungen, die durch eine statistische Analyse unbestritten erzeugt werden, reduzieren den Datenumfang soweit, dass ich überhaupt erst in die Lage versetzt werde, etwas zu verstehen, also wird dadurch Information überhaupt erst erzeugt, folglich also hinzugefügt.
Das geht jetzt etwas in Richtung Theorie-Findung, aber vielleicht inspiriert es den Einen oder die Andere in der Runde, eine Literaturstelle zu finden, mit der es dann wiki-würdig wird.
--MRewald (Diskussion) 13:44, 22. Jul. 2018 (CEST)Beantworten
Hallo @MRewald. Ich fürchte, mit Deinen Ansätzen beginnt wieder (mal) eine ganz neue Diskussion; wie in der Disk schon häufig begonnen und kaum beendet. Meine Meinung (bin kein Info-Wissenschaftler!) dazu war/ist, dass der Artikel lediglich noch unterschiedliche Definitionen gegenüberstellen sollte; die Grund-Eigenschaften von Informationen sind im Artikel bereits korrekt behandelt. Das wäre dann also eine kleine Ergänzung/Überarbeitung.
So wie ich den Begriff 'Information' interpretiere, ist das ein recht abstrakter Sachverhalt: Erst beim (jeweiligen!) 'Empfänger' und abhängig von dessen 'Wissensbedarf' in einem bestimmten 'Kontext' entsteht "Information"; siehe derzeitiger Einleitungssatz und Aussagen unter 'Eigenschaften' etc. Wenn von 'Speichern' und 'Auswerten' die Rede ist, dann bezieht sich das ausschließlich auf 'Daten', denn Informationen im definierten Sinn können nicht gespeichert werden - außer in der Bedeutung als Synonym für Daten. Ich stimme Dir also zu: Bei statistischen Auswertungen/Analysen werden keine Informationen vernichtet, sondern es entstehen zunächst neue Daten - die potenziell zu Informationen werden können; so wie aus den der Analyse zugrunde liegenden originären Daten ebenfalls wieder (und mehrfach) Informationen werden können.
Eine ganz andere Möglichkeit wäre, den Artikel vollkommen neu zu schreiben. Da bin ich aber 'draußen'.
Grüße von --VÖRBY (Diskussion) 17:34, 22. Jul. 2018 (CEST); ergänzt: --VÖRBY (Diskussion) 12:17, 8. Aug. 2018 (CEST)Beantworten
In Anbetracht des wirklich desaströsen Zustandes dieses Artikels, der keinerlei enzyklopädischen Wert hat, finde ich diese Vorstellung attraktiv. Insbesondere deswegen, weil eine Mehrheit an Personen und Referenzen zwischen Daten und Informationen klar unterscheidet und Du nicht. 16:32, 26. Jul. 2018 (CEST) West of House (Diskussion)
Neu schreiben: Wer tut das? Nach welchen Belegen? Nur zu!
So desaströs finde ich ihn ja nun nicht, schließlich sind alle wesentlichen Aspekte 'belegt'. Ich denke, sie basieren i.W. auf der Schnittmenge von Kriterien aus verschiedenen Definitionen. Trotzdem könnten/sollten mehrere Definitionsunterschiede klarer herausgestellt werden, die Absicht des o.a. Abschnitts.
"Und Du nicht:" Lies den Artikel mal genau, dann wirst Du sehen, dass die Gleichsetzung von Information und Daten von 4 genannten Quellen als lediglich "umgangssprachlich gleichbedeutend" beschrieben werden - was wohl auch nicht falsch ist (und deshalb erwähnenswert). --VÖRBY (Diskussion) 10:10, 27. Jul. 2018 (CEST)Beantworten

Sind die Aktivitäten hier eingeschlafen? Meine Sicht: Wenn es Texte zu weiteren Bereichen für Informationsdefinitionen gibt, können diese in diesem Abschnitt ergänzt werden. Ich schlage vor, den QS-Baustein demnächst zu löschen.--VÖRBY (Diskussion) 12:53, 22. Aug. 2018 (CEST)Beantworten

Was mich betrifft, war ich ausgiebig in Urlaub und bin auch in der nächsten Zeit etwas knapp mit der Zeit.
Was die bisherige Diskussion angeht: Wenn es tatsächlich eine einheitliche Sichtweise über alle Disziplinen gibt, würde ich das zwar sehr begrüßen. Allerdings hatte ich in der Vergangenheit schon heftige Diskussionen, in denen Vertreter anderer Disziplinen eine andere Vorstellung von Information vertreten haben und dafür auch reklammiert haben, dass das keine umgangssprachliche Vorstellung ist. Ich bin deshalb nicht sehr optimistisch, dass es über alle Fachgrenzen hinweg eine einheitliche Vorstellung gibt.
Ich selbst kann nur für die Nachrichtentechnik sprechen, denke aber dass diese Vorstellung über die Nachrichtentechnik hinaus weitgehend auch im restlichen Ingenieurbereich geteilt wird. Es scheint aber zumindest Unterschiede zu den Informatikern und zu den Bibliothekaren/Informationswissenschaftlern zu geben.

--MRewald (Diskussion) 13:23, 22. Aug. 2018 (CEST)Beantworten

Hallo, willkommen zurück (aus dem Urlaub). Dass es Unterschiede gibt, ist zweifelsfrei. Diese zu beschreiben ist das Ziel des entsprechenden Abschnitts. Die bisherigen Texte im Artikel behandeln m.E. Aspekte, die über die Disziplinen hinweg wohl einheitlich gesehen werden - zur Einleitung den intraindividuellen Wissenszuwachs in einem bestimmten Kontext, 'Info-Kanal', Sender/Empfänger usw. Auch die Bedeutungsschwerpunkte, die Eigenschaften und Beispiele und die strukturellen Aspekte sind m.E. mehr oder weniger allgemeingültig, vielleicht manchmal etwas zu detailliert beschrieben (wie Modelle/Kommunikationsmodell, Transport, Entstehung ...). Trotzdem denke ich, man kann im Abschnitt (.. verschiedene Wissenschaften) Unterschiede der jeweilien Definitionen kurz erläutern - mit Quelle; das sollte dann genügen. Für breitere Abhandlungen müsste man wohl spezielle Artikel halten (wie 'Information (Soziologie)' u.a.). --VÖRBY (Diskussion) 16:44, 22. Aug. 2018 (CEST)Beantworten

Letzte Überarbeitung

[Quelltext bearbeiten]

Hi @KaiMartin, Deine Überarbeitungen haben m.E. einige zum Verständnis beim Leser nicht unwesentliche Aspekte zu Information 'wegrationalisiert'. Dies sind:

  • in [1]: 'menschen ... Systeme' als mögliche Empfänger; 'aktionsprägend': nützliche Präzisierungen.
  • in [2]: 'filtern, erweitern, verknüpfen' als i.Z. mit der Nutzung von Informationen durch den Empfänger wesentliche Aspekte.

Magst Du nochmal drüberschauen? --VÖRBY (Diskussion) 09:47, 20. Jan. 2019 (CET)Beantworten

@KaiMartin, ich würde ansonsten diese Angaben wieder in Kurzform einstellen.--VÖRBY (Diskussion) 17:03, 22. Jan. 2019 (CET)Beantworten
Die entfernten Textpassagen finden sich in 'zig' Online-Fundstellen wieder. Auch wenn nicht immer klar ist, wer von wem abgeschrieben hat: Sie wurden in 'namhaften' Sites und Büchern wörtlich oder sinngemäß übernommen. gelten also bei jenen Autoren als Lemma-relevante Aussagen/Eigenschaften.--VÖRBY (Diskussion) 12:36, 26. Jan. 2019 (CET)Beantworten

Ich habe das heute entsprechend wieder ergänzt. Siehe [3]--VÖRBY (Diskussion) 12:48, 28. Jan. 2019 (CET)Beantworten

Definition zu eng

[Quelltext bearbeiten]

Beispiel: 'Genetischer Code': Der Artikel wird dem Gebrauch des Begriffs in der Biologie nicht gerecht, praktisch unterschlägt er ihn sogar. Oder ist das woanders schon richtig dargestellt? Als Anhaltspunkt: Paul Nurse in "Was ist Leben" nennt Information als eines der 5 wesentlichen Charakteristika von Leben schlechthin. --Bleckneuhaus (Diskussion) 16:40, 8. Feb. 2022 (CET)Beantworten

Die Definition ist also zu eng, auch hier: Die Einleitung („Beim Empfänger führt die Information zu einem Zuwachs an Wissen.“) beschränkt den Begriff offenbar auf Empfänger, die so etwas wie Wissen haben können. Das schließt so wichtige Anwendungsgebiete wie biologische Prozesse (Vererbung, Stoffwechsel, Immunreaktion, .... .... ) aus, fälschlich. --Bleckneuhaus (Diskussion) 16:46, 8. Feb. 2022 (CET)Beantworten

Hallo, und Danke für Deine Hinweise. Vorschlag: Ergänze den artikel entsprechend, z.B. in "Der Begriff in verschiedenen Wissenschaften/Fachrichtungen". Der Abschnitt "Information als Veränderung" beschreibt ein sehr allgemeines Charakteristikum - das evtl. auch in den von Dir genannten Zusammenhängen zutrifft. So wie auch "Wissenszuwachs" etwas sein könnte, das auch im Bio-Bereich, dort vlt mehr oder weniger indirekt zutrifft. Sorry, ich habe Deine beiden Hinweise zu einem zusammengefasst.--VÖRBY (Diskussion) 12:02, 9. Feb. 2022 (CET)Beantworten

Fehlende Referenzen im Abschnitt "Struktur und Bedeutung"

[Quelltext bearbeiten]

Im Abschnitt "Struktur und Bedeutung" hat es keine Referenzen. Der Abschnitt scheint eine inhaltlich weitreichende Ausdifferenzierung der bekannten Semantik-Syntax-Dualität zu sein. Die Richtigkeit bezweifle ich nicht, Quellen wären trotzdem wünschenswert. Evtl. ist das Material für Kommunikationswissenschfler:innen, Kognitionswissenschaftler:innen u.Ä. standard, mir ist es nicht geläufig.

Der Punkt "Codierung" wurde von [4] eingefügt. Siehe [5].

Die anderen drei Ebenen sind erstmals in der Version [6] von [7] genannt.

Vielleicht können diese Nutzer ja Quellen beisteuern.

In der englischen Wikipedia hat es im Artikel zu Linguistik [8] ein Diagramm, das diese 4er-Hierarchie im kontext der Linguistik auf eine 6er-Hierarchie erweitert [9]. Im Abschnitt über Grammatik [10] wird diese Hierarchie durch weitere Kategorien verfeinert. Ob und wie diese für die Linguistik offenbar belegte Einteilung auch für die Informationstheorie, bezüglich derer dieser deutsche Wikipediaartikel den Begriff Information klären will, allgemein gilt, ist mir nicht klar. Es bräucht also Belege für diese Hierarchie im Kontext der Informationstheorie.

--Tpreu (Diskussion) 19:05, 2. Sep. 2023 (CEST)Beantworten

Habe zwei Quellen - Rechenberg und Werner -, die auch in der allgemeinen Literatur genannt werden, als explizite Quellen mit Seitenangaben ergänzt. Die 4er-Hierarchie erscheint in diesen Quellen nur implizit. Eine bessere Quelle für die 4er-Hierarchie wäre immer noch wünschenswert. --Tpreu (Diskussion) 18:17, 3. Sep. 2023 (CEST)Beantworten