„Tainted Reality“ und die „Convenience Trap“: Über die verschmutzte Wirklichkeit

Warum wir guten professionellen Journalismus und eine engagierte Presse dringend brauchen

Essay von Walther

Von Dr. Gugl, Troll, Buggy Data, Fakebook, Trickypedia, Hoax und Co.

Wer meint, nur Bundesminister wie Graf Guttenberg oder Annette Schavan und viele andere falsche Doctores schrieben ab, der lügt sich mächtig in die eigene Tasche. Wir alle tun es. Und zwar sicherlich mindestens täglich viertelstündlich, jeder für sich. Weltweit wird zu jedem beliebigen Zeitpunkt an Myriaden von Internetzugriffspunkten hemmungslos kopiert und sich mit fremden Federn geschmückt.

Jeder, der für seine Recherchen Werkzeuge wie Google oder Wikipedia benutzt, verwendet Information und Daten aus zweiter Hand. Er vertraut dem Auswurf von Schlagwortsuchen mit Hilfe dieser Werkzeuge, die das Wissen des Weltweitwebs selektieren und vorstrukturieren. Das Vertrauen geht so weit, dass es anscheinend keinen Zweifel über die Korrektheit der so gefundenen Auskünfte mehr gibt.

Dieses Vertrauen allerdings ist völlig fehl am Platz. Es schafft erst den Platz für die intelligent getunte bzw. getürkte Lüge, die sich am liebsten als „reine Wahrheit“ tarnt.

Zum einen liegt das daran, dass es zum Geschäftsmodell von Google gehört, durch die Veränderung von Trefferhierarchien Geld zu verdienen. Das geschieht u.a. damit, dass über bei Google gekaufte Werbung die Relevanz von Suchbegriffen verändert wird. Es ist für die Verarbeitung von Informationen aller Art von enormer Bedeutung, ob dieses tatsächlich nach der Klickfrequenz angeordnet wird oder ob sich ein Interessent einen der vorderen Plätze durch Einsatz von Geld kaufen kann. Wir alle haben in diesem Fall das gleiche Verhalten: Das, was auf der ersten Suchergebnisseite von Google angezeigt ist, wird allemal als wichtiger und damit wertvoller und wahrer eingestuft als das, was auf den Folgeseiten erscheint. Das Fatale ist, dass damit die sog. „reine“ Wahrheit auf die hinteren Ränge geraten kann.

Wer von uns schaut sich die Suchtreffer nach der dritten Seite noch an? Es werden an dieser Stelle Wetten angenommen, dass dies weniger als 10, wahrscheinlich sogar weniger als 5% aller Google-Suche-Nutzer tun.

Zum anderen wird an die Spitze der Suche echte Werbung platziert, die Begrifflichkeiten der Suche aufnimmt aber zugleich auch auf das Nutzerverhalten abgestimmt ist. Als neues Instrument der Verhaltensbeeinflussung setzt Google seit kurzem auf einen weiteren Algorithmus, der Nutzervorlieben und Standorte in seine Darstellung des Angezeigten einbaut. Zu dieser sog. „Convenience Trap“ werden wir im Folgenden einige Überlegungen beisteuern.

Zugleich wissen wir, dass Autokraten wie Putin ganze Heerscharen von Trollen beschäftigen, die quer durch das Internet und alle damit verbundenen sozialen Medien wie Facebook, Twitter etc. durch die sog. „Discussion Threads“ wildern, um mit abstrusesten Beiträgen und Behauptungen Verwirrung zu stiften und Gerüchte zu streuen. Im Internetjargon nennt man Gerüchte „Hoaxes“ und das professionelle Erzeugen von derart verkappten Falschinformationen Hoaxing. Freundliche Zeitgenossen nennen Mitglieder dieser Profession auch „Spin Doctors“. Durch sog. „Spin Doctoring“, das heute den ziel-gerichteten Einsatz sozialer Medien einschließt, sind nachweislich nicht nur amerikanische Wahlkämpfe beeinflusst und auch gewonnen worden.

Der gerade vergangene Präsidentschaftswahlkampf 2016 in den USA zeigte wieder einmal, wie wichtig es ist, die Sozialen Medien zu dominieren. Fakten zählen nicht mehr, weil die gesamte veröffentlichte Meinung ein Legitimitätsproblem hat. Dass das zwar maßlos übertrieben, aber dennoch leider nicht ganz an den Haaren herbeigezogen ist, wird mit den nachstehenden Überlegungen klarer. Auch eine der Parteien im Bundestagswahlkampf 2017, die eine Aussicht auf den Parlamentseinzug hat, benutzt die Dienste der Agentur, die Trump unterstützt hat, für eine neue Strategie des Wahlkampfs in den Social Media.

Wie weit dieses Misstrauen bereits um sich gegriffen hat, lässt sich am in jüngster Zeit häufiger gebrauchten Begriff vom „postfaktischen Zeitalter“ ablesen. Es rächt sich also nicht nur, dass die Selbstbeschränkung in der Berichterstattung über heikle Themata wie Ausländerkriminalität und Migration bekannt geworden ist und damit in den einschlägigen Kanälen ablehnend und –qualifizierend diskutiert und auf Pegida-Demos unter dem Schlagwort „Lügenpresse“ lauthals gegen die Presse und ihre vermeintliche Parteilichkeit skandierend tituliert wird. Nein, es wird selbst Teil des Meinungskampfes, dass Quellen öffentlicher Medien durch Bestreiten neutralen Zustandekommens entwertet werden.

Natürlich tun Facebook und Co. durch mangelndes Screening der Einträge ihr Übriges, dieses Problem durch ihre Weigerung, Lügen und üble Nachrede anzugehen, der entstehenden Falschmünzerei eine nützliche und willfährige Plattform zu geben und damit die Gerüchteküche bis zur Unübersichtlichkeit anzuheizen. Dabei wirkt verheerend, dass das Internet bei weiten Kreisen seiner Nutzer als Ursprung überwiegend wahrer und verlässlicher Daten und Informationen angesehen wird. Viele wissen es einfach nicht besser, und wer kann ihnen dies angesichts der Komplexität der technischen und logischen Zusammenhänge ernsthaft vorhalten?

Wer nun glaubt, dass sich diese Methoden auf die Politik beschränkten, ist nicht nur reichlich naiv, sondern fast schon gefährlich dumm. Es gibt inzwischen eine komplette Branche von Dienstleistern, die Shitstorms erzeugen und zum Erliegen bringen, die Realität nach Interessenslage verändern und verfärben. Manchmal gelingt es ihnen sogar, sie komplett ins Gegenteil zu verkehren. Ganze Heerscharen von qualifizierten Agenturen überwachen und beeinflussen das digitale Bild, das ihre Auftrag­geber haben, dahingehend, wie diese es gerne haben möchten.

Einen noch höheren Rang an Wahrheitsgehalt als Google wird der Wikipedia zugesprochen, die inzwischen den Platz der alten gedruckten Universallexika eingenommen und diese mangels nachhaltigen Geschäftsmodells in den Orkus der Vergangenheit geschickt hat. Zur Zeit der Universallexika, deren bekannteste Marke Bertelsmann heute als Firmenname für einen Medienkonzern herhält, haben ganze Armeen bester Wissenschaftler versucht, das Wissen des jeweiligen Zeitalters zu sichten, zu ordnen, auf Quellengenauigkeit zu prüfen und selektiert für den bürgerlichen Leser aufzubereiten. Jedes Ehepaar ab der Mittelschicht aufwärts besaß irgendeines dieser Lexika, die zwei und mehr Meter in der Schrankwand einnehmen – verlässliches und glaubwürdiges Mittel, um nachzuschlagen, wenn mal Zweifel bestanden, ob irgendetwas denn so war, wie man dachte oder behauptete.

Heute kann sich jeder X-Beliebige als Wikipedia-Redakteur registrieren und nach einer gewissen Zeit beginnen, gezielt Einträge nach gewissen Interessenslagen zu frisieren. Wie man das klug anstellt, wissen wir alle: Hier ein bisschen weglassen, dort ein wenig dazugeben, hier ein bisschen interpretativ einfärben, dort ein wenig Einschätzungen abschwächen. Und schon ist aus der Wahrheit ein Derivat davon geworden, das der Lüge nach und nach immer näherkommt.

Jeder, der einen Wikipedia-Eintrag hat, ist gut beraten, ihn laufend zu überwachen. Man weiß nie, wer wann was wie an diesem Eintrag verändert und verfälscht. Dass Wikipedia inzwischen selbst in eine Krise gerutscht ist, die ihre Existenz bedrohen könnte, möchte man fast als Treppenwitz der Internet­geschichte gelten lassen. Noch ist nicht aller Tage Abend, was die Auseinandersetzung um ein professionelles Universallexikon im Zeitalter des Internet angeht.

Wer meint, die inzwischen eingezogenen Sicherheits- und Prüfungsverfahren würden diese Gefahr eingrenzen und verringern, sollte sich die Mühe machen, die Myriaden an Einträgen einmal zahlenmäßig aufzubereiten, um sich klarzumachen, dass nicht einmal Herkules diesen Augiasstall ausmisten könnte. Allein die Betrachtung der schieren Größe dieser Zahl und die teilweise verzweifelten Versuche der Wikipedia Initiative, sich vernünftig zu refinanzieren, sollten auf den Boden der Realität zurückführen.

 

Von der globalen Müllfrage zum Ende der Bürgersouveränität

Wenn man der Ansicht ist, das CO2-Problem, die Verschmutzung der Weltmeere oder der Feinstaub seien die größten Menschheitsprobleme, der könnte sich eventuell in geradezu grundstürzender Weise täuschen. Damit sollen diese Probleme bei Weitem nicht klein geredet werden. Die Menschheit steht in diesen Fragen vor säkularen Entscheidungen, um die sie sich wie immer opportunistisch durch das Verschieben auf später drückt.

Neben der sog. „Virtual Reality“, also sog. vorgemachter Wirklichkeit, die wir aus der EDV und der Entwicklung von Produkten kennen, gibt es auch die sog. „Tainted Reality“. Das Englische schafft es einfach, komplexe Zusammenhänge in griffige Schlagwörter zu fassen; wer würde ernsthaft bestreiten, dass vorgemachte und verschmutzte Realitäten nicht viel mit einander zu tun hätten? Nun ist die gezielte Falsch- oder Fehlinformation schon immer ein Mittel der Geheimdienste im Krieg, ob nun warm oder kalt, gewesen.

 

Wie entsteht die perfekte „Tainted Reality“?

Der erste Weg bedarf zum Verständnis einer kleinen Geschichte, wie sie einem nur der Zufall liefern kann. Vor einigen Monaten hörte der Autor dieser Überlegungen zum ersten Mal von der Sorge, dass die sog. neue Form der multimedialen Berichterstattung mit erheblichen Qualitätseinbußen derselben verbunden sei. Diesem Hinweis folgend wurden eine Menge weiterer Hintergrundgespräche über die aktuelle Situation in den Medien mit Akteuren aus der Szene geführt. Sowohl bei Rundfunk- und Fernsehen als auch bei Zeitungen und Zeitschriften ist eine Sparwelle im Gange, die zunehmend die Redaktion ausdünnt und damit die Qualität der Berichterstattung beeinträchtigt. Das geht bei den Nachrichtenagenturen gerade so weiter, wie aus anderen Gesprächen und durch die jüngsten Branchen­nachrichten bereits bestätigt war.

Man beachte dabei, dass auch und gerade die öffentlichen Rundfunkanstalten erheblich unter einem doppelten Druck leiden. Auf der einen Seiten sind es die Betriebsrenten aus den guten Zeiten, die bei sinkenden Mitarbeiterzahlen und zunehmendem öffentlichen Unwillen, weitere Gebührenerhöhungen zu genehmigen, zum Abschnüren der Manövrierfähigkeit in den Sendeanstalten führen. Auf der anderen Seite sinken die Werbeeinnahmen, weil die klassischen Sendekanäle an Bandbreite und Konsumenten-zahl einbüßen, während zugleich die Preise für die Senderechte der publikumsträchtigen Sportbericht-erstattung regelrecht explodieren.

Die Einschätzung, dass die Kostenreduktion auf Kosten der Information der Leser, Hörer und Seher geht, wurde im Gespräch nachhaltig unterlegt. Die Auswirkungen dieser Entwicklung sind schleichend, vorerst noch kaum spürbar zu erkennen und daher à la longue umso gefährlicher.

Bei Rundfunk und Fernsehen kommt hinzu, dass die Grenzen der Medien zunehmend verschwimmen und damit der Redakteur zugleich für das Radio, Fernsehen, den Stream von der Webseite und die sozialen Medien, die ebenfalls als Mittel der Publikation an Bedeutung gewinnen, Beiträge anfertigt, sozusagen multimedial und multifunktional berichtet. Der Gesprächspartner schilderte die moderne Berichterstattung so, dass für die gediegene Recherche eigentlich keine Zeit vorhanden sei, weil sich die jungen Kollegen aus Kosten- und Zeitgründen mit Suchmaschinen wie Google und ähnlichen Werkzeuge die Informationsschnipsel zusammenstellen, ohne dabei für eine echte Quellenprüfung sorgen zu können. Aktualität, Skandalisierung, Klickraten, Hörer- und Zuschauerquoten sind der Maß-stab – Berichterstattungsqualität und -sorgfalt spielen eigentlich keine Rolle mehr.

Durch dieses Verfahren ist es natürlich denkbar einfach geworden, eine gefärbte oder echte Falsch-Information mit einem offiziellen Signet zu versehen bzw. versehen zu lassen. Nachrichten aus zweiter Hand, genau das ist das Ergebnis einer Suchmaschinensuche, tragen das steigende Risiko in sich, dass der Berichterstatter einem Fake aufsitzt und dieses als Mitarbeiter einer Rundfunkanstalt oder einem Printmedium mit guter Reputation sozusagen zur glaubhaften Wahrheit erklärt oder umwidmet. Noch weniger nachvollziehbar wird die Angelegenheit dann, wenn fehlerhafte Informationsstückchen das Puzzle des Gesamtbilds verzerren oder verfälschen, aus dem alle Einschätzungen über Wirklichkeit fast immer hergestellt sind, diese gar in der Aussage am Ende in ihr Gegenteil verkehren können.

Nun muss die Verfälschung der Wirklichkeit nicht auf diese, fast zufällig anmutende, Form geschehen. Sie kann ebenfalls oder flankierend durch gezielten Kauf von Information als auch deren Positionierung in den Suchmaschinen erreicht werden. Am perfidesten ist die Kombination aller Mittel, um auf diese Art und Weise Wirklichkeit, Debatten und Entscheidungen auf die eigenen Interessen hin zu beeinflussen. Dabei ist es von enormer Bedeutung, die Spuren der Eingriffe zu verwischen. Eine gute Falsch­information kommt faktisch immer aus als vertrauenswürdig und unvoreingenommen geltenden Quellen. Die Maskierung des Vorgangs mit Mitteln, wie sie weiter oben beschrieben worden sind, hat dabei eine große Bedeutung und wirkt in unvorstellbarer Weise positiv sich selbst verstärkend.

Nun ist das Beschriebene eigentlich erschreckend genug. Allerdings müssen wir dem Kredenzten nun noch ein wenig Schlagsahne beigeben, um die Sache zu „toppen“. Im Englischen ist das „Topping“ auf einem Eis ganz besonders gesundheitsfördernd. „Toppings“ kommen als Krokant, Schlagobers (so nennen das die Wiener), Schokosraspel und oder anderen leckeren Zutaten daher, allesamt wohlschmeckend und anziehend.

Die „Convenience Trap“ – oder auch Bequemlichkeitsfalle genannt – entsteht bei den modernen Medien dadurch, indem dem System erlaubt wird, durch Überwachung Nutzerverhalten zu protokollieren, um damit Gesuchtes nach dem dadurch entstehenden Profil zu gewichten und damit vorselektiert anzuzeigen zu können. Sie gibt es also durchaus nicht nur bei den Fertiggerichten, wie man vorschnell zu wissen vermeint.

An dieser Stelle wollen wir uns darauf beschränken, dass Nutzerprofile in der Tat dazu verwandt werden, die Suche im Internet zu beeinflussen, denn jetzt werden als weitere Kriterien einer jeden Suche diejenigen Einschätzungen von Google und anderen Systemen hinzugefügt, was der suchende und surfende Benutzer denn gerne sehen wollen könnte – und das gänzlich ungefragt und in seinem Zusammenstellungsformelwerk völlig undurchsichtig. Dabei gilt es zu beachten, dass es durchaus zu Crossreferenzierungen kommen kann, wenn man mehreren Diensten, Webseiten und/oder Apps erlaubt hat, solche Nutzungsdaten zu erfassen.

Wir werden das Thema „Convenience Trap“ an anderer Stelle im Detail mit einem separaten Essay aufarbeiten, weil die Wirkungen dieser Benutzerprofilmathematik den meisten Menschen nicht wirklich bekannt und bewusst ist und sie daher die Auswirkungen auf ihr selbstbestimmtes Leben systematisch unterschätzen.

 

Das Ende der freien Wahl oder ein neues Geschäftsmodell für den unabhängigen Qualitäts­journalismus

Wenn wir das oben Dargelegte überspitzt zusammenfassten, wäre die Quintessenz, dass es zunehmend weniger möglich ist, sich unabhängig, unbeeinflusst und damit wahrheitsgemäß und unvoreingenommen zu informieren. Wenn die aktuellen Entwicklungen in die Zukunft projiziert würden, wäre in nicht allzu großer Ferne ein Umschlagen zu erwarten, welches diese Einschätzung zur traurigen Realität machen könnte.

Heute rächt sich, dass die Hersteller von Information diese, ohne Entgelt dafür zu verlangen, über ihre Webseiten und Social Media Angebote ins das Internet gestellt haben. Dieses in den Anfangszeiten des Internets verständliche Verhalten hatte zwei wichtige Konsequenzen:

  1. Der Internetnutzer ist inzwischen daran gewöhnt, dass Information – und nicht nur diese – nichts kostet. Dieses Verhalten wird sich nur schwer und zäh ändern lassen.
  2. Google und Co. kamen auf diese Weise kostenlos an den Inhalt, den sie über ihre Plattformen an die Nutzer bereitstellten. Inzwischen ist insbesondere Google so mächtig, dass es die Verlage dazu quasi „nötigen“ kann, Informationen bis zu einem gewissen Grad weiterhin kostenfrei zur Verfügung zu stellen.

Inzwischen geht Google noch ein Stück weiter, indem es vorhandene Informationsträger wie Bücher scannt und ins Netz stellt oder die Nutzungsrechte daran anderweitig erwirbt. Die Akquisition von Content ist als strategisch erkannt. Der Informationskanal Google ist so wichtig, dass man es sich nicht leisten kann, auf ihn gänzlich zu verzichten.

Nun gibt es Gegenbewegungen, die sich bereits erkennen lassen. Die ersten Verlage, allen voran Axel Springer, haben es geschafft, ihre wichtigsten Presseobjekte auch im Internet mit einer lukrativen Bezahlversion zu versehen. Zugleich zeigen Projekte, deren erstes sicherlich die Huffington-Post war, dass intensiv über Geschäftsmodelle nachgedacht wird, wie man im Zeit­alter der Digitalisierung, von Multi- und Social Media Qualitätsjournalismus auf kaufmännisch sichere und kommerziell nachhaltige Beine stellen kann. Auch das Universallexikon steht vor einer Wiederbelebung als kostenpflichtiges Service aus dem Netz. Die Redaktion arbeitet bereits, wenn man den Quellen glaubt.

Es ist ja schließlich nicht so, dass das Problem der Informationsverfälschung das Einzige wäre, dass die Öffentlichkeit heute zu bewältigen hätte; vielmehr gibt es zusätzlich schließlich auch noch die Informationsüberflutung, die nicht zuletzt auch durch die Gleichzeitigkeit allen Geschehens im Wege des Internets entstanden ist. Daraus erwächst beinahe zwangsläufig ein neuer Bedarf nach dem sog. „erklärenden“ Journalismus.

Wir finden ihn im zunehmenden Angebot sog. „Dossiers“, wobei die anderen Verlage die ZEIT kopieren, die das zuerst als Konzept entwickelt hat. Ähnliches gibt es seit einiger Zeit als Dritte und Letzte Seite in der FAZ. Das hat selbstredend mit der Erkenntnis der Verlage zu tun, dass sie schleunigst ein Angebot brauchen, das gegen die freie Information im Internet Abonnenten sichern und (wieder zurück-)gewinnen hilft. Besonders die junge Generation hat heute i.d.R. keine Tageszeitung mehr, wenigstens nicht in gedruckter Form.

Ähnliche Formate finden wir auch im öffentlich-rechtlichen Rundfunk- und Fernsehen, unterstützt und flankiert durch sog. Rechercheverbünde, die das Versprechen unterstreichen sollen, tatsächlich gute Recherche dem Zusammenstückeln von Google-Schnipseln entgegen­zusetzen. Natürlich ist das Entstehen der sog. „Leak“-Plattformen, deren bekannteste WikiLeaks ist, ein Ausfluss des Bedarfs an guter und kompletter Information und von Transparenz auch da, wo sie aus mehr oder weniger guten Gründen vermieden wird.

Es besteht also Hoffnung, dass die Katastrophe gerade noch aufgehalten werden kann. Das liegt auch daran, dass die Politik erkannt hat, wie wichtig das Urheberrecht gerade für die Herstellung qualitativ hochwertiger Information ist und immer nachdrücklicher die Kontrolle der Suchmaschinen- und Benutzerprofilmathematik einfordert. Allerdings wird das Ganze nur dann wirtschaftlich aufgehen, wenn der Bürger in seiner Rolle als Internetnutzer versteht, dass Information, besonders gute, wahre und professionell recherchierte, nicht kostenlos sein kann, sondern einen Wert hat, der nicht allein geldlich sondern vielmehr auch als zivilisatorisch und demokratieerhaltend zu bemessen ist.

Ein freier und selbstbestimmter Bürger eines demokratischen Gemeinwesens ist ohne eine solide Basis an wahrheitsgemäßer und mit Sorgfalt bereitgestellter Information nicht denkbar, denn er könnte seine Entscheidungen nicht mehr im eigentlichen Sinne unbeeinflusst treffen. Auch in seiner Rolle als Konsument sollte dieser Bürger daran letztlich interessiert sein, seine Selbstbestimmung zu erhalten.

10 thoughts on “„Tainted Reality“ und die „Convenience Trap“: Über die verschmutzte Wirklichkeit

  1. Lieber Walter,

    Ich habe deinen Text mit grossem Interesse und Zustimmung gelesen.
    In den letzten Monaten habe ich auch zwei Essays zu diesen Themen verfasst. Könnte ich Dir diese zukommen lassen?
    Herzlich, Sonja

    1. Grüezi, lb. Sonja,
      einfach die Links an redaktion.blogmag@zugetextet.com. Wir schauen uns das dann an. Sollten sie nicht veröffentlicht sein, gerne auch als Word-Dokument.
      Der zweite Text behandelt das Thema „Convenience Trap“ ausführlich. Er entsteht gerade und wird Anfang 2017 erscheinen. Der dritte ist noch in der Vorkonzeption.
      Lieber Gruß
      Walther, Herausgeber

  2. Also auch wenn ich diesem Text in fast Allem zustimme, bin ich mir nicht sicher, ob gute Information tatsächlich etwas kosten muss! Diesen Punkt kritisiere ich etwas, denn
    es gibt ja nun auch qualitativ hochwertige wissenschaftliche Artikel in akademischen Communities zum kostenfreien download. Was ich wirklich gut finde!

    Und eins verstehe ich nicht: Machst du grosse Unterschiede, was die Internet Informationsverbreitung und die gedruckte Variante, als Zeitung betrifft?
    Das kam ein wenig so bei mir an.

    Ich bezweifel ja nicht, dass es noch einigermassen unabhängige oder gut recherchierte Artikel in besagten Zeitungen (die du am Ende aufgeführt hast) gibt, ich sehe aber die von Dir beschriebenen Mechanismen auch in unzähligen Printmedien am Werk.

    1. Diese Einschätzung beruht auf einem Mißverständnis. Die Redaktionen der Kanäle der meisten Zeitungen und der Radio- und Fernsehasender wachsen zusammen. Das läßt sich nicht mehr trennen. Print ist nur ein Verbreitungsmedium, ein Weg, das Produkt Information an seinen Empfänger/Leser zu bringen.

      Das Urheberrecht gilt auch für wissenschaftliche Arbeiten. Daß sie frei erhältlich sind, ist ein sehr zwiespältiger Fortschritt. Für die Autoren der Werke ist es nämlich keiner. Hinter der obigen Anmerkung verstecken sich übrigens genau die sehr problematische Ansicht und die in der frühen Internetphase geschaffene Erwartung, Information habe kostenlos zu sein. Gerade an wikipedia läßt sich ablesen, daß kostenlos und qualitativ hochwertig grundsätzlich im Widerspruch stehen, da der Mensch weder vom Brot allein lebt noch ohne Brot. Arbeit muß enlohnt werden. Sonst taugt sie nichts oder wird nicht gemacht. Auch das Herstellen „hochwertiger“ Information ist eine ehrenhafte Arbeit, die einen Wert hat. Kostenlos ist in unserer Art des Wirtschaftens mit dem Begriff wertlos in der Konsequenz fast identisch.

      Die oben gemachten Anmerkungen gelten, und das wurde mehr als einmal auch so dargelegt, für alle Informationsmedien. Es gibt zwischen den Publikationsformen keinen wirklichen Qualitätsunterschied, allenfalls in der Unwiderrufbarkeit, Reduktionsnotwendigkeit aufgrund des Platzmangels und der daraus entstehenden Informationsaggregation und -fokussierung des Printmedium besteht ein innewohnender Zwang, sich die Sache nochmals genau anzuschauen. Dieser Automatismus sollte nicht mit grundsätzlich besserer Qualität verwechselt werden, die nach Einschätzung des Autors eher ein zufälliges Ergebnis der Gesetzmäßigkeiten der Publikationsform ist als aktiver Kontrolle der und höherer Mitteilbereitstellung für die Professionalität der Berichtserstellung.

  3. Ok, dann beruhte das eine wirklich auf einem Missverständnis.
    Aber mir kam beim Lesen deines Kommentars auch wieder die Passage in den Sinn, in der du beschreibst, dass die verschiedenen Medien ja zusammenwachsen. Das implizierte ja auch den Qualitätsverlust der Printmedien.

    Das gute Arbeit entlohnt werden sollte, sehe ich auch so.
    Die Arbeit von Wissenschaftlern wird ja aber entlohnt, unabhängig davon ob der Download ihrer Arbeit etwas kostet. Das sind ja zwei verschiedene Dinge.

    Ich werde mal einen Dozent, der seine Arbeiten frei zugänglich zur Verfügung stellt, fragen wie er das sieht!
    Aber Danke für deine aufschlussreiche Erläuterung.

    Lg,

    Sonja

  4. Wenn der Dozent sich dazu entschließt, seine Arbeiten frei verfügbar zu machen, ist das seine Entscheidung. Anders stellt sich die Sachlage dar, wenn der Autor selbst diese Entscheidung nicht gefällt hat.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert