Ist Google Knols wirklich eine Konkurrenz für die Wikipedia? Und nur für die Wikipedia?

image

Viel ist in den letzten Tagen geschrieben worden über Googles neustes Projekt namens Knols, das am 13. Dezember 2007 im offiziellen Google Blog angekündigt wurde. Und obwohl es sich um eine private Beta-Phase handelt und erst wenige von der Plattform mehr als einen gigantischen Screenshot gesehen haben, sind sich alle einig: Google will eine Konkurrenz zur Wikipedia lancieren. Das scheint mir ein bisschen arg verkürzt.

Halten wir fest: Google Knols ist eine Plattform, welche grundlegende Artikel (oder eben Knols = Units of Knowledge) zu Themen aus allen Wissensgebieten bereitstellen will. Dies ist zweifellos eine Parallele zur Wikipedia. Auch dass auf Knols grundsätzlich jeder publizieren kann, der möchte, erinnert an die freie Enzyklopädie. Es gibt aber auch einige wesentliche Unterschiede:

  • Bei Google Knols wird jeder Artikel von einem einzigen Autor verfasst, und dieser wird prominent auf der entsprechenden Seite genannt. Bei der Wikipedia werden die Artikel in der Regel von vielen verschiedenen Personen geschrieben, deren Identität oft unklar und insgesamt unwichtig ist. Google Knols wird also Autoren anlocken, die sich als Spezialisten auf einem bestimmten Gebiet sehen und sich auf diesem Weg selbst vermarkten wollen. Den Wikipedianern dagegen geht es mehr um die Sache – jedenfalls kann man als Wikipedia-Autor kaum Berühmtheit ausserhalb der Community erlangen.
       
  • Ziel der Wikipedia ist es, jedes Thema möglichst neutral und umfassend zu behandeln. Das ist ein hoher Anspruch und führt oft zu intensiven Auseinandersetzungen, bringt aber im Idealfall Artikel hervor, welche alle wesentlichen Positionen beleuchten. Bei Google Knols dagegen stellt ein Autor seinen eigenen Standpunkt dar – ist jemand anderer Meinung, so schreibt er nicht den Originalartikel um, sondern hinterlässt einen Kommentar oder verfasst eine Peer Review bzw. einen Konkurrenzartikel. Letzteres wiederum wäre in der Wikipedia undenkbar.
       
  • Auch bei der Wikipedia gibt es Diskussionen, werden Beiträge anderer kommentiert und bewertet. All dies geschieht aber hinter den Kulissen – für den normalen Benutzer fühlt sich die Wikipedia wie eine normale Enzyklopädie an. Bei Google Knols dagegen gibt es viele klassische Web-2.0-Elemente: Kommentarfunktion, Rating, Peer Review, Related Content. Sie alle sollen mithelfen, relevanten Content an die Oberfläche zu spülen und zusammenhängende Informationen zu verbinden (bekanntlich eine Stärke von Google).

Google Knols konkurriert deshalb fast eher mit Blogs, Zeitungs- bzw. Zeitschriften-Websites und Wissensplattformen (z.B. www.akademie.de, www.wissen.de, www.about.com). Mit dem Versprechen, eine grosse Reichweite zu erzielen und zugleich die Autoren an den Werbeeinnahmen zu beteiligen, will Google publikationswillige Fachleute anlocken und so ohne eigene redaktionelle Leistung relevanten Content aufbauen. Dafür stellt Google die Plattform und die Hosting-Kapazität zur Verfügung:

«Writers only need to write; we’ll do the rest.»

Das ist smart. Knols dürfte eines der bedeutendsten Projekte sein, das Google je lanciert hat. Nicht nur die Wikipedia, sondern auch Medienhäuser und Verlage werden die neue Konkurrenz spüren. Und es stellt sich die Frage, ob hier nicht eine Grenze überschritten wird, die uns allen zu denken geben müsste: Google könnte schon bald nicht mehr nur die beherrschende Suchmaschine sein, sondern auch ein dominierender Content Provider. Ob dies der Informationsfreiheit, der Meinungsvielfalt und dem Wissensaustausch dient (wie Google das selbst gerne sieht), oder ob es einen weiteren Schritt in Richtung Informations-Monopol darstellt, muss sich erst noch weisen. Kritisch scheinen mir dabei folgende Punkte:

  • Exklusivität – Google erhebt nach eigenen Aussagen keinen Exklusivitätsanspruch auf die Inhalte von Google Knols: «Google will not ask for any exclusivity on any of this content and will make that content available to any other search engine.» Was dies im Detail bedeutet, bedarf sicher noch der Klärung. Darf ein Autor einen Knols-Artikel auch in einer Zeitung oder in einem Buch veröffentlichen? Unterliegen die Artikel einer Creative Commons Licence oder gar der GDFL?
      
  • Selektion der Autoren und inhaltliche Zensur – Nach heutigen Aussagen wird Google keinen Einfluss auf die Inhalte von Knols nehmen: «Google will not serve as an editor in any way, and will not bless any content. All editorial responsibilities and control will rest with the authors. […] Anyone will be free to write.» Bleibt es dabei, dann kann Google Knols tatsächlich eine Plattform des freien Wissens- und Meinungsaustauschs werden. Nicht vergessen sind aber die Zensurmassnahmen von Google bei Google Maps (Stichwort: Irak) und bei Google Search (Stichwort: China).
      
  • Positionierung in den Google Suchresultaten – Entscheidend für Erfolg oder Misserfolg von Google Knols dürfte auch sein, wie die Inhalte in den Suchmaschinen auftauchen, insbesondere in der Google Search. Wikipedia-Artikel besetzen heute oft die Spitzenplätze in den Trefferlisten, was für die Akzeptanz der freien Enzyklopädie ganz entscheidend ist. Wird Google bei der eigenen Suche Google Knols in irgend einer Weise bevorzugen (z.B. so wie die Ergebnisse von Google News) und damit die eigenen Relevanzkriterien umgehen?

Encyclopaedia Britannica 1911 online

image

«The Sum of Human Knowledge» versprach die vielleicht wichtigste englischsprachige Enzyklopädie, die Encyclopaedia Britannica, 1911 ihren Lesern. Dank ihrer unglaublichen Informationstiefe und den zahlreichen prominenten Autoren war die 11. Ausgabe der Britannica sicher ein Meilenstein in der Lexikografie. Inzwischen sind viele Artikel veraltet, aber gerade historische und biografische Artikel können auch heute noch von Interesse sein, und manche Information ist hier noch greifbar, die in späteren Ausgaben nicht mehr zu finden ist.

Aufgrund seines Erscheinungsdatums ist das Werk inzwischen gemeinfrei (Public Domain). Es ist an verschiedenen Orten im Internet frei zugänglich – allerdings weisen alle diese digitalen Ausgaben Mängel auf:

  • LoveToKnow Classic Encyclopedia präsentiert die Britannica in Form eines Wikis, das nebst der Volltextsuche einen thematischen Einstieg basierend auf Artikelkategorien anbietet. Die Artikel sind querverlinkt, aber nur als Text verfügbar (d.h. nicht als Faksimilie). Die Qualität dieser (auf den ersten Blick sehr ansprechenden) Ausgabe ist umstritten, da die Aufbereitung offenbar maschinell erfolgte und dadurch diverse Fehler enthält (vgl. Kritik in der Wikipedia).
  • Die Online Encyclopedia ist ebenfalls eine reine Textausgabe. Sie ist schlicht, aber funktional, und sie verfügt ebenfalls über Querverlinkungen. Leser können auch hier Korrekturen und Ergänzungen anbringen – allerdings nicht direkt wie bei einem Wiki, sondern über ein Formular. Alle Beiträge werden also vor der Freischaltung von einem Redaktor geprüft. Ein systematisches Korrekturlesen der eingescannten Artikel hat aber auch hier nicht stattgefunden, und es gelten ähnliche Vorbehalte wie bei der obigen Version.
  • Beim Project Gutenberg sind einige wenige Bände der Britannica verfügbar. Die Texte enthalten auch Abbildungen, dafür keine Querverweise, und sie werden als eine einzige, lange HTML-Seite ohne Suchfunktion oder Sprungmarken angeboten – für ein Nachschlagewerk eine wenig geeignete Form. Dafür werden beim Project Gutenberg die gescannten und per OCR konvertierten Texte in der Regel korrekturgelesen.
  • Wikisource 1911 Encyclopaedia Britannica basiert auf den Texten von Project Gutenberg, ist also ebenso unvollständig, verfügt aber über eine bessere Struktur und die gesamte Wiki-Funktionalität. Der Ansatz ist somit vielversprechend – weil die meisten Bände noch fehlen bleibt der Nutzwert aber gering. Das entsprechende Wikisource-Projektteam könnte also noch Unterstützung gebrauchen.

Wikipedia: Nicht schlechter als Brockhaus und Britannica

image

Dass die Wikipedia ein Phänomen darstellt, ist unbestritten – über die Qualität der darin gespeicherten Information wird dagegen oft und gerne debattiert. Inzwischen haben mehrere Zeitschriften die Probe aufs Exempel gemacht und in Vergleichstests die Wikipedia gegen die etablierten Enzyklopädien antreten lassen – und die Wikipedia hat dabei immer überraschend gut abgeschnitten.

Im Dezember 2005 publizierte die Zeitschrift Nature einen Artikel mit der Quintessenz, dass die Wikipedia nicht wesentlich mehr Fehler enthält als die Online-Ausgabe der Encyclopaedia Britannica: “Internet encyclopaedias go head to head” (Nature 438, S. 900f). Die Encyclopaedia Britannica kritisierte die Methodik und die Bewertung des Vergleichs scharf, Nature hielt jedoch an der Aussage fest, worauf die Britannica sogar Zeitungsanzeigen gegen den Nature-Artikel schaltetet, was Nature zu einer weiteren Stellungnahme veranlasste.

Zwei Jahre später liess der Stern einen ähnlichen Vergleich durchführen. Dabei wurde darauf geachtet, dass die Artikel aus möglichst verschiedenen Fachgebieten stammen (Nature hatte insbesondere naturwissenschaftliche Artikel verglichen, was gewisse Schwächen der Wikipedia in Sozial- und Geisteswissenschaften unberücksichtigt liess). Das kommerzielle Lexikon, an dem die Wikipedia diesmal gemessen wurde, war die kostenpflichtige Online-Ausgabe des 15-bändigen Brockhaus, bewertet wurden Richtigkeit, Vollständigkeit, Aktualität und Verständlichkeit. Das Resultat des Vergleichs viel noch deutlicher zugunsten der Wikipedia aus: Sie schlug den Brockhaus deutlich in allen Kriterien mit Ausnahme der Verständlichkeit. Auch der Brockhaus kritisierte den Vergleich als unfair.

Die beiden öffentlichkeitswirksamen Artikel bestätigen damit eine Beobachtung, welche auch die Computer-Zeitschrift c’t beim Vergleich der CD-ROM-Ausgaben von Bertelsmann, Brockhaus und Encarta mit der Wikipedia gemacht hatte (Ausgabe 6/2007): Die Wikipedia ist nicht perfekt, aber sie ist zu einer ernstzunehmenden Alternative geworden.

Weiterführende Artikel:

Icons mit Creative Commons Licence

image

Wer für seine Website oder seine Software einige trendige 3D-Icons sucht, hat gute Chancen, bei Abdylas Tynyshov fündig zu werden: Seine Sammlung mit 140 Icons deckt viele Standard-Objekte und -Aktionen ab und ist unter einer Creative-Commons-Lizenz frei erhältlich. Die Icons können in vier verschiedenen Grössen zwischen 24 x 24 und 80 x 80 Pixel heruntergeladen werden – leider aber nur als PNG und nicht in einem Vektorformat, das eine einfache Skalierung und Modifikation der Icons erlauben würde.

Lexikon 1888: Meyer’s und Brockhaus‘ Konversations-Lexika digital erschlossen

image

Der Schweizer Mathematiker Peter Hug hat es sich zur Aufgabe gemacht, die wichtigsten Lexika des späten 19. Jahrhunderts im Internet bereitzustellen und optimal zu erschliessen. Dazu gehören insbesondere die 4. Auflage von Meyers Konversations-Lexikon aus den Jahren 1885 bis 1892 sowie die 14. Auflage von Brockhaus‘ Konversationslexikon aus den Jahren 1894 bis 1896. Aufbauend auf dem Digitalisierungsprojekt Retro-Bib von Christian Aschoff hat Hug seine Website Lexikon 1888 geschaffen, die bezüglich Funktionalität Massstäbe setzt. Die Lexika steht als Faksimilie sowie als durchsuchbarer Volltext zur Verfügung, wobei der Volltext durch Querverlinkungen, Kontextinformationen und Quellen angereichert ist. Sogar eine für Handys optimierte Version ist vorhanden.

Universal Digital Library / Million Book Collection: 1.2 Millionen digitale Bücher online

Universal Digital Library Advanced Search

Mit der Universal Digital Library gibt es ein weiteres Digitalisierungsprojekt für Bibliotheksbestände, diesmal unter Federführung der Carnegie Mellon University in Pittsburgh, Pennsylvania. Die Partnerinstitutionen stammen aus China, Indien und Ägypten, entsprechend sind primär Dokumente in den Sprachen dieser Länder gescannt worden. Derzeit ist ein Bestand von 1.2 Millionen Büchern online verfügbar. Die Universal Digital Library hat allerdings wesentlich ambitioniertere Ziele: Grundsätzlich sollen möglichst alle der geschätzten 100 Millionen Bücher dieser Welt digitalisiert und kostenlos online verfügbar gemacht werden.

Das Projekt steht derzeit vor zwei Herausforderungen: Erstens bedeutet die Digitalisierung einen enormen Aufwand – derzeit rechnet man damit, pro Jahr eine weitere Million Bücher online anbieten zu können. Zweitens unterliegt der grösste Teil der Bücher dem Copyright, so dass die digitalisierten Werke nur mit Zustimmung der Rechteinhaber kostenlos im Internet bereitgestellt werden dürfen – diese kritische Frage scheint aber noch nicht gelöst zu sein, wie einem Artikel bei heise.de zu entnehmen ist.

Die Universal Digital Library will nicht einfach nur Faksimiles bereitstellen, sondern auch den Volltext der digitalisierten Bücher mit OCR-Software erschliessen und so durchsuchbar machen. Wie gut das Angebot in der Praxis funktioniert ist allerdings schwer zu beurteilen, da die (insgesamt ziemlich schmucklos gehaltene) Website derzeit massiv überlastet ist. Eine weitere Herausforderungen des Projekts dürfte deshalb auch die Bereitstellung von ausreichend Server-Kapazität sein.

image

Trotz dieser Anfangsschwierigkeiten ist das Konzept, das gesamte geschriebene Wissen dieser Welt frei zugänglich zu machen, ausgesprochen spannend. Wohl nicht zufällig ist auch die Bibliothek von Alexandria in dieses Projekt involviert – deren Vorgängerin in der Antike gilt bekanntlich als Inbegriff einer universellen Bibliothek.

Tools für Wikipedianer

image

Die Recent Changes Statistics zeigt, welche Wikipedia-User und welche Wikipedia-Seiten in einem bestimmten Zeitraum am häufigsten editiert haben bzw. wurden. Diese Information ist sicher nicht lebensnotwendig, aber mitunter ganz spannend, etwa um besonders aktive Wikipedianer zu identifizieren oder um besonders aktuelle Themen zu beobachten.

Ein weiteres Tool aus derselben Serie ist die Global Wikipedia Article Search. Bekanntlich sind die verschiedenen Sprachversionen der Wikipedia unabhängig voneinander; dieses Tool erlaubt es, einen Begriff parallel in allen Sprachversionen nachzuschlagen. Dadurch erkennt man, welche Sprachversion die umfassendsten Informationen zu einem Schlagwort bietet – und wo das Schlagwort eventuell ganz fehlt.

image

DRS Wiki: Ein Wiki ist kein Erfolgsgarant

Update: Inzwischen hat Schweizer Radio DRS das Wiki abgeschaltet.

image Eigentlich wäre die Idee, Mediengeschichte in Form eines Wikis zu erarbeiten, höchst spannend – besonders wenn es sich um eine nationale Institution wie das Schweizer Radio DRS handelt. Doch obwohl Radio DRS sowohl im Äther als auch auf der eigenen Website viele Möglichkeiten hätte, sein DRS Wiki zu promoten, kommt das Projekt nicht vom Fleck: Wer die Änderungen der letzten 30 Tage abruft, bekommt oft eine leere Seite zu sehen, und die Liste aller Seiten ist nach wie vor ziemlich überschaubar.

Fazit: Es reicht nicht aus, ein Wiki ins Internet zu stellen und darauf zu hoffen, dass die Community den Rest der Arbeit erledigt. Vielmehr muss man selbst Aufbauarbeit leisten und glaubwürdig vermitteln, dass das Wiki eine Zukunft hat. Wer jedoch die Einträge von DRS 1 oder Echo der Zeit liest kommt zwangsläufig zum Schluss, dass man selbst bei Schlüsselbegriffen den Aufwand gescheut hat, gehaltvolle Artikel zu verfassen. Auch dass es für den neuen News-Kanal DRS 4 oder für den aktuellen Radiodirektor Walter Rüegg schlicht keinen Eintrag gibt, spricht Bände. Das DRS Wiki ist ein gescheitertes Experiment. Schade.

Braucht es eine Wikipedia auf Alemannisch?

image

Wer auf dem Schweizer Wikipedia-Portal genau hinsieht, findet dort auch einen Link zur Wikipedia uf Alemannisch (Schwyzerdütsch) – gleich neben der Wikipedia en rumantsch. Während sich die Existenzberechtigung letzterer rasch erschliesst (immerhin ist das Romanische unsere vierte Amtssprache), so fragt man sich: Braucht es wirklich eine Wikipedia auf Alemannisch?

Grundsätzlich ja, würde man meinen, ist es doch das Ziel der Wikipedia, Wissen in möglichst vielen Sprachen zusammenzutragen. Andererseits muss man sich fragen: Was ist den eigentlich Alemannisch?

«D’alemannisch Wikipedia isch e Enzyklopädie in de Dialäkt vom alemannische Sprochruum, also vo de Dütschschwiz, vom Elsass, vom Liechtestei, vo Oberbade, vom Schwobeland un vo Voradelberg.»

Das mag sprachwissenschaftlich korrekt sein, aber das bringt mir – obwohl mitten im alemannischen Sprachraum aufgewachsen – diese Sprache nicht viel näher. Denn einerseits empfinde ich meinen Dialekt und das, was Schwaben oder Elsässer sprechen, doch als sehr verschieden. Andererseits ist auch das Schwiizerdütsch alles andere als eine homogene Sprache. Kommt hinzu, dass das Alemannische nicht über verbindliche Regeln für Orthografie und Grammatik verfügt – ein Crash-Kurs «Wiä schriib ich guets Alemannisch?» muss reichen. Im übrigen gibt sich die alemannische Wikipedia-Community tolerant:

«Wär im Alemannische nit sicher isch, brücht sich nit vu dr alemannische Wikipedia üsgschlosse fiähle: er ka sini Text mit eberem, wu sicher isch, durchspräche un korrigiäre. S isch no ke Meischter vum Himmel gheijt.»

Schön gesagt – in Walliserdeutsch, würde ich meinen. Trotzdem bleibe ich dabei: Ein Potpurri aus verschiedensten Dialekten ist zwar amüsant, der konkrete Nutzen einer solchen Wikipedia bleibt aber bescheiden. Ausserdem scheint es mir schon eine ausreichend grosse Aufgabe, die Wikipedia in allen Schriftsprachen zu pflegen. 

International Music Score Library Project geht wegen potentiellem Rechtsstreit offline

image

Das International Music Score Library Project IMSLP hat seinen Betrieb eingestellt, nachdem der Verlag Universal Edition Copyright-Verletzungen geltend gemacht hatte und vom IMSLP in einer Unterlassungsaufforderung geeignete Gegenmassnahmen verlangte. Das IMSLP sammelte Scans von Musiknoten, deren Copyright abgelaufen ist, und nutzte dazu die MediaWiki-Software, auf der auch die Wikipedia aufbaut.

Wie der Initiator des Projekts Xiao-Guang Guo schreibt, habe Universal Edition zwar nicht die Schliessung des Wikis verlangt; die Umsetzung der geforderten Massnahmen würden aber seine Möglichkeiten übersteigen. Und auf einen Rechtsstreit wollte sich der Student verständlicherweise nicht einlassen. Er bietet aber Hand dazu, dass eine Organisation das Projekt weiterführt:

«Due to demand, I strongly encourage any organization willing to support a continuation of IMSLP to contact me at imslp@imslp.org

Letzteres wäre aus meiner Sicht ausgesprochen wünschenswert. Es geht mir nicht einmal so sehr um den Fortbestand des IMSLP, sondern um die Klärung der Grundsatzfrage, wie weit der Betreiber eines Wikis für Copyright-Verletzungen haftbar gemacht werden kann. Denn letztlich (und das müsste auch Ken Clark als Anwalt von Universal Edition wissen) ist es unmöglich, Copyright-Verletzungen in einem Wiki 100prozentig auszuschliessen, wenn man nicht jeden Beitrag vor der Veröffentlichung einem Rechtsgutachten unterziehen will (was sicher nicht praktikabel ist und dem Wiki-Prinzip fundamental widerspricht). Auch der vom Anwalt konkret vorgeschlagene IP-Filter wäre ein völlig untaugliches Mittel:

«It is our understanding that it is possible to filter lP addresses of those who take part in copying files from your site to prevent such unauthorized copyright infringement.»

Sollte der Fall der IMSLP Schule machen, dann müssten wohl viele Wikis auf dieser Welt offline gehen. Ein Musterprozess, der die Grenzen der Haftbarkeit von Wiki-Betreibern auslotet, wäre deshalb wünschenswert. Persönlich scheint es mir fragwürdig, den Plattformbetreiber haftbar zu machen, weil er einfacher greifbar ist als der eigentliche Copyright-Verletzer. Und vor allem würde dieses Konzept eine fundamentale Einschränkung der Meinungsäusserungsfreiheit bewirken, wie sie heute in Wikis praktiziert wird.

Links zum Thema: