MediaWiki-Tuning: Default-Text für neu erstellte Seiten

image

Viele Wikis kennen Regeln, wie ihre Seite aufgebaut sein sollen. Mit rein technischen Mitteln lassen sich solche Vorgaben allerdings nicht durchsetzen – hier ist man darauf angewiesen, dass die Wiki-Benutzer die Regeln kennen und auch einhalten. Unterstützen kann man dies dadurch, dass beim Anlegen einer neuen Seite automatisch häufig benutzte Textbausteine eingefügt werden. MediaWiki beherrscht dies nicht von Haus aus, kann aber mit der Extension NewArticleTemplates entsprechend nachgerüstet werden. Der Standardtext für neue Seiten kann dann auf der Seite MediaWiki:NewArticleTemplate eingetragen werden. Falls erforderlich lassen sich pro Namespace individuelle Standardtexte erfassen. Eine ebenso einfache wie effektive Lösung, die viel Tipp- und Korrekturarbeit ersparen kann.

Medpedia: Die Wikipedia für Mediziner

image

Nach WikiGenes ist mit Medpedia ein weiteres gross angelegtes Wiki-Projekt gestartet, das sich auf ein einzelnes Wissenschaftsgebiet spezialisiert. Bei der Medpedia steht der menschliche Körper, dessen Krankheiten und deren Behandlung im Mittelpunkt. Auch die Medpedia basiert auf der MediaWiki-Software, und die Inhalte können gemäss der GNU Free Documentation License (GFDL) frei genutzt werden.

Anders als bei der Wikipedia kann allerdings nicht jeder mitschreiben, und schon gar nicht anonym: Nur Mediziner dürfen Artikel erstellen und verändern, die übrigen registrierten Benutzer haben lediglich ein Vorschlagsrecht (Register «Suggest Changes»). Ein interessantes Modell, das bei einem Fach wie der Medizin sicher Sinn macht – während es für die Wikipedia natürlich fatal wäre, wenn das Schreibrecht an einen akademischen Titel gebunden wäre. Ob sich allerdings genügend Ärzte finden, die in ihrer knappen Freizeit Artikel für die Medpedia erstellen, wird sich noch zeigen müssen, denn was für eine medizinische Karriere zählt sind Publikationen in einschlägigen Fachzeitschriften, nicht in der Medpedia.

Quelle: Wikipedia

image

Viele Lehrer beklagen die Tatsache, dass Schüler unkritisch Informationen aus der Wikipedia übernehmen oder gar kopieren würden. Tatsache ist: Das tun nicht nur Schüler, sondern auch Journalisten. Obiger Ausschnitt beispielsweise stammt aus einem Artikel des Tages-Anzeigers, der Hintergrundinformationen über die Billag wörtlich aus der Wikipedia übernimmt – statt sie auf der Website der Billag (oder anderswo) selbst zu recherchieren und daraus einen eigenen Text zu erstellen.

Als regelmässiger Wikipedia-Autor betrachte ich diese Entwicklung mit gemischten Gefühlen. Einerseits freut es mich, dass auch Profis der Informationsbeschaffung die Wikipedia als eine zuverlässige Quelle einschätzen. Andererseits hat eine basisdemokratisch erstellte Enzyklopädie auch ihre ganz spezifischen Mängel, was die Gewichtung und Zuverlässigkeit von Detailinformationen angeht. Hat die Billag nun 260 Mitarbeiter (wie es in der Wikipedia steht) oder 300 Mitarbeiter (wie es auf der Billag-Website nachzulesen ist)? Warum steht in der Wikipedia nichts davon, dass die Billag wegen ihrem forschen Vorgehen im Zusammenhang mit Radio- und Fernsehempfang über das Internet ebenso in die Kritik geraten ist wie wegen ihrer ausgesprochen aufwändigen TV-Spots (vgl. hier)? Von einem Journalisten würde ich erwarten, dass er genau solchen Fragen nachgeht – in der Wikipedia nachschlagen kann ich nämlich selbst.

VisualWikipedia: Die bessere Wikipedia?

image

VisualWikipedia ist ein klassisches Mashup: Es verbindet Informationen von anderen Websites zu einem neuen Service. In diesem Fall werden im wesentlichen Wikipedia-Artikel mit YouToube-Videos angereichert. Zudem werden andere Artikel, die im Zusammenhang mit dem aktuellen Artikel stehen, als Tagcloud und als Mindmap (realisiert mit Flash) abgebildet. Innerhalb des Artikeltexts fällt zudem auf, dass verlinkte Begriffe mit einem Mouseover-Effekt versehen sind, der eine Kurzversion des betreffenden Artikels anzeigt – so kann man rasch eine Erklärung zu einem unbekannten Begriff erhalten, ohne auf die entsprechende Seite wechseln zu müssen.

Alles in allem ist VisualWikipedia ein interessanter Versuch, die Wikipedia aufzuwerten. Allerdings werden die Seiten dadurch auch etwas schwerfällig und unübersichtlich. Ausserdem sind die YouTube-Videos natürlich sehr oft alles andere als freier Content.

WikiGenes: Das Wiki für Life Sciences

image

Ähnlich wie die Wikipedia ist WikiGenes ein frei editierbares Wiki, das sich allerdings ausschliesslich mit Genen, Proteinen und chemischen Verbindungen befasst. WikiGenes ist nicht profitorientiert und nach dem Prinzip von Open Access frei zugänglich.

Weil es hier um wissenschaftliche Informationen geht, ist die Autorenschaft zentral. Die Wiki-Software, auf der WikiGenes basiert, bietet einen Mechanismus, mit dem man direkt sehen kann, von wem eine bestimmte Textpassage verfasst bzw. überarbeitet wurde: Ein Klick auf die betreffende Passage genügt, damit oberhalb des Artikels der jeweilige Autor angezeigt wird. Auch der WYSIWYG-Editor ist ungewöhnlich – bei der Wikipedia gibt es nichts Vergleichbares. Es lohnt sich deshalb, das schön gemachte Video anzuschauen – auch wenn man von Genen und Proteinen wenig versteht.

Wie druckt man ein MediaWiki aus?

image

MediaWiki eignet sich hervorragend, um im Team-Work Informationen zusammenzutragen, zu strukturieren und zu überarbeiten. Aber was, wenn man das Resultat in Form eines PDFs exportieren oder ausdrucken möchte? Die Frage beschäftigt mich schon länger, und die perfekte Lösung habe ich noch nicht gefunden. Im Moment zeichnen sich zwei Favoriten ab:

  • PDF Book: Diese Extension erlaubt es, alle Seiten einer bestimmten Kategorie in einem einzigen Arbeitsgang als PDF zu exportieren. Dabei wird automatisch ein Inhaltsverzeichnis erstellt, pro Wiki-Seite wird ein Kapitel angelegt. Diese Lösung setzt allerdings voraus, dass HTMLDOC auf dem Server installiert ist.
  • Collection: Bei dieser Extension wird das PDF aus einer sogenannten Collection erstellt. Eine Collection ist vergleichbar mit einer persönlichen Bookmark-Sammlung, die direkt im Wiki abgelegt ist. Auf der Website WikiEducator kann man das in einem öffentlichen Beta-Test selbst ausprobieren. Und wie einer Medienmitteilung der Wikimedia-Foundation vom letzten Dezember zu entnehmen ist, handelt es sich bei dieser Extension um eine Entwicklung, welche strategische Bedeutung für MediaWiki hat und im Verlaufe des Jahres 2008 auch auf Wikipedia eingebaut werden soll. Vielversprechend ist auch die Ankündigung, dass bis Mitte 2008 zusätzlich ein Export im OpenDocument-Format möglich werden soll. Was mich dagegen irritiert ist die Tatsache, dass die Collection-Extension zwei Python-Libraries voraussetzt, während MediaWiki ja in PHP geschrieben ist. Ob diese Lösung auch für einfache Shared-Hosting-Accounts mit LAMP-Umgebung funktioniert?

Neben den beiden erwähnten Extensions gibt es noch eine ganze Reihe anderer Ansätze (vgl. die Liste der alternativen Parser sowie die Data Extracation Extensions), die mir allerdings – aus verschiedensten Gründen – weniger überzeugend scheinen. Gibt es tatsächlich keine Extension, die allein mit den Mitteln von PHP den Export einer ganzen Kategorie im PDF-, OpenDocument- oder RTF-Format erlaubt?

EasyTimeline: Timelines in MediaWiki

image

Für die Visualisierung von zeitgebundenen Fakten bieten sich Zeitleisten (Timelines) an. Von Haus aus hat MediaWiki hier keine Unterstützung zu bieten, aber mit der Extension EasyTimeline kann man Grafiken wie die oben gezeigte per Wiki-Text erstellen und editieren. Diese Methode ist natürlich – wie bei Wikis üblich – relativ technisch und setzt voraus, dass man sich in die Syntax der Extension einarbeitet. Der Aufwand lohnt sich aber, wenn man beispielsweise ein Wiki mit historischen Themen betreibt, einen Projektplan direkt im Wiki pflegen möchte oder (wie oben gezeigt) die Geschichte alle Apple-Macintosh-Computer nachzeichnen will.

Schweizer Stadtwikis stecken noch in den Anfängen

image

Das Konzept eines Stadtwikis (engl. City Wiki) ist rasch erklärt: Basierend auf einer Wiki-Software erstellen die Bewohner einer Stadt, einer Gemeinde oder einer Region gemeinsam eine Online-Dokumentation ihrer Heimat. Im deutschsprachigen Raum ist das Stadtwiki Karlsruhe das oft erwähnte Vorbild, das auch international bezüglich Anzahl Seiten einen Masstab darstellt (vgl. Statistik des Omaha Wiki). Aber auch Hamburg, Kassel, die Region Rhein-Neckar, Passau, Pforzheim oder München haben lebendige Stadtwikis.

In der Schweiz bietet sich ein anderes Bild: Wer nach «Stadtwiki» in der Schweiz googelt, findet nur gerade das Berner Stadtwiki (das über zwei Dutzend halbleere Seiten nicht herauskomment) und ein Stadtwiki-Portal (das ganz offensichtlich noch keinerlei Inhalte hat). Hier wäre – gerade im Hinblick auf die Euro 08 – noch Potential vorhanden!

Ist Google Knols wirklich eine Konkurrenz für die Wikipedia? Und nur für die Wikipedia?

image

Viel ist in den letzten Tagen geschrieben worden über Googles neustes Projekt namens Knols, das am 13. Dezember 2007 im offiziellen Google Blog angekündigt wurde. Und obwohl es sich um eine private Beta-Phase handelt und erst wenige von der Plattform mehr als einen gigantischen Screenshot gesehen haben, sind sich alle einig: Google will eine Konkurrenz zur Wikipedia lancieren. Das scheint mir ein bisschen arg verkürzt.

Halten wir fest: Google Knols ist eine Plattform, welche grundlegende Artikel (oder eben Knols = Units of Knowledge) zu Themen aus allen Wissensgebieten bereitstellen will. Dies ist zweifellos eine Parallele zur Wikipedia. Auch dass auf Knols grundsätzlich jeder publizieren kann, der möchte, erinnert an die freie Enzyklopädie. Es gibt aber auch einige wesentliche Unterschiede:

  • Bei Google Knols wird jeder Artikel von einem einzigen Autor verfasst, und dieser wird prominent auf der entsprechenden Seite genannt. Bei der Wikipedia werden die Artikel in der Regel von vielen verschiedenen Personen geschrieben, deren Identität oft unklar und insgesamt unwichtig ist. Google Knols wird also Autoren anlocken, die sich als Spezialisten auf einem bestimmten Gebiet sehen und sich auf diesem Weg selbst vermarkten wollen. Den Wikipedianern dagegen geht es mehr um die Sache – jedenfalls kann man als Wikipedia-Autor kaum Berühmtheit ausserhalb der Community erlangen.
       
  • Ziel der Wikipedia ist es, jedes Thema möglichst neutral und umfassend zu behandeln. Das ist ein hoher Anspruch und führt oft zu intensiven Auseinandersetzungen, bringt aber im Idealfall Artikel hervor, welche alle wesentlichen Positionen beleuchten. Bei Google Knols dagegen stellt ein Autor seinen eigenen Standpunkt dar – ist jemand anderer Meinung, so schreibt er nicht den Originalartikel um, sondern hinterlässt einen Kommentar oder verfasst eine Peer Review bzw. einen Konkurrenzartikel. Letzteres wiederum wäre in der Wikipedia undenkbar.
       
  • Auch bei der Wikipedia gibt es Diskussionen, werden Beiträge anderer kommentiert und bewertet. All dies geschieht aber hinter den Kulissen – für den normalen Benutzer fühlt sich die Wikipedia wie eine normale Enzyklopädie an. Bei Google Knols dagegen gibt es viele klassische Web-2.0-Elemente: Kommentarfunktion, Rating, Peer Review, Related Content. Sie alle sollen mithelfen, relevanten Content an die Oberfläche zu spülen und zusammenhängende Informationen zu verbinden (bekanntlich eine Stärke von Google).

Google Knols konkurriert deshalb fast eher mit Blogs, Zeitungs- bzw. Zeitschriften-Websites und Wissensplattformen (z.B. www.akademie.de, www.wissen.de, www.about.com). Mit dem Versprechen, eine grosse Reichweite zu erzielen und zugleich die Autoren an den Werbeeinnahmen zu beteiligen, will Google publikationswillige Fachleute anlocken und so ohne eigene redaktionelle Leistung relevanten Content aufbauen. Dafür stellt Google die Plattform und die Hosting-Kapazität zur Verfügung:

«Writers only need to write; we’ll do the rest.»

Das ist smart. Knols dürfte eines der bedeutendsten Projekte sein, das Google je lanciert hat. Nicht nur die Wikipedia, sondern auch Medienhäuser und Verlage werden die neue Konkurrenz spüren. Und es stellt sich die Frage, ob hier nicht eine Grenze überschritten wird, die uns allen zu denken geben müsste: Google könnte schon bald nicht mehr nur die beherrschende Suchmaschine sein, sondern auch ein dominierender Content Provider. Ob dies der Informationsfreiheit, der Meinungsvielfalt und dem Wissensaustausch dient (wie Google das selbst gerne sieht), oder ob es einen weiteren Schritt in Richtung Informations-Monopol darstellt, muss sich erst noch weisen. Kritisch scheinen mir dabei folgende Punkte:

  • Exklusivität – Google erhebt nach eigenen Aussagen keinen Exklusivitätsanspruch auf die Inhalte von Google Knols: «Google will not ask for any exclusivity on any of this content and will make that content available to any other search engine.» Was dies im Detail bedeutet, bedarf sicher noch der Klärung. Darf ein Autor einen Knols-Artikel auch in einer Zeitung oder in einem Buch veröffentlichen? Unterliegen die Artikel einer Creative Commons Licence oder gar der GDFL?
      
  • Selektion der Autoren und inhaltliche Zensur – Nach heutigen Aussagen wird Google keinen Einfluss auf die Inhalte von Knols nehmen: «Google will not serve as an editor in any way, and will not bless any content. All editorial responsibilities and control will rest with the authors. […] Anyone will be free to write.» Bleibt es dabei, dann kann Google Knols tatsächlich eine Plattform des freien Wissens- und Meinungsaustauschs werden. Nicht vergessen sind aber die Zensurmassnahmen von Google bei Google Maps (Stichwort: Irak) und bei Google Search (Stichwort: China).
      
  • Positionierung in den Google Suchresultaten – Entscheidend für Erfolg oder Misserfolg von Google Knols dürfte auch sein, wie die Inhalte in den Suchmaschinen auftauchen, insbesondere in der Google Search. Wikipedia-Artikel besetzen heute oft die Spitzenplätze in den Trefferlisten, was für die Akzeptanz der freien Enzyklopädie ganz entscheidend ist. Wird Google bei der eigenen Suche Google Knols in irgend einer Weise bevorzugen (z.B. so wie die Ergebnisse von Google News) und damit die eigenen Relevanzkriterien umgehen?

Encyclopaedia Britannica 1911 online

image

«The Sum of Human Knowledge» versprach die vielleicht wichtigste englischsprachige Enzyklopädie, die Encyclopaedia Britannica, 1911 ihren Lesern. Dank ihrer unglaublichen Informationstiefe und den zahlreichen prominenten Autoren war die 11. Ausgabe der Britannica sicher ein Meilenstein in der Lexikografie. Inzwischen sind viele Artikel veraltet, aber gerade historische und biografische Artikel können auch heute noch von Interesse sein, und manche Information ist hier noch greifbar, die in späteren Ausgaben nicht mehr zu finden ist.

Aufgrund seines Erscheinungsdatums ist das Werk inzwischen gemeinfrei (Public Domain). Es ist an verschiedenen Orten im Internet frei zugänglich – allerdings weisen alle diese digitalen Ausgaben Mängel auf:

  • LoveToKnow Classic Encyclopedia präsentiert die Britannica in Form eines Wikis, das nebst der Volltextsuche einen thematischen Einstieg basierend auf Artikelkategorien anbietet. Die Artikel sind querverlinkt, aber nur als Text verfügbar (d.h. nicht als Faksimilie). Die Qualität dieser (auf den ersten Blick sehr ansprechenden) Ausgabe ist umstritten, da die Aufbereitung offenbar maschinell erfolgte und dadurch diverse Fehler enthält (vgl. Kritik in der Wikipedia).
  • Die Online Encyclopedia ist ebenfalls eine reine Textausgabe. Sie ist schlicht, aber funktional, und sie verfügt ebenfalls über Querverlinkungen. Leser können auch hier Korrekturen und Ergänzungen anbringen – allerdings nicht direkt wie bei einem Wiki, sondern über ein Formular. Alle Beiträge werden also vor der Freischaltung von einem Redaktor geprüft. Ein systematisches Korrekturlesen der eingescannten Artikel hat aber auch hier nicht stattgefunden, und es gelten ähnliche Vorbehalte wie bei der obigen Version.
  • Beim Project Gutenberg sind einige wenige Bände der Britannica verfügbar. Die Texte enthalten auch Abbildungen, dafür keine Querverweise, und sie werden als eine einzige, lange HTML-Seite ohne Suchfunktion oder Sprungmarken angeboten – für ein Nachschlagewerk eine wenig geeignete Form. Dafür werden beim Project Gutenberg die gescannten und per OCR konvertierten Texte in der Regel korrekturgelesen.
  • Wikisource 1911 Encyclopaedia Britannica basiert auf den Texten von Project Gutenberg, ist also ebenso unvollständig, verfügt aber über eine bessere Struktur und die gesamte Wiki-Funktionalität. Der Ansatz ist somit vielversprechend – weil die meisten Bände noch fehlen bleibt der Nutzwert aber gering. Das entsprechende Wikisource-Projektteam könnte also noch Unterstützung gebrauchen.