WikiWebs

aus Nomads, der freien Wissensdatenbank

Inhaltsverzeichnis

WikiWebs

Wikis sind somit die einfachsten Content Management System die tatsächlich funktionieren.

Es gibt über hundert Wiki-Implementierungen (Übersicht WikiEngines) und viele hunderte Wiki-Communities (Verzeichnis).

Informationen zum Wiki-Prinzip: Why Wiki Works.

Auch die Rechnerbetriebsgruppe der Humboldt Universität beschäftigt sich mit WikiWebs (siehe CMS-Journal Mai 2004).

Architektur

Wikis haben meist eine recht einfache Architektur. Sie besteht aus:

  • dem Storage Backend:
    Dies kann eine Datenbank, das Filesystem etc sein.
  • Einem Existenzmanager:
    Dieser legt Seiten an und findet diese wieder.
  • Einem Markuprenderer:
    Dieser liest das WikiMarkup und wandelt es in (hoffentlich) gueltiges (X)HTML.
  • Dem Webframework (J2EE, Zope, CGI etc)

Eine nette grafische Darstellung ist hier zu finden.

WikiEngines

Eine kurze nicht vollständige Liste von Wikis

  • Mediawiki - die Engine auf der dieses Wiki und die Wikipedia läuft.
  • JSPWiki Die Engine unseres altens Wikis
  • Snip Snap - SnipSnap ist eine Java basiertes WikiLog (wiki + WebLog) des Frauenhofer Institutes.
  • MoinMoin - sehr hübsches auf Python basierndes WikiWeb
  • DseWiki - zeigt die populärsten Seiten mit Lese- und Editierrate
  • Zwiki baut auf Zope auf und sieht recht umfangreich aus.
  • DevWiki - Diese WikiEngine speichern die Seiten von Wikis in CVS.
  • Chiki - Chiki is a Wiki-like system based on Struts
  • WackoWiki - A slight and easy to install Wiki-engine. (php)

Gewünschte Features

Semantische Informationen. Semantic Wiki

Ein semantisches Wiki hat ein Model welches die Seiten beschreibt. [1]

Reputations-System

Benutzer:Pibach: Ich suche was mit Page-Reputation. Anders als beim Google-Link-Ranking hat man bei einer Wiki-Engine ja ganz andere Möglichkeiten, da voller Zugriff auf das Logfile. Ranking kann so nicht nur über Links, sondern auch z.B. über Traffic und Updatefrequenz berechnet werden. Das Ranking sollte so publiziert sein, das User es sehen können aber auch danach suchen und sortieren. Idealer weise könnte man eine Suchmaschnine wie Kartoo drüber laufen lassen, die grafisch Ranking und Vernetzung darstellt. Damit das ganze auch global anwendbar ist (auch auf andere WikiWebseiten) wäre eine RDF konforme XML Ontologie zu entwicklen. Aussedem müsste man sich überlegen, wie man in diesem System Suchmaschinen-Spoofing verhindert.

Das ganze Ranking dann noch personalisiert auf das Profil des aktuellen Users...

Weiteres Feature wäre Author-Reputation, die man sich durch Qualität der Beiträge erarbeiten kann. In diesem Wissensnetz könnte man dann z.B. Experten zu bestimmten Themen finden.

Neue Geschäftsmodelle: Vielleicht kann man auch Payment a la PayPal dazwischenstricken, um damit Geld zu verdienen?

Soweit ich bislang weiss, gibt es in diese Richtung bislang nichts, wird aber viel diskutiert. Wenn wir hier mit einer Implementation kommen, kann das große Breitenwirkung entfalten.

Die Implementation werden wir dann natürlich für dieses Wiki übernehmen.

Benutzer:Jan: Author-Reputation gibt es z.B. bei everything2. Dort können alle User Knoten (Node) bewerten und User mit Höherem Ranking können diese auch löschen. Der Vorteil gegenüber einem automatischen Ranking ist das nach Inhalt bewertet wird. (Viel Traffic heisst ja noch lange nichts gutes....)

Pibach: Automatisches Ranking hat aber unverkennbare Vorteile. Man muß das halt intelligent machen, z.B.:

  • Wiederkehrrate: Anzahl der Besucher, die die Seite nochmal ansurfen
  • Editierrate
    • Der Umfang der Edits ist sicherlich auch interessant. Wer hat wieviel geschrieben. Viele einfache optische Korrekturen oder viele kleine Edits sind ja nicht unbedingt ein Merkmal von Qualitaet. (Ich neige zum SaveOften da ich Rechnern nie so wirklich vertraue...)
  • Link Ranking (wie Google, nur auf WikiWebs kann man neue Links in Echtzeit ins Rankin reinnehmen)
  • Links kann man mit ihrer Click-Through Rate gewichten
  • dadurch kann man Seiten auch nach ihren ausgehenden Links bewerten (bei Google nur eingehende)
  • Man kann auch versuchen, Leseverhalten zu beurteilen, z.B. wenn jemand das Fenster vorne hat und langsam drin scrollt ließt er vielleicht den Inhalt. Die WikiEngine hat darauf natürlich keinen Zugriff. Aber auf die Zeit zwischen Aufruf einer Seite und verlassen der Seite durch Click in der Seite. Liegt dazwischen eine sinnvolle Zeitspanne könnte man das als "gelesen und für interessant befunden" interpretieren.

Wer hat weitere Ideen oder Links?

Vermittlungsfunktionen

Benutzer:Pibach (28.05.04): Tolles Feature wäre auch:

  • Who's online? - zeigt eingeloggte User, mit denen man dann z.B. über Chat direkt Kontakt aufnehmen kann
  • Who's near me? - das ganze bezogen auf bestimmte verwandte Seiten, die jemand besucht hat.

hier zu beachten:

  • incrementelle Annäherung über entsprechene Privacy Einstellungen und Eröffnungs Dialoge
  • evtl. ein "Virtueller Confroncier" der Leute entsprechend ihrer Interessen zusammenbringt

Garbage Collection

Benutzer:Pibach (28.05.04) Und ganz wichtig:

  • Garbage Collection - Unwichtiges weg
  • Redundanz Eliminierer - Doppeltes erkennen und zumindest darauf verweisen, evtl beim Verschmelzen helfen

Ideen wie das gehen könnte?


InterWiki

  • Migration von Seiten ist ein wichtiges Feature, also wie man :
  • bestehende Webseiten ins Wiki kriegt
  • ganze Teilbäume auf andere WikiEngines umsiedelt, siehe dazu WikiGateway
  • die Struktur komfortabel ändern kann
  • Änderungen nicht zu Broken Links führen
  • Refaktoring - mit der Zeit werden die Seiten zu groß und man muß Inhalte umverteilen. Semiautomatische Unterstützung wäre hierbei hilfreich
  • Site promotion - um Seiten zu finden sollten sie verlinkt sein. Hübsch wäre ein Roboter, der intelligent neu erzeugte Seiten in Suchmaschinen und in andere Wikiseiten einträgt.
  • wie man vernetzte Webseiten serialisiert und z.B. als PDF ausdruckt (das hat nicht unbeding was mit WikiWebs zu tun, würde sie aber sehr nützlich für "Distributed Authoring" machen)

--Jan 15:54, 18. Jan 2006 (CET) Gibt es - ich habe einen Papierausdruck des Wikipedias (zum Thema Internet) - das bring ich dann mit.

Benutzer:Pibach: Hört sich interesant an. Stell doch mal Link dazu rein. Kan man damit beliebige Webseiten "serialisieren" und ausdrucken? Oder geht das nur für WikiWebs unter bestimmten Annahmen über die Inhalte und das Layout?

--Jan 15:54, 18. Jan 2006 (CET): Das MediaWiki kann alle Seiten auch als PDF generieren. [2]

Ganz wichtig: Nur wenn Seiten fest bleiben, können externe Links darauf gesetzt werden. Nur so wird man in Google gefunden. Das ist ein großes Problem von dynamischen Webs!


User Interface

[Pibach] (28.05.04): Bisher verwendet jede Wikiengine eigene Syntax. Eine komplett andere Idee wäre der Zugang über das Standardprotokoll WebDAV / Delta V. Dann könnte man jeden beliebigen Client benutzen. Diese Lösung würde ich deutlich favoriesieren. Ggf. beide Zugangsmöglichkeiten parallel. Dann verschwindet langsam der Unterschied zwischen "normalen" Seiten und WikiSeiten. Bin überzeugt, dass es darauf zusteuern wird.

Visualisierung

Benutzer:Pibach (28.05.04): Idealerweise getrennt von der WikiEngine. WikiWebs kummulieren den Content, Suchmaschnien suchen und Präsentieren ihn. Evtl. grafische Darstellung sinnvoll als Browser Plugin?

ausgelagert in Visualisierung

Ideen zur Implementation

Reputations-System

Benutzer:Pibach (28.05.04):

  • z.B. ein "Rank Counter" - nach geometrischer Formel erhalten die Texte zeitabhängigen Wert. Bei der Erstellung normiert auf X. nach Zeit t hat der Text den Wert X/2, wenn er nicht angeklickt oder geändert wurde, nach 2t nur noch X/4 usw. Mittelwert des Anklickens je Zeitinterval t über alle Texte ist sagen wir V (statt über traffic könnte hier auch jede andere Bewertungsfunktion stehen). Liegt die Klickrate über V, erhöht sich die Textbewertung, sonst geht sie runter. Formel: Wert(neu)=Wert(alt)/2+Klicks/V oder so ähnlich. Geht der Text unter "Delition Alert Limt" erhalten alle Autoren eine Warnungs Mail. Geht der Wert unter "Delete Limit" wird er gelöscht.

Benutzer:Pibach (11.06.04): Damit es auf Castor laufen kann: Debian Linux, Port 80 (anderes geht nicht durch die Firewall). Das aktuelle JSPWiki läuft z.B. über Tomcat-connector/Apache Hat sich Castor nicht erledigt? --Jan 19:43, 17. Jan 2006 (CET)

--Jan 19:43, 17. Jan 2006 (CET) (12.06.04) Für Debian gibts es ein moin moin package. Auf meinem Heimserver läuft es noch nicht da moin moin python 2.3 benötigt und dieses ist als "unstable" klassifiziert... Wer kennt sich mit Debian ein bisschen besser aus und gibt mir nen tipp?

JSP-Wiki - Plugin Implementation

(Idee)

Zur Implementation habe ich 2 Ideen. Die "einfachste" Variante wäre einfach ein oder mehrere Rating Plugins zu schreiben. Da bei einem Plugin das Rating aber bei jedem Aufruf berechnet wird ist dies sicherlich nicht sehr performant (benutze den Tomcat - langsamer gehts eh nicht) - schneller wäre es das Rating (oder den Teil der viel Zeit braucht) nur dann aufzurufen wenn die Seite gespeichert (geändert) wird - also die Implementation im Wiki selber unterzubringen.

Natürlich kann man beide Ideen auch kombinieren - die Plugins würden dann nur die schnell berechnbare Addtion ausführen - das langsame Zählen wird von der "Engine" beim speichern gemacht....

Benutzer:Jan


Literatur

'Persönliche Werkzeuge