Link-Ecke #4

Piratenparteitag Hessen

Michael Miller hat einen sehr schönen Rückblick zum Landesparteig der hessischen Piratenpartei geschrieben: Piraten auf dem Seeweg nach Demokratia

Einstiege in Google Wave

Das „Webkompetenz“-Blog hat einen sehr lesenswerten Artikel zum Einstieg in Google Wave verfasst. (via Netzwertig). Außerdem gibts noch den „complete Guide“ und bei Webworker Daily 6 Tips zum Benutzen von Google Wave beim ersten Projekt. Trotzdem finde ich das ganze bisher eher unspektakulär.

Mein Hirn explodiert

Der Spiegel hat einen interessanten Artikel über Informationsverarbeitung und die Grenzen des Verstands. Sehr netter Artikel.

Internet Explorer 9 – Microsoft gewährt erste Einblicke

BeimWebstandard-Blog gibt es Neuigkeiten rund um den Internet Explorer 9. Sehr schön, was da alles geplant ist. Leider macht dem Enthusiasmus das Wissen um Support für den IE6 bis 2014 den gar aus.

Googles Betriebssystem Chrome OS

Google stellt ChromeOS vor und alle so: „Yeaahh“. Ich nicht. Sorry. Aber kompletter Verzicht auf lokalen Speicher? Wozu nehmt ihr denn euer Notebook? Bei mir spielt das Ding auch Filme und Musik. Viel Spass mit dem ChromeOS, aber „in the Cloud“ halte ich für einen ziemlich bescheidenen Ansatz.

Wissen 2.0 #2: Wikis

Ein Wiki ist prinzipiell eine Lose-Blatt-Sammlung an Informationen, die durch entsprechende Querreferenzen eine vernetzte Sammlung von Wissen ergibt.

Bestes Beispiel ist Wikipedia, eine freie Enzyklopädie auf Basis eines Wikis (mittlerweile durch mehr, für jede Sprache eine Instanz, die auch wieder untereinander vernetzt sind).

Während man früher immer sagte „Viele Köche verderben den Brei“ ist es heute in Mode (auch aufgrund des Erfolgs von Wikipedia) auf die so genannte „Schwarmintelligenz“ zu setzen. Allerings ist es keine neue Entdeckung, Texte kollaborativ zu erstellen, redigierien, ergänzen.

Neu ist auch in diesem Fall wieder die genutzte Technik, die das ganze Drumherum für den Benutzer vereinfacht, so dass er sich im Prinzip nur noch um den Transfer seines Wissens in die Textform kümmern muss. Andere kümmern sich um das Korrekturlesen, die Formatierungen und die Verlinkungen.

Möglich gemacht wird dies durch bestimmte (einfache) Regeln, die es beim Editieren einzuhalten gilt, so kann innerhalb von kurzer Zeit ein fertiger Artikel entstehen, ohne dass größere Konflikte beim Speichern zu erwarten sind. Diese werden duch die verwendete Software entweder verhindert (Document Locking) oder behoben (automatisiertes diff und merge soweit möglich).

Der Hinweis auf die Vorgänge „diff“  und „merge“ zeigt schon, warum bzw. wie das Prinzip Wikipedia mittels der MediaWiki-Software funktioniert: man führt ein Versionskontrollsystem für den Artikel (Quelltext) ein. Dieses Prinzip funktioniert bei verteilter Softwareentwicklung mittels CVS und SVN sehr gut, hier wird es für einen Artikeltext eingesetzt.

Womit wir wieder bei alten/bewährten Techniken in neuem Kontext wären.

Wissen 2.0 #1: Tags

Wie organisieren wir Informationen im Web 2.0

Mit dem „Web 2.0“ wurden viele altbekannte Techniken erst richtig bekannt, andere Techniken wurden neu entwickelt. Dabei beschränken sich Neuentwicklungen meistens auf die technischen Aspekte, mit denen altbekannte Techniken zu neuem Leben erweckt wurden.

Tags

Tagging an sich ist nichts Neues. Der Name ist aus dem englischen übernommen worden, die Verschlagwortung gibt es schon immer. Im Prinzip ist das „tagging“ nichts anderes als eine Schnittmenge einer Volltextsuche.

Stehen die richtigen Begriffe auch in einem Volltext, ist das Tagging an sich für das Auffinden von Inhalten eher untergeordnet. Eigentlich reicht es auch schon, dass in einem Text zu dem normalen Text ein Abschnitt mit möglichen Suchwörtern eingefügt wird, das wäre die rudimentärste Form.

Tagwolken

Tagwolke auf campino2k.deEines der besten Beispiele für die Verwendung von neuen Technologien mit bewährten Techniken sind die so genannten „Tagwolken“. Durch eine definierte Syntax der Tags wird eine extraktion der Tags aus einem Text, Posting oder Artikel vorgenommen.

In den meisten Systemen werden die Tags getrennt vom eigentlichen Beitrag eingetragen, wie zum Beispiel bei WordPress.

Durch eine eindeutige Extraktion ist es möglich, die Anzahl der Tags (unique) und die Anzahl der Vergabe eines unique-Tags zu zählen und in Relation zu setzen. Dadurch kann eine Gewichtung der Schlagworte vorgenommen werden.

Die Darstellungsweise dafür ist vielfältig, eine geordnete Liste nach Anzahl der Vergaben ist ebenso möglich, die die (sehr beliebte) Darstellung einer so genannten „Tagwolke“. Diese ordnet die vergebenen Schlagwörter im Fall von WordPress alphabetisch und gewichtet die Häufigkeit eines Schlagworts mit der Größe der Schrift.

Wie man also an der Abbildung der Wolke meines Blogs sehen kann, liegen bei mir die Themen Fotografie, Internet und Linux relativ weit vorne in der Beitragsanzahl.

Besser als bloß zu besitzen?

I use roads that I don’t own. I have immediate access to 99% of the roads and highways of the world (with a few exceptions) because they are a public commons. We are all granted this street access via our payment of local taxes. For almost any purpose I can think of, the roads of the world serve me as if I owned them. Even better than if I owned them since I am not in charge of maintaining them. The bulk of public infrastructure offers the same „better than owning“ benefits. Kevin Kelly — The Technium

An und für sich ist die Grundidee des ganzen ja nett und verständlich, sogar überlegenswert (bis auf den Aspekt Autos und Kleider), allerdings fehlt mir ein Aspekt in der ganzen Geschichte völlig: wen bezahle ich für den möglichen Zugriff, wie bezahle, was bezahle ich (mengenmäßig).

Und selbst wenn ich zahle, wie wird sichergestellt, dass niemand den Zugriff auf bestimmte Dinge verhindert? Kein Besitz, heisst zwar einerseits: keine Arbeit, denn Eigentum verpflichtet. Aber kein Besitz heisst auch: Komplettverzicht auf Kontrolle über das eigene Wissen. Damit könnte man nahtlos zum Thema Cloud Computing und Richard Stallmanns Meinung dazu überleiten. Diese Meinung teile ich übrigens. Denn wenn Information quasi zentral verwaltet wird, ist das sowohl Flaschenhals als auch Sollbruchstelle. GFoC fiele mir dazu auch noch ein.

Außerdem stellt sich die Frage, wie das „Mieten“ von digitalen Inhalten langfristig durchsetzbar sein wird, DRM ist dazu keine Lösung, für Musik bereits verachtet und am Aussterben, bei Filmen aktuell noch am Zenith. Aber sobald SOC sich flächendeckend durchsetzt, wird auch bei Filmen das DRM aussterben (müssen). (via netzwertig)

Dazu kommt, dass die Desktop-Revolution noch maximal 10 Jahre entfernt ist. Open Source trotzt (größtenteils) den Finanzkrisen. Natürlich kann es passieren, dass durch Entlassungen bei Sun, Novell und anderen OSS-affinen Firmen die Entwicklung eingeschränkt wird, aber durch ihre Lizenzen und ihre Entwicklungsmodelle ist Open Source das überlebensfähigste Softwareentwicklungsmodell. Ich rede bewusst nicht von Geschäftsmodellen, denn das ist ein anderes Thema.

Medienkompetenz in der Politik

Das es mit der Medienkompetenz in der deutschen Politik nicht weit her ist, ist ja nichts neues, das Gerede von Medienkompetenz in der Generation 30+ auch nicht. Ebenso ist nicht neu, dass der eine oder andere aus diversen Gründen (s)einen Artikel verschönern oder in anderer Form zensieren möchte.

Ich möchte Herrn Heilmann hier nicht einmal vorwerfen, dass er möglicherweise falsche Behauptungen aus dem Artikel heraus haben möchte, allein die Art und Weise, mit der er auf diese Aufgabe zugegangen ist, hat beweisen, dass er das Prinzip der Wikipedia [de.wikipedia.org] (und das Verhältnis zum Wikipedia e.V. [wikipedia.de]) nicht verstanden hat. Damit hat er sich und seiner Partei in meinen Augen mehr Schaden zugefügt, als es eigentlich notwendig gewesen wäre. Den so genannten Streisand Effekt kannte ich übrigens auch noch nicht dem Namen nach.

Interessant dabei ist, dass dies schon der zweite Versuch von Mitgliedern der Partei „Die Linken“ ist, Inhalte aus dem Lexikon tilgen zu lassen.

Aber wen verwundert es, wenn deutsche Politiker, die Menschen, die für uns darüber entscheiden sollen, wer, wie, und wann man überhaupt ins Internet darf, was verboten und was erlaubt ist, absolut keinen blassen Schimmer von der Materie haben? Niemanden. Daher: Lernen bei Fixmbr. Jetzt.

Im übrigen fand ich das Statement auf wikipedia.de sehr straight forward. Hut ab.

Knowledgemanagement mit Wikis

Web2.0, User Generated Content, nichts ist näher dran als Wikis. Wikipedia hat es vorgemacht, das Projekt „Lexikon von Menschen für Menschen“ gilt als Referenzbeispiel für das scheinbar funktionierende Modell des „User Genereated Content“. Eine bereitgestellte Plattform und die Aufforderung „Schreibt mal ein Lexikon“ ließen innerhalb weniger Jahre die vermutlich größte Wissenssammlung im Internet entstehen.

Das ist ein Effekt, der im täglichen Leben auch nicht verkehrt sein kann, auch – und vor allem – nicht in Unternehmen.

Schließlich ist die interne Dokumentation von Vorgängen, Produkten, Best Practices sehr wertvoll für die Wissenserhaltung in der Firma.

Doch der Erfolg eines Wikis ist abhängig von den Benutzern, der wiederum von deren Akzeptanz für das System an sich. Wer mit der Software nicht zurecht kommt, wird das System nicht benutzen, ganz gleich wie toll und super das System an sich ist. Manchmal ist weniger mehr, denn Feature-Richness ist schließlich nicht alles. Und es gibt schließlich nie „das Beste“ System, sondern nur das für den jeweiligen Einsatzzweck am besten geeignete.

Und genau das sollte der Kernpunkt der Evaluierung sein: Herausfinden, was (die eigenen) Nutzer brauchen. Und wir reden nicht von Dingen wie „Skalierbarkeit“, „Performance“ und ähnlichen technischen Eigenschaften. Wichtig sind benutzbare Funktionen. User brauchen Dinge wie Rich-Text-Editoren, die man für fast jedes Wiki nachrüsten kann. (Wobei man sagen muss, dass je nach Gesamtzusammensetzung der Usergruppe unterschiedliche Dinge gefordert werden können, die Keypoints unterscheiden sich da je nach Zielgruppe, Lernbereitschaft und Erwartungen/Anforderungen der Gruppe an das System)

Aber deren Integration in das (Wiki-)System ist der Aussschlag gebende Punkt für den Erfolg des Wikis. Denn was bringt es, wenn der Editor Seiten verlinkt, aber man umständlich nach den Seiten suchen muss. Was bringt es, wenn der Editor prinzipiell einen Medien-Manager hat, man aber nicht einmal dessen Dateiverwaltung aufs grundlegendste an das implementierende System angepasst hat (ich rede nicht von einem internen Aufwand, sondern von einer Extension, die für Mediawiki angeboten wird). Und das wäre in so einem Fall noch relativ einfach gewesen.

Wichtige Funktionen wie Links, Kategorien und Dateiuploads werden durch nicht vorhandene Usability ihrem Zweck beraubt. Gegenüber dem angeblichen Marktführer MediaWiki hat sich die Community des DokuWiki deutlich mehr Arbeit gemacht, einen Rich-Text-Editor (übrigens in diesem Fall genau wie bei MediaWiki der grandiose FCK-Editor) auf das zu unterstützende System anzupassen. So wurde der Medienmanager des DokuWiki in die Dialoge integriert, ebenso ist es in der Link-Sektion einfach möglich, eine Seite aus der Struktur des Wikis zu verlinken. Und am vielleicht allerwichtigsten und damit am nervigsten in der MediaWiki-Extension: Im Dokuwiki funktioniert Rich-Text-Copy und Paste. Natürlich mit der einen oder anderen kleinen Nebenwirkung, insgesamt aber deutlich besser als im MediaWiki.

Natürlich hat die Bequemlichkeit einen Preis, so man ihn so nennen möchte: Es wird vorausgesetzt, dass ein bestimmtes Perl-Modul (CPAN-Modul) auf dem Server installiert ist. Wer sein Wiki genutzt wissen will, sollte wissen: Für ein benutztes Wiki sollte man alles tun, was nötig ist. Vor allem gut prüfen und evaluieren, was man wirklich braucht.