tekom-Jahrestagung 2008 #4

Sarah O’Keefe: The Implications of Web 2.0 for Technical Communicators

Hm, noch ein Web 2.0-Vortrag? Ich hatte mehrfach gehört, dass Sarah gute Vorträge hält, also habe ich in Kauf genommen eventuell wieder zu hören, was ein Wiki oder Podcast ist 😉

Erfreulicherweise ging der Vortrag aber wirklich auch in die Richtung, wie wir als Redakteure die Möglichkeiten des Web 2.0 nutzen können und was wo Sinn machen könnte.

The distinction between producer and end-user vanishes.

Das ist meiner Meinung nach eine sehr wichtige Aussage, deren Umfang noch viele Leute nicht erfasst haben. Viele schreien nur bei der Erwähnung eines Forums oder einer Kommentarfunktion für die Hilfe: „Oh mein Gott, dann schreiben doch bestimmt auch viele: ‚Ihr seid blöd.'“ Ja, das wird sich auch passieren. Aber: man hat es selbst in der Hand das dann auch zu änderen.

Prinzipiell kann inzwischen jeder etwas im Netz produzieren. Wenn man aber selbst dem Nutzer keine Möglichkeit gibt, sich zur Doku zu äußern oder vielleicht auch sogar etwas dazu zu produzieren, kann er es auch ganz einfach woanders machen. Zum Beispiel in irgendeinem anderen Forum, wo er tatsächlich einen Hinweis darüber hinterlassen kann, wie blöd er doch die Firma findet. Kann der Nutzer sich aber direkt im Firmenumfeld äußern, hat man selbst eine bessere „Kontrolle“ und erfährt aus erster Hand, was für positive Erfahrungen aber auch Probleme es gibt.

Hier haben wir kurz darüber diskutiert, dass die meisten Leute Hilfe googlen. Und mal ehrlich: wie oft passiert es, dass man dann auf der Seite des jeweiligen Herstellers landet? Aber genau das möchte doch eigentlich jeder Hersteller, inklusive seiner Redakteure.

Von den Zuhörern hatten nur sehr wenige ihre Doku überhaupt frei für Suchmaschinen zugänglich im Netz und genau eine einzige Dame hat sich in diesem Zusammenhang überhaupt mit SEO beschäftigt.

How do you provide user assistance in the midst of chaos?

  • Web 2.0 steht für spezifische, gerne auch emotionsbehaftete, keineswegs vollständige und mitunter auch veraltetet Information.
  • Die traditionelle Doku deckt möglichst alles ab, ist neutral und wird (im Idealfall) regelmäßig aktualisiert.

Um es kurz zu machen: man sollte auf eine Mischung aus der traditionellen Doku und den Web 2.0-Möglichkeiten setzen. Beide Welten decken unterschiedliche Bedürfnisse ab.

Um die Grundprinzipien eines Produkts zu verstehen, ist eine normale Hilfe perfekt. Ein fortgeschrittener Nutzer hat vielleicht irgendein seltsames Problem und würde gerne in einem Forum schauen, ob andere das auch schon hatten. Der Power-Nutzer interessiert sich nicht für die Kinkerlitzchen, sondern will gute Tipps, Best Practices für den Einsatz eines Produkts – etwas was in kaum einer Doku umfassend zu finden sein wird.

Oder um es grafisch zusammenzufassen (Quelle: http://www.scriptorium.com/whitepapers/web2/web2_2.html):

Ich liebe diese Grafik, weil sie genau das widerspiegelt, was ich seit längerem im Kopf habe 🙂

Motivation

Das ist natürlich immer ein Problem im Web 2.0 – man denke nur an Wikis! Folgende Möglichkeiten zur Motivierung der Nutzer kamen während des Vortrags dazu auf:

  • Bewertungsmechanismen
  • Honorierung der aktivsten User (hier war nicht Geld gemeint, sondern eher eine Sonderstellung)
  • Private Foren: Das kam aus dem Publikum und der Besucher erzählte, dass er sehr gute Erfahrungen damit gemacht hatte, das Forum einfach zu etwas Exklusivem zu erklären zu dem nicht jeder Zugang hat. Das werde ich mir mal vor allem für die Experten / Power-Nutzer-Geschichte merken.

Bedenkenswert

  • Suche: eine der meistgenutzten Navigationen durch Hilfe. Idealerweise durchsucht sie dann allen Informationenarten, die man anbietet (Hilfe, Forum, Wiki, Blog, White papers…). Bei diesen versch. Medien wird es aber sehr schwer, passende Suchalgorithmen zu finden.
  • Haftung: wer haftet, wenn im Forum etwas steht, was total falsch ist?
  • Korrekturen: was macht man eigentlich mit Kommentaren, die auf Fehler im Hilfetext hinweisen, wenn man den Fehler korrigiert hat? Lässt man sie stehen oder verwirren sie nachkommende Leser?

Fazit

Ein sehr gelungener Vortrag. Vor allem, weil eben nicht nur mit Buzzwords jongliert wurde, sondern tatsächlich ein sehr schönes Konzept dahintersteht. Letztendlich bietet das Web 2.0 viele nette Spielereien, aber für uns als Redakteure müssen sie immer einen Zweck erfüllen: die Bedürfnisse des Nutzer möglichst abdecken.

Wer die Folien zum Vortrag sehen möchte, möge sich bitte zum Scriptorium-Blog begeben. Achtung, die Folien sind im Flash-Format und daher etwas schwerfällig und unpraktisch. Aber der Inhalt entschädigt 😉

Neuer Header

Da soll noch einmal einer sagen, dass Designen so einfach ist… Für diesen neuen Header hab ich nun 1,5h gebraucht. Wobei man allerdings sagen muss, dass die meiste Zeit dafür draufging, andere Ideen zu verwerfen 😉

tekom-Jahrestagung 2008 #3

Translation Reuse Strategies

von Hans Pich

Eigentlich wollte ich in den Vortrag zu DITA, XLIFF und Co., aber irgendwie bin ich durcheinander gekommen, aber thematisch war auch dieser Vortrag durchaus auch nicht verkehrt 😉

Zuerst hatte ich erwartet, dass einfach wieder über den tollen Einsatz von TMS und blablabla erzählt wird. Der Ansatz von Herrn Pich ging zwar natürlich in die Richtung, aber die Kernaussage war, dass auch die ganze Systemlandschaft aus CMS, TMS, Terminologiedatenbank und was man sonst so hat, einen nicht davor retten kann, dann man schlechte Übersetzungen hat bzw. Übersetzungen, die man doch nicht wiederverwenden kann.

Folgende Probleme sind bei der CMS-TMS-Kombi da:

  • Kontextarmut/Stückeltexte: hat man ein CMS eine Weile in Betrieb, kriegt die Übersetzung irgendwann nur noch Textteile und nicht mehr vollständige Texte. Eigentlich ist es ja ein Vorteil, das man nur noch Dinge zur Übersetzung weiterleitete, die sich auch geändert haben, aber so völlig ohne Kontext hat es ein Übersetzer echt schwer. Damit kann sich die Textqualität der Übersetzung ungewollt verschlechtern.
  • Inkonsistenz/Sprachentwicklung: diese Überlegung war mir völlig neu, ist aber sehr schlau. Einzelne Textfragmente / Wörter, /Wendungen die heute noch passend und aktuell sind, könnten in 10 Jahren völlig out-of-date sein. Bloß, wie findet man diese wieder, wenn sich an der Quelle nichts geändert hat und damit nichts zur erneuten Übersetzung kommt, wo dies vielleicht angepasst würde. Als Beispiel wurde die polnische Sprache genannt, die sich in den letzten Jahren wohl signifikant entwickelt hat.
  • Übersetzungsfehler: das schlägt in die ähnliche Kerbe, wie die Sprachentwicklung. Was erst einmal im CMS bzw. TMS drin ist, bleibt auch drin.

Folgende Wege aus dem Dilemma, dass Tools alleine nicht helfen, gibt es hier:

  • Qualität folgt aus Qualifikation
    • ausgebildete Redakteure
    • technische Übersetzer
  • Semantisch vollständige Informationseinheiten an Übersetzer geben!
  • Übersetzungsgerechte Quelltexte produzieren
  • Definierte Quellterminologie
  • Lokalisierungsangaben
  • Styleguides

Damit stehen die Chancen höher, dass  man Qualität in CMS und TMS reinpumpt. Und man will ja auch schließlich nur Qualität wiederverwenden.

Bei der Auswahl der Übersetzer sollte man ebenfalls sehr sorgfältig sein, z.B. site visits machen, um zu sehen wie die arbeiten. An dieser Stelle folgte dann eine Frage aus dem Publikum: Was mache ich, wenn mein Übersetzer seine Texte lieber in Excel haben will als in einem TMS-Format? Hab ich den falschen Übersetzer oder mache ich was falsch? Klar, was da die Antwort war 😉

Fazit

Über Reuse hat man jetzt nicht viel gehört, sondern eher was über Qualitätssicherung. Für mich war das meiste nichts Neues, aber für die Manager und Führungskräfte denen man als Redaktion diese Dinge verkaufen muss, sicherlich gute Denkansätze. Am Ende hat es mich halt doch geärgert, dass ich den DITA+XLIFF-Vortrag verduselt habe…

tekom-Jahrestagung 2008 #2

Was User lieben, was sie hassen
von Peter Hogenkamp (Zeix AG)

Dieser Vortrag war sehr gut besucht – und das zu Recht.

Peter startete den Vortrag mit einer Anekdote darüber, dass er auf dem Weg zur Tagung verzweifelt versuchte die Uhr seines Mietwagens auf Winterzeit zu stellen. Dumm nur, dass Toyota sich bei diesem Auto gedacht hat, dass man diese Aktion aus Sicherheitsgründen nur bei stehendem Auto durchführen darf 😀

Der Vortrag hat sich auf 4 große Bereiche konzentriert.

Suche
Inzwischen ist Google ja das Synonym für Suchen im Netz schlechthin. Jeder mag Google! Und jeder will so etwas Einfaches und gut Funktionierendes wie Google. …oder jedenfalls glaubt jeder, dass er Google will, so Peter.
Denn Google ist absolut prima bei so etwas schwach strukturiertem wie dem Internet, ABER wenn es sowieso darum geht strukturierte Daten zu durchsuchen, sollte man eine differenzierte Suche anbieten. Das heißt, wenn eine Suche über Adressdaten mit Straße, Ort, Telefonnummer etc. läuft, kommen User eher zum Ziel, wenn man ihnen für jeden Datentyp ein dediziertes Suchfeld zur Verfügung stellt. Obwohl sie selber sagen, dass sie sich eigentlich nur ein einziges Feld wünschen.

Gerade der letzte Satz hat mich ziemlich zum Nachdenken darüber gebracht, was man eigentlich so von Userumfragen zu halten hat.

Nutzer verhalten sich aus Entwicklersicht unlogisch.

Kicher… Wer mal einen Usabilitysicht mitgemacht hat, weiß was das heißt! 😉 Beispiel zu dieser Aussage: Die meisten Nutzer ändern bei einer nicht erfolgreichen Suchanfrage ihre Anfrage so, dass sie die bisherige Anfrage um weitere Suchwörter erweitern, anstatt dass sie ganz andere Suchwörter benutzen, wie es ja eigentlich logisch wäre. Der Gedankengang dahinter ist äußerst menschlich: „Na, wenn ich der Suche noch mehr Information zu dem Gesuchten gebe, findet sie’s vielleicht besser.“

Web 2.0 und die Nicht-Standard-Falle
Hier hat Peter einen kurzen Überblick darüber gegeben, was Ajax eigentlich ist und was es konkret für die Nutzer bedeutet. Und dann hat er sich der sog. „Nicht-Standard-Falle“ gewidmet. Sehr guter Begriff, btw 🙂

Sehr gut fand ich dann die Negativbeispiele, die er angeführt hat. Es ging dabei vor allem darum, wie sich die Entwickler oder Conceptioner vor lauter Ajax-Möglichkeiten dazu verleiten lassen, alterhergebrachte, weit verbreitete, gute funktionierende Funktionen und Metaphern mit Ajax-Füßen zu treten.

  • oftmals kein Springen durch Formularfelder mithilfe Tabulator möglich
  • bei Drop-down-Menüs bewirkt das Eintippen von Buchstaben/Zahlen nicht, dass das Menü zum Buchstaben/zur Zahl springt
  • bei Scroll-Balken funktioniert nur der Balken, aber nicht die kleinen Pfeile an den Enden des Balkens

Kurz: man baut sich alles neu, weil man’s kann und vernachlässigt dem User vertraute Standards.

Mobiles Internet

Hier ging es ein bisschen um die Zukunftsmusik, das wir nun zunehmend mobil im Internet unterwegs sein werden und wie gerade das iPhone dieser Entwicklung einen gewaltigen Schub versetzt hat. dafür sind aber viele Websites noch nicht gerüstet. Denn wer einmal versucht sich beispielsweise die tekom-Seite auf dem iPhone anzuschauen, kommt aus dem Scrollen nicht mehr raus (das hat für einige Lacher gesorgt…). Ein mobile Theme, das automatisch auf die Seite angewandt wird, wenn sie von einem mobilen Gerät aus angeschaut wird, wäre hier Gold wert.

Darüber hinaus kam auch noch Kritik an den Mobilfunk-Providern auf den Tisch, die mit unattraktiven Tarifen die „mobile Revolution“ noch einschränken.

We tend to overestimate the effect of a technology in the short run and we tend to underestimate the effect in the long run. (Amara’s law)

User-centered design

Für dieses Thema blieb leider nicht mehr viel Zeit. Peter stellte vor, wie Usability eigentlich idealerweise in Projekte miteinbezogen werden sollte. Und auch hierbei war, wie gerade überall, das Zauberwort: iterativ.

Man sollte so früh wie möglich im Entwickungszyklus mit Prototypen beginnen. Sei es anfangs nur Papier, dann irgendwann billige HTML-Seiten oder Flash-Prototypen. Hauptsache, die Produktentwickung bezieht ihre Zielgruppe mit ein: die User!

Fazit

Ein sehr lohnenswerter Vortrag bei dem viel gelacht wurde und man einiges Interessantes erfahren konnte, gerade die Sache mit der Suche und der Nicht-Standard-Falle fand ich sehr am Puls der Zeit. Man muss vor lauter Hipness eben auch ein bisschen am Boden bleiben 😉

Ich habe mir eigentlich mehr Bezugnahme zur technischen Dokumentationen erwartet: also was lieben User an der Doku und was hassen sie, aus Usability-Sicht. Der einzige Bezug wurde am Ende kurz eingeworfen: Prototypen könnten ja auch für neue Hilfeformen gemacht werden, um sie dann am User zu testen. Davon noch mehr und ich wäre galaktisch begeistert gewesen 😉

Wer mehr wissen möchte und Lust auf ein paar Usability-Schmankerl hat, möge hier reinschauen: http://blog.zeix.com.