tekom-Jahrestagung 2008 #4

Sarah O’Keefe: The Implications of Web 2.0 for Technical Communicators

Hm, noch ein Web 2.0-Vortrag? Ich hatte mehrfach gehört, dass Sarah gute Vorträge hält, also habe ich in Kauf genommen eventuell wieder zu hören, was ein Wiki oder Podcast ist 😉

Erfreulicherweise ging der Vortrag aber wirklich auch in die Richtung, wie wir als Redakteure die Möglichkeiten des Web 2.0 nutzen können und was wo Sinn machen könnte.

The distinction between producer and end-user vanishes.

Das ist meiner Meinung nach eine sehr wichtige Aussage, deren Umfang noch viele Leute nicht erfasst haben. Viele schreien nur bei der Erwähnung eines Forums oder einer Kommentarfunktion für die Hilfe: „Oh mein Gott, dann schreiben doch bestimmt auch viele: ‚Ihr seid blöd.'“ Ja, das wird sich auch passieren. Aber: man hat es selbst in der Hand das dann auch zu änderen.

Prinzipiell kann inzwischen jeder etwas im Netz produzieren. Wenn man aber selbst dem Nutzer keine Möglichkeit gibt, sich zur Doku zu äußern oder vielleicht auch sogar etwas dazu zu produzieren, kann er es auch ganz einfach woanders machen. Zum Beispiel in irgendeinem anderen Forum, wo er tatsächlich einen Hinweis darüber hinterlassen kann, wie blöd er doch die Firma findet. Kann der Nutzer sich aber direkt im Firmenumfeld äußern, hat man selbst eine bessere „Kontrolle“ und erfährt aus erster Hand, was für positive Erfahrungen aber auch Probleme es gibt.

Hier haben wir kurz darüber diskutiert, dass die meisten Leute Hilfe googlen. Und mal ehrlich: wie oft passiert es, dass man dann auf der Seite des jeweiligen Herstellers landet? Aber genau das möchte doch eigentlich jeder Hersteller, inklusive seiner Redakteure.

Von den Zuhörern hatten nur sehr wenige ihre Doku überhaupt frei für Suchmaschinen zugänglich im Netz und genau eine einzige Dame hat sich in diesem Zusammenhang überhaupt mit SEO beschäftigt.

How do you provide user assistance in the midst of chaos?

  • Web 2.0 steht für spezifische, gerne auch emotionsbehaftete, keineswegs vollständige und mitunter auch veraltetet Information.
  • Die traditionelle Doku deckt möglichst alles ab, ist neutral und wird (im Idealfall) regelmäßig aktualisiert.

Um es kurz zu machen: man sollte auf eine Mischung aus der traditionellen Doku und den Web 2.0-Möglichkeiten setzen. Beide Welten decken unterschiedliche Bedürfnisse ab.

Um die Grundprinzipien eines Produkts zu verstehen, ist eine normale Hilfe perfekt. Ein fortgeschrittener Nutzer hat vielleicht irgendein seltsames Problem und würde gerne in einem Forum schauen, ob andere das auch schon hatten. Der Power-Nutzer interessiert sich nicht für die Kinkerlitzchen, sondern will gute Tipps, Best Practices für den Einsatz eines Produkts – etwas was in kaum einer Doku umfassend zu finden sein wird.

Oder um es grafisch zusammenzufassen (Quelle: http://www.scriptorium.com/whitepapers/web2/web2_2.html):

Ich liebe diese Grafik, weil sie genau das widerspiegelt, was ich seit längerem im Kopf habe 🙂

Motivation

Das ist natürlich immer ein Problem im Web 2.0 – man denke nur an Wikis! Folgende Möglichkeiten zur Motivierung der Nutzer kamen während des Vortrags dazu auf:

  • Bewertungsmechanismen
  • Honorierung der aktivsten User (hier war nicht Geld gemeint, sondern eher eine Sonderstellung)
  • Private Foren: Das kam aus dem Publikum und der Besucher erzählte, dass er sehr gute Erfahrungen damit gemacht hatte, das Forum einfach zu etwas Exklusivem zu erklären zu dem nicht jeder Zugang hat. Das werde ich mir mal vor allem für die Experten / Power-Nutzer-Geschichte merken.

Bedenkenswert

  • Suche: eine der meistgenutzten Navigationen durch Hilfe. Idealerweise durchsucht sie dann allen Informationenarten, die man anbietet (Hilfe, Forum, Wiki, Blog, White papers…). Bei diesen versch. Medien wird es aber sehr schwer, passende Suchalgorithmen zu finden.
  • Haftung: wer haftet, wenn im Forum etwas steht, was total falsch ist?
  • Korrekturen: was macht man eigentlich mit Kommentaren, die auf Fehler im Hilfetext hinweisen, wenn man den Fehler korrigiert hat? Lässt man sie stehen oder verwirren sie nachkommende Leser?

Fazit

Ein sehr gelungener Vortrag. Vor allem, weil eben nicht nur mit Buzzwords jongliert wurde, sondern tatsächlich ein sehr schönes Konzept dahintersteht. Letztendlich bietet das Web 2.0 viele nette Spielereien, aber für uns als Redakteure müssen sie immer einen Zweck erfüllen: die Bedürfnisse des Nutzer möglichst abdecken.

Wer die Folien zum Vortrag sehen möchte, möge sich bitte zum Scriptorium-Blog begeben. Achtung, die Folien sind im Flash-Format und daher etwas schwerfällig und unpraktisch. Aber der Inhalt entschädigt 😉

tekom-Jahrestagung 2008 #3

Translation Reuse Strategies

von Hans Pich

Eigentlich wollte ich in den Vortrag zu DITA, XLIFF und Co., aber irgendwie bin ich durcheinander gekommen, aber thematisch war auch dieser Vortrag durchaus auch nicht verkehrt 😉

Zuerst hatte ich erwartet, dass einfach wieder über den tollen Einsatz von TMS und blablabla erzählt wird. Der Ansatz von Herrn Pich ging zwar natürlich in die Richtung, aber die Kernaussage war, dass auch die ganze Systemlandschaft aus CMS, TMS, Terminologiedatenbank und was man sonst so hat, einen nicht davor retten kann, dann man schlechte Übersetzungen hat bzw. Übersetzungen, die man doch nicht wiederverwenden kann.

Folgende Probleme sind bei der CMS-TMS-Kombi da:

  • Kontextarmut/Stückeltexte: hat man ein CMS eine Weile in Betrieb, kriegt die Übersetzung irgendwann nur noch Textteile und nicht mehr vollständige Texte. Eigentlich ist es ja ein Vorteil, das man nur noch Dinge zur Übersetzung weiterleitete, die sich auch geändert haben, aber so völlig ohne Kontext hat es ein Übersetzer echt schwer. Damit kann sich die Textqualität der Übersetzung ungewollt verschlechtern.
  • Inkonsistenz/Sprachentwicklung: diese Überlegung war mir völlig neu, ist aber sehr schlau. Einzelne Textfragmente / Wörter, /Wendungen die heute noch passend und aktuell sind, könnten in 10 Jahren völlig out-of-date sein. Bloß, wie findet man diese wieder, wenn sich an der Quelle nichts geändert hat und damit nichts zur erneuten Übersetzung kommt, wo dies vielleicht angepasst würde. Als Beispiel wurde die polnische Sprache genannt, die sich in den letzten Jahren wohl signifikant entwickelt hat.
  • Übersetzungsfehler: das schlägt in die ähnliche Kerbe, wie die Sprachentwicklung. Was erst einmal im CMS bzw. TMS drin ist, bleibt auch drin.

Folgende Wege aus dem Dilemma, dass Tools alleine nicht helfen, gibt es hier:

  • Qualität folgt aus Qualifikation
    • ausgebildete Redakteure
    • technische Übersetzer
  • Semantisch vollständige Informationseinheiten an Übersetzer geben!
  • Übersetzungsgerechte Quelltexte produzieren
  • Definierte Quellterminologie
  • Lokalisierungsangaben
  • Styleguides

Damit stehen die Chancen höher, dass  man Qualität in CMS und TMS reinpumpt. Und man will ja auch schließlich nur Qualität wiederverwenden.

Bei der Auswahl der Übersetzer sollte man ebenfalls sehr sorgfältig sein, z.B. site visits machen, um zu sehen wie die arbeiten. An dieser Stelle folgte dann eine Frage aus dem Publikum: Was mache ich, wenn mein Übersetzer seine Texte lieber in Excel haben will als in einem TMS-Format? Hab ich den falschen Übersetzer oder mache ich was falsch? Klar, was da die Antwort war 😉

Fazit

Über Reuse hat man jetzt nicht viel gehört, sondern eher was über Qualitätssicherung. Für mich war das meiste nichts Neues, aber für die Manager und Führungskräfte denen man als Redaktion diese Dinge verkaufen muss, sicherlich gute Denkansätze. Am Ende hat es mich halt doch geärgert, dass ich den DITA+XLIFF-Vortrag verduselt habe…

tekom-Jahrestagung 2008 #2

Was User lieben, was sie hassen
von Peter Hogenkamp (Zeix AG)

Dieser Vortrag war sehr gut besucht – und das zu Recht.

Peter startete den Vortrag mit einer Anekdote darüber, dass er auf dem Weg zur Tagung verzweifelt versuchte die Uhr seines Mietwagens auf Winterzeit zu stellen. Dumm nur, dass Toyota sich bei diesem Auto gedacht hat, dass man diese Aktion aus Sicherheitsgründen nur bei stehendem Auto durchführen darf 😀

Der Vortrag hat sich auf 4 große Bereiche konzentriert.

Suche
Inzwischen ist Google ja das Synonym für Suchen im Netz schlechthin. Jeder mag Google! Und jeder will so etwas Einfaches und gut Funktionierendes wie Google. …oder jedenfalls glaubt jeder, dass er Google will, so Peter.
Denn Google ist absolut prima bei so etwas schwach strukturiertem wie dem Internet, ABER wenn es sowieso darum geht strukturierte Daten zu durchsuchen, sollte man eine differenzierte Suche anbieten. Das heißt, wenn eine Suche über Adressdaten mit Straße, Ort, Telefonnummer etc. läuft, kommen User eher zum Ziel, wenn man ihnen für jeden Datentyp ein dediziertes Suchfeld zur Verfügung stellt. Obwohl sie selber sagen, dass sie sich eigentlich nur ein einziges Feld wünschen.

Gerade der letzte Satz hat mich ziemlich zum Nachdenken darüber gebracht, was man eigentlich so von Userumfragen zu halten hat.

Nutzer verhalten sich aus Entwicklersicht unlogisch.

Kicher… Wer mal einen Usabilitysicht mitgemacht hat, weiß was das heißt! 😉 Beispiel zu dieser Aussage: Die meisten Nutzer ändern bei einer nicht erfolgreichen Suchanfrage ihre Anfrage so, dass sie die bisherige Anfrage um weitere Suchwörter erweitern, anstatt dass sie ganz andere Suchwörter benutzen, wie es ja eigentlich logisch wäre. Der Gedankengang dahinter ist äußerst menschlich: „Na, wenn ich der Suche noch mehr Information zu dem Gesuchten gebe, findet sie’s vielleicht besser.“

Web 2.0 und die Nicht-Standard-Falle
Hier hat Peter einen kurzen Überblick darüber gegeben, was Ajax eigentlich ist und was es konkret für die Nutzer bedeutet. Und dann hat er sich der sog. „Nicht-Standard-Falle“ gewidmet. Sehr guter Begriff, btw 🙂

Sehr gut fand ich dann die Negativbeispiele, die er angeführt hat. Es ging dabei vor allem darum, wie sich die Entwickler oder Conceptioner vor lauter Ajax-Möglichkeiten dazu verleiten lassen, alterhergebrachte, weit verbreitete, gute funktionierende Funktionen und Metaphern mit Ajax-Füßen zu treten.

  • oftmals kein Springen durch Formularfelder mithilfe Tabulator möglich
  • bei Drop-down-Menüs bewirkt das Eintippen von Buchstaben/Zahlen nicht, dass das Menü zum Buchstaben/zur Zahl springt
  • bei Scroll-Balken funktioniert nur der Balken, aber nicht die kleinen Pfeile an den Enden des Balkens

Kurz: man baut sich alles neu, weil man’s kann und vernachlässigt dem User vertraute Standards.

Mobiles Internet

Hier ging es ein bisschen um die Zukunftsmusik, das wir nun zunehmend mobil im Internet unterwegs sein werden und wie gerade das iPhone dieser Entwicklung einen gewaltigen Schub versetzt hat. dafür sind aber viele Websites noch nicht gerüstet. Denn wer einmal versucht sich beispielsweise die tekom-Seite auf dem iPhone anzuschauen, kommt aus dem Scrollen nicht mehr raus (das hat für einige Lacher gesorgt…). Ein mobile Theme, das automatisch auf die Seite angewandt wird, wenn sie von einem mobilen Gerät aus angeschaut wird, wäre hier Gold wert.

Darüber hinaus kam auch noch Kritik an den Mobilfunk-Providern auf den Tisch, die mit unattraktiven Tarifen die „mobile Revolution“ noch einschränken.

We tend to overestimate the effect of a technology in the short run and we tend to underestimate the effect in the long run. (Amara’s law)

User-centered design

Für dieses Thema blieb leider nicht mehr viel Zeit. Peter stellte vor, wie Usability eigentlich idealerweise in Projekte miteinbezogen werden sollte. Und auch hierbei war, wie gerade überall, das Zauberwort: iterativ.

Man sollte so früh wie möglich im Entwickungszyklus mit Prototypen beginnen. Sei es anfangs nur Papier, dann irgendwann billige HTML-Seiten oder Flash-Prototypen. Hauptsache, die Produktentwickung bezieht ihre Zielgruppe mit ein: die User!

Fazit

Ein sehr lohnenswerter Vortrag bei dem viel gelacht wurde und man einiges Interessantes erfahren konnte, gerade die Sache mit der Suche und der Nicht-Standard-Falle fand ich sehr am Puls der Zeit. Man muss vor lauter Hipness eben auch ein bisschen am Boden bleiben 😉

Ich habe mir eigentlich mehr Bezugnahme zur technischen Dokumentationen erwartet: also was lieben User an der Doku und was hassen sie, aus Usability-Sicht. Der einzige Bezug wurde am Ende kurz eingeworfen: Prototypen könnten ja auch für neue Hilfeformen gemacht werden, um sie dann am User zu testen. Davon noch mehr und ich wäre galaktisch begeistert gewesen 😉

Wer mehr wissen möchte und Lust auf ein paar Usability-Schmankerl hat, möge hier reinschauen: http://blog.zeix.com.

tekom-Jahrestagung 2008 #1

So, drei anstrengende Tage liegen hinter mir… Ich weiß gar nicht wo ich eigentlich am besten anfangen soll… Deswegen fang ich mal mit Vorträgen an, die ich besonders gut fand.

Analyzing User Assistance Deliverables: Developing Your Optimum Documentation Library – Nicoletta Bleiel

Das Hauptaugenmerk des Workshops lag auf den verschiedenen Arten von Hilfepublikationen. Der Titel ließ mich anfangs hoffen, dass es vor allem darum gehen würde, wie man für sich rausfinden kann, welche Publikationen für einen am besten sind.
Hier hat sie eigentlich nicht viel Neues erzählt

  • Interview mit dem Support, Schulungstrainern, Power Usern
  • Lesen von Kundenforen
  • Vor-Ort-Besuche (den Nutzer in der Situation beobachten in der er das Produkt benutzt)

Andererseits hätte es mich fast schon gewundert, wenn sie mir hätte viel mehr erzählen können. Das Problem ist ja nicht gerade neu 🙂

Hilfe vor 2.0

Damit war dieser Teil auch schon vorbei und der Hauptteil beinhaltete einen Rundumschlag von den althergebrachten Hilfeformaten bis hin zu allerlei Web 2.0.-Technologie abgeliefert. Und das war auch ziemlich cool.
Die Historie der Hilfeformate war echt interessant. Dazu hat sie eine kleine Matrix ausgegeben in der sie alle Publikationsformen des Vortrags mit Details, Vor- und Nachteilen gelistet hat.

Angefangen hat es bei QuickHelp und WinHelp, die weit vor meiner TechRed-Zeit waren. Und weiter ging es mit dem „Assistance Escalation Path“, der von Microsoft entwickelt wurde:

  • Well designed UI
  • Assistance directly in UI
  • Help pane and help center
  • user community
  • Support

Tja, ich hätte ja von Microsoft nicht gedacht, dass da auch so schlaue Sachen bei rauskommen. Aber in der Tat ist das Konzept für die „Longhorn help“ ziemlich cool und auch genau mein Plan für die Zukunft 🙂

Das war die „traditionelle“ Welt, also das Leben vor 2.0.

Wie aktiv ist das „read/write“ web?

Zum Leben in 2.0 hat sie einen super Überblick über alles gegeben, was irgendwie zu diesem ominösen Phänomen gehört. Beim Thema „read/write web“, also das Internet in dem man sich selbst aktiv beteiligen kann anstatt zu lesen, ging es auch um die Participation inequality. Ich kannte dieses Begriff bisher nur von Jacob Nielsen, der die 1-9-90-Regel aufgestellt hat. Was so viel heißt, wie 1% der User beteiligt sich sehr stark, 9% ab und an und 90% sind lediglich Leser oder Zuschauer. Das heißt, es kann zwar jeder mitmachen, aber die wenigsten tun es wirklich.
Umso erstaunter war ich mit diesem Vorwissen als Nicky eine aktuelle Analyse von Forrester zeigte, in der diese Zahlen deutlicher positiver ausfielen, d.h. Dass es in der Regel sogar 18% an aktiven Usern gibt. Forrester bietet auf der Webseite außerdem ein kleines Profililing-Tool, in dem nachprüfen kann, wie sich die Beteiligung auf eine bestimmte Altersklasse in einem bestimmten Land aufteilt. So dass man quasi für seine Zielgruppe nachprüfen kann, ob es sich überhaupt lohnt, seinen Nutzern aktives Web zu bieten.

Wikis, blogs and social networking

Weiter ging es natürlich mit Wikis, wobei mich wieder ein klein wenig das DITA-Wiki-Fieber packte 🙂 Dabei erwähnte sie, wie sie einmal ein Wiki einführen wollte. Um die Leute wohlgesonnen zu stimmen, gab sie eine Hawaii-Party mit Cocktails und Barbecue (wikwiki heißt ja „schnell, schnell“ auf hawaiianisch). Und dann kam sie zufällig mit dem Wiki um die Ecke und streute die Saat auf der Party. Fand ich großartig 😀

Natürlich kamen auch zur Sprache: Podcasts, Blogs, Social Networks, RSS. Das Schöne war hier, dass sie hier immer wieder Anstöße gegeben hat, dass man einfach mal für sich abprüfen sollte, ob man irgendetwas davon benutzen kann, um Produktinformation zu verbreiten. Viele dieser Medien würden zwar wohl eher für Marketing passen, aber man solle den TechRed-Gedanken hier auch mal weiterdenken. Beispiele waren hier: Blogs zu einem bestimmten Microsoft-Produkt, in denen Mitglieder aus diesem Produktteam über neue Feature oder Verwendungsmöglichkeiten bloggen. Produkttrainings, die über Podcasts oder Vodcasts verbreitet werden. Oder auch Facebook-Gruppen zu bestimmten Produkten. Sehr witzig fand ich auch dass HP beispielsweise twittert oder es eine myspace-Seite für Kraft Scheibletten gibt (die heißen in den USA natürlich anders, aber das hab ich schon wieder vergessen…).

Fazit

Es hat mich zumindest dazu gebracht mal wieder ein Stück weiter über den Tellerrand zu schauen als ich es schon tue 😉

Der Rundumschlag war auf jeden Fall sehr gut für Leute geeignet, die in diesem ganzen Web 2.0-Wahnsinn noch gar nicht so drin waren oder gar nicht über eine Verknüpfung mit TechRed nachgedacht haben. Selbst für mich gab es hier einige interessante Neuheiten zu erfahren. Supergut war, dass Nicky den Folientext auf Handouts gepackt hat und außerdem noch irreviel Links zu allen Themen mitgegeben hat. Der Vortrag wurde wohl schon mal in auf der DocTrain gehalten (allerdings hat sich bis zur tekom noch einiges daran geändert) und so sah das aus: