tekom-Jahrestagung 2008 #5 – Finale

Ich habe einen Haufen Vorträge gesehen und nachdem ich nun meine Highlights schon beschrieben habe, kommen wir zu der Kategorie „Ferner liefen…“. Hier findet sich sowohl Gutes als auch Schlechtes 😉

Adobe Air, eine neue Basis für Onlinehilfen?

Der erste Vortrag meines Tagungsprogramms lieferte einen gute Überblick über das was Air ist, was es kann und wozu es gut ist. Die Folien gibt es online.

Content Reuse – Zusammenspiel von Software-Entwicklung und Technischer Dokumentation

Definitiv eine der größten Enttäuschungen (neben der Tatsache, dass ich in manche Workshops nicht mehr reinkam). Es ging hier um ein Beispiel in dem für die Dokumentation die strukturierten Daten, die schon bei den Entwicklern vorkamen, wiederverwendet werden konnten. In diesem Fall handelte es sich um 15.000 Fehlermeldungen, deren Kodierung und Text über XML dann an die Doku weitergereicht wurde, auf dass diese die entsprechenden Erklärungen schreibt. Klar, das ist Reuse, aber definitiv eine Variante, die in der freien Wildbahn echt nicht oft auftaucht. Und in der Vortragsbeschreibung kam das auch ganz klar nicht raus. Da haben sehr viele etwas anderes erwartet 🙁

Von 0 auf XML in 80 Tagen: Einführung eines XML Redaktionssystems auf Basis von Funktionsdesign

Hier hat der Kaffeemaschinenhersteller Jura vorgestellt, wie die Doku sich bei ihnen entwickelt hat. Irgendwann wurde ein Cut gemacht bei dem entschlossen wurde, dass nicht mehr Entwickler die Doku schreiben *lach*. Es wurde ein Funktionsdesign entwickelt, das dann auf alle neuen Anleitungen angewandt wurde. Irgendwann war alles an Doku standardisiert und dann kam man auf die Idee ein CMS einzusetzen. Und nachdem man sich für ein CMS entschieden hatte, dauerte es tatsächlich nur 80 Tage bis es einsatzbereit und mit bisherigem Content angefüllt war. Herrlich! Genauso sollte es laufen. Naja, bis auf die Tatsache InDesign einzusetzen… Aber ansonsten bin ich neidisch 🙂

Wissensmanagement bei dezentraler Dokumentationserstellung für multiple Märkte, Marken und Sprachen

Die Essenz dieses Vortrags war, dass jedes Wissen, dass in einem Prozess wichtig ist, auch in diesem Prozess verankert sein muss. Ein durchaus interessanter Ansatz. Sehr schön fand ich den Begriff „Denk-dran-Lösungen“: er wurde hier für alle Informationsinseln verwendet, die sich mit der Zeit in einem Unternehmen entwickeln. Ein bisschen schade fand ich, dass der Redner Wikis komplett als Lösungswegs ausgeschlossen hat, weil sie zu „unstrukturiert“ wären und ja auch bei der Wikipedia nur 1% der Nutzer auch aktiv wären, was bei einer Firma dann auch nichts bringen würde. Aus eigener Erfahrung kann ich sagen, dass die Wikipedia nicht mit einem Wiki in einem Firmenumfeld vergleichbar ist. Letzten Endes lebt jedes Wissensmanagementsystem davon es gut an die Mitarbeiter zu vermarkten, sei es ein schnödes Wiki oder irgendetwas Kommerzielles.

An overview of localization in Latin America

Der Titel sagt genau worum es ging, aber noch treffender wäre der Begriff „localization industry“ gewesen. Ich hatte mir erhofft zu hören, was es für Strategien oder Tipps gibt, wenn man für Lateinamerika lokalisieren muss. Aber es ging wirklich nur um die Lokalisierungsindustrie dort. Das einzig Interessante war hier die Anmerkung, dass man sich als Unternehmen durchaus mal überlegen solle, ob es nicht effizienter und qualititatv besser wäre, die Lokalisierung in die jeweiligen Länder zu geben. Mir kam es alles in allem mehr wie eine Marketingveranstaltung für die Lok-Industrie da drüben vor.

Writing for an International Audience

Gute Zusammenfassung dazu wie schlechte Doku und auch Gedankenlosigkeit die Übersetzungskosten in die Höhe treiben können und am Ende vielleicht doch nur Müll rauskommt, weil eben Müll reinkam. Schönstes Rechenbeispiel: wie die Änderung eines Field Labels am Ende 5500$ kostet 😀

Zielgruppen im Fokus – Zielgruppendefinition in der Technischen Dokumentation

Hm ja, das Übliche eigentlich:

  • site visits
  • workshops
  • Fragebögen
  • Communities
  • Usability-Tests
  • Auswertung der Definitionen von Marketing und Vertrieb

Interessant war der Ansatz, dass man festlegen sollte, welche Zielgruppe strategisch wichtig für das Produkt ist (sowas macht dann wahrscheinlich das produktmanagement) und dann die Redaktion deren Kommunikationsbedürfnisse ermittelt. Einfaches Beispiel: ein Flugzeugtechniker braucht für die tägliche Arbeit kein umfangreiches Handbuch, sondern vielleicht eher eine Loseblatt-Sammlung mit Checklisten.

Das Deutsch der Technischen Redaktion

Bei einer Kaffeepause erzählte mir eine Kommilitonin, dass Prof. Baumert aus Hannover ganz tolle Vorlesungen halten soll. Und so bin ich ganz spontan hineingelaufen – der Vortragsraum war schon 10min vor Beginn randvoll. Ich war hin und weg: er legte los mit den philosophischen Grundlagen, die letzten Endes unser alle Muthig+Schäflein-Armbruster zum Designen des Funktionsdesigns verleiteten. Supertoll vorgetragen und wirklich interessant, weil ich bisher eigentlich immer nur wusste, dass das Funktionsdesign aus der Sprechakttheorie hervorgeht. Aber mehr auch nicht.

Leider musste ich während des Vortrags wg. eines Termins raus. Sehr schade!

Fazit

Ich war teilweise doch sehr enttäuscht darüber, wie sehr manche Vortragsbeschreibungen von der Realität abwichen und man dann in einem Vortrag nach 5min merken musste, dass man wohl in die Falle getappt war.

Leider sind auch einige Vorträge ausgefallen, die ich sehr gern gehört hätte.

Alles in allem fand ich es aber trotzdem sehr gelungen. Ich hatte einige schöne Highlights, habe alte und neue Bekannte getroffen und nächstes Jahr werde ich wohl hoffenltich auch dazu kommen mehr von Wiesbaden zu sehen als die Messe und das Hotel 😉

tekom-Jahrestagung 2008 #4

Sarah O’Keefe: The Implications of Web 2.0 for Technical Communicators

Hm, noch ein Web 2.0-Vortrag? Ich hatte mehrfach gehört, dass Sarah gute Vorträge hält, also habe ich in Kauf genommen eventuell wieder zu hören, was ein Wiki oder Podcast ist 😉

Erfreulicherweise ging der Vortrag aber wirklich auch in die Richtung, wie wir als Redakteure die Möglichkeiten des Web 2.0 nutzen können und was wo Sinn machen könnte.

The distinction between producer and end-user vanishes.

Das ist meiner Meinung nach eine sehr wichtige Aussage, deren Umfang noch viele Leute nicht erfasst haben. Viele schreien nur bei der Erwähnung eines Forums oder einer Kommentarfunktion für die Hilfe: „Oh mein Gott, dann schreiben doch bestimmt auch viele: ‚Ihr seid blöd.'“ Ja, das wird sich auch passieren. Aber: man hat es selbst in der Hand das dann auch zu änderen.

Prinzipiell kann inzwischen jeder etwas im Netz produzieren. Wenn man aber selbst dem Nutzer keine Möglichkeit gibt, sich zur Doku zu äußern oder vielleicht auch sogar etwas dazu zu produzieren, kann er es auch ganz einfach woanders machen. Zum Beispiel in irgendeinem anderen Forum, wo er tatsächlich einen Hinweis darüber hinterlassen kann, wie blöd er doch die Firma findet. Kann der Nutzer sich aber direkt im Firmenumfeld äußern, hat man selbst eine bessere „Kontrolle“ und erfährt aus erster Hand, was für positive Erfahrungen aber auch Probleme es gibt.

Hier haben wir kurz darüber diskutiert, dass die meisten Leute Hilfe googlen. Und mal ehrlich: wie oft passiert es, dass man dann auf der Seite des jeweiligen Herstellers landet? Aber genau das möchte doch eigentlich jeder Hersteller, inklusive seiner Redakteure.

Von den Zuhörern hatten nur sehr wenige ihre Doku überhaupt frei für Suchmaschinen zugänglich im Netz und genau eine einzige Dame hat sich in diesem Zusammenhang überhaupt mit SEO beschäftigt.

How do you provide user assistance in the midst of chaos?

  • Web 2.0 steht für spezifische, gerne auch emotionsbehaftete, keineswegs vollständige und mitunter auch veraltetet Information.
  • Die traditionelle Doku deckt möglichst alles ab, ist neutral und wird (im Idealfall) regelmäßig aktualisiert.

Um es kurz zu machen: man sollte auf eine Mischung aus der traditionellen Doku und den Web 2.0-Möglichkeiten setzen. Beide Welten decken unterschiedliche Bedürfnisse ab.

Um die Grundprinzipien eines Produkts zu verstehen, ist eine normale Hilfe perfekt. Ein fortgeschrittener Nutzer hat vielleicht irgendein seltsames Problem und würde gerne in einem Forum schauen, ob andere das auch schon hatten. Der Power-Nutzer interessiert sich nicht für die Kinkerlitzchen, sondern will gute Tipps, Best Practices für den Einsatz eines Produkts – etwas was in kaum einer Doku umfassend zu finden sein wird.

Oder um es grafisch zusammenzufassen (Quelle: http://www.scriptorium.com/whitepapers/web2/web2_2.html):

Ich liebe diese Grafik, weil sie genau das widerspiegelt, was ich seit längerem im Kopf habe 🙂

Motivation

Das ist natürlich immer ein Problem im Web 2.0 – man denke nur an Wikis! Folgende Möglichkeiten zur Motivierung der Nutzer kamen während des Vortrags dazu auf:

  • Bewertungsmechanismen
  • Honorierung der aktivsten User (hier war nicht Geld gemeint, sondern eher eine Sonderstellung)
  • Private Foren: Das kam aus dem Publikum und der Besucher erzählte, dass er sehr gute Erfahrungen damit gemacht hatte, das Forum einfach zu etwas Exklusivem zu erklären zu dem nicht jeder Zugang hat. Das werde ich mir mal vor allem für die Experten / Power-Nutzer-Geschichte merken.

Bedenkenswert

  • Suche: eine der meistgenutzten Navigationen durch Hilfe. Idealerweise durchsucht sie dann allen Informationenarten, die man anbietet (Hilfe, Forum, Wiki, Blog, White papers…). Bei diesen versch. Medien wird es aber sehr schwer, passende Suchalgorithmen zu finden.
  • Haftung: wer haftet, wenn im Forum etwas steht, was total falsch ist?
  • Korrekturen: was macht man eigentlich mit Kommentaren, die auf Fehler im Hilfetext hinweisen, wenn man den Fehler korrigiert hat? Lässt man sie stehen oder verwirren sie nachkommende Leser?

Fazit

Ein sehr gelungener Vortrag. Vor allem, weil eben nicht nur mit Buzzwords jongliert wurde, sondern tatsächlich ein sehr schönes Konzept dahintersteht. Letztendlich bietet das Web 2.0 viele nette Spielereien, aber für uns als Redakteure müssen sie immer einen Zweck erfüllen: die Bedürfnisse des Nutzer möglichst abdecken.

Wer die Folien zum Vortrag sehen möchte, möge sich bitte zum Scriptorium-Blog begeben. Achtung, die Folien sind im Flash-Format und daher etwas schwerfällig und unpraktisch. Aber der Inhalt entschädigt 😉

Neuer Header

Da soll noch einmal einer sagen, dass Designen so einfach ist… Für diesen neuen Header hab ich nun 1,5h gebraucht. Wobei man allerdings sagen muss, dass die meiste Zeit dafür draufging, andere Ideen zu verwerfen 😉

tekom-Jahrestagung 2008 #3

Translation Reuse Strategies

von Hans Pich

Eigentlich wollte ich in den Vortrag zu DITA, XLIFF und Co., aber irgendwie bin ich durcheinander gekommen, aber thematisch war auch dieser Vortrag durchaus auch nicht verkehrt 😉

Zuerst hatte ich erwartet, dass einfach wieder über den tollen Einsatz von TMS und blablabla erzählt wird. Der Ansatz von Herrn Pich ging zwar natürlich in die Richtung, aber die Kernaussage war, dass auch die ganze Systemlandschaft aus CMS, TMS, Terminologiedatenbank und was man sonst so hat, einen nicht davor retten kann, dann man schlechte Übersetzungen hat bzw. Übersetzungen, die man doch nicht wiederverwenden kann.

Folgende Probleme sind bei der CMS-TMS-Kombi da:

  • Kontextarmut/Stückeltexte: hat man ein CMS eine Weile in Betrieb, kriegt die Übersetzung irgendwann nur noch Textteile und nicht mehr vollständige Texte. Eigentlich ist es ja ein Vorteil, das man nur noch Dinge zur Übersetzung weiterleitete, die sich auch geändert haben, aber so völlig ohne Kontext hat es ein Übersetzer echt schwer. Damit kann sich die Textqualität der Übersetzung ungewollt verschlechtern.
  • Inkonsistenz/Sprachentwicklung: diese Überlegung war mir völlig neu, ist aber sehr schlau. Einzelne Textfragmente / Wörter, /Wendungen die heute noch passend und aktuell sind, könnten in 10 Jahren völlig out-of-date sein. Bloß, wie findet man diese wieder, wenn sich an der Quelle nichts geändert hat und damit nichts zur erneuten Übersetzung kommt, wo dies vielleicht angepasst würde. Als Beispiel wurde die polnische Sprache genannt, die sich in den letzten Jahren wohl signifikant entwickelt hat.
  • Übersetzungsfehler: das schlägt in die ähnliche Kerbe, wie die Sprachentwicklung. Was erst einmal im CMS bzw. TMS drin ist, bleibt auch drin.

Folgende Wege aus dem Dilemma, dass Tools alleine nicht helfen, gibt es hier:

  • Qualität folgt aus Qualifikation
    • ausgebildete Redakteure
    • technische Übersetzer
  • Semantisch vollständige Informationseinheiten an Übersetzer geben!
  • Übersetzungsgerechte Quelltexte produzieren
  • Definierte Quellterminologie
  • Lokalisierungsangaben
  • Styleguides

Damit stehen die Chancen höher, dass  man Qualität in CMS und TMS reinpumpt. Und man will ja auch schließlich nur Qualität wiederverwenden.

Bei der Auswahl der Übersetzer sollte man ebenfalls sehr sorgfältig sein, z.B. site visits machen, um zu sehen wie die arbeiten. An dieser Stelle folgte dann eine Frage aus dem Publikum: Was mache ich, wenn mein Übersetzer seine Texte lieber in Excel haben will als in einem TMS-Format? Hab ich den falschen Übersetzer oder mache ich was falsch? Klar, was da die Antwort war 😉

Fazit

Über Reuse hat man jetzt nicht viel gehört, sondern eher was über Qualitätssicherung. Für mich war das meiste nichts Neues, aber für die Manager und Führungskräfte denen man als Redaktion diese Dinge verkaufen muss, sicherlich gute Denkansätze. Am Ende hat es mich halt doch geärgert, dass ich den DITA+XLIFF-Vortrag verduselt habe…