
Verantwortungsbewusste KI in der technischen Kommunikation
Verantwortungsbewusster Einsatz von KI in der technischen Kommunikation – Teil 1
KI ist nicht nur etwas für Science-Fiction oder Silicon Valley. Sie prägt bereits heute die Art und Weise, wie wir technische Dokumentationen erstellen und bereitstellen. Ob sie nun Autoren mit Entwurfsvorschlägen unterstützt oder Technikern bei der Fehlerbehebung vor Ort hilft – KI ist zu einem wichtigen Faktor in der Welt der Produktinformationen geworden.
Aber sie ist keine Zauberei und nicht ohne Risiken. Schlecht konzipierte KI-Systeme können Nutzer verwirren, fehlerbehaftet sein oder sogar Sicherheitsrisiken mit sich bringen. Deshalb brauchen wir Leitplanken oder einen praktischen Rahmen, um sicherzustellen, dass KI-Tools die Standards für Qualität, Sicherheit und Fairness erfüllen. Das sind die Grundsätze für verantwortungsbewusste KI. In diesem Artikel untersuchen wir, wie sie in der Praxis auf technische Dokumentationen angewendet werden können.

Wir betrachten zwei alltägliche Szenarien:
• Erstellung von Inhalten, wenn also ein KI-Tool technischen Redakteuren dabei hilft, anhand von Produktspezifikationen, vorhandener Dokumentation und Kundenfeedback Benutzerhandbücher zu erstellen.
• Nutzung von Inhalten, z. B. wenn ein Techniker einen KI-Assistenten verwendet, um Anweisungen zu finden, kompatible Teile zu überprüfen oder Installationsschritte vor Ort zu kontrollieren.
Wir werden untersuchen, wie die Grundsätze für verantwortungsbewusste KI auf beide Szenarien angewendet werden können. Aber schauen wir uns zunächst die Grundsätze in der Liste etwas genauer an.
| Verantwortlichkeit | Menschliche Verantwortung für Entscheidungen, die mit KI-Unterstützung getroffen werden |
| Erklärbarkeit | Die Gründe für KI-generierte Vorschläge werden für den Nutzer sichtbar gemacht |
| Fairness | Gleiche Erfahrungen für alle Nutzer und in unterschiedlichen Situationen |
| Datenschutz | Achtung und Schutz personenbezogener oder sensibler Daten |
| Robustheit | Zuverlässiges, konsistentes und sicheres Systemverhalten |
| Nachhaltigkeit | Effizienz und Langlebigkeit von Inhalten und Systemen |
Warum die 6 Grundsätze wichtig sind
Verantwortung
• Bei der Erstellung von Inhalten: Technische Redakteure können zwar ein KI-Tool zum Verfassen von Teilen eines Handbuchs verwenden, bleiben jedoch für das, was veröffentlicht wird, verantwortlich. Die Rollen müssen klar verteilt sein. KI kann unterstützen, aber Menschen bestätigen und verantworten die Ergebnisse.
• Bei der Verwendung von Inhalten: Wenn beispielsweise ein KI-Assistent eine Einstellung oder ein Ersatzteil vorschlägt, sollten die Benutzer wissen, wer letztendlich für die Sicherheit verantwortlich ist und sicherstellen, dass der Vorschlag korrekt ist.
Erklärbarkeit
• Bei der Erstellung: Autoren müssen verstehen, warum das KI-Tool bestimmte Formulierungen, Begriffe oder Bilder auswählt. Dies trägt dazu bei, Klarheit, Konsistenz und die Einhaltung von Standards zu gewährleisten.
• Bei der Verwendung: Benutzer sollten nachvollziehen können, woher eine Antwort stammt, ob aus einem bestimmten Abschnitt eines Handbuchs, einer Ersatzteildatenbank, dem Internet oder dem internen LLM-Training. Dies hilft dem Benutzer, die Vertrauenswürdigkeit der Informationen einzuschätzen. Außerdem wird so verhindert, dass schlechte Informationen dem Unternehmen selbst zugeschrieben werden.
Fairness
• Bei der Erstellung: Inklusive, global einsetzbare Dokumentationen vermeiden jegliche Art von Voreingenommenheit: sprachlich, kulturell oder technisch. Dies gilt auch für Inhalte, die mit KI-Tools gemeinsam erstellt wurden. Wir müssen sicherstellen, dass KI keine voreingenommenen Inhalte erstellt.
• Bei der Nutzung: KI-Assistenten sollten allen Nutzern gleichermaßen dienen, unabhängig von Sprache, Standort oder Gerät. Niemand sollte zweitklassige Ergebnisse erhalten, nur wegen der Art und Weise oder von wo er auf Informationen zugreift.
Datenschutz
Sowohl bei der Erstellung als auch bei der Nutzung: Wenn KI-Tools reale Daten zur Verbesserung der Dokumentation verwenden, müssen sie dies verantwortungsbewusst tun. Personenbezogene oder sensible Daten müssen anonymisiert werden, und die Nutzer müssen wissen, wie ihre Informationen behandelt werden, und sicher sein, dass ihre Daten nur nach ihrer Zustimmung verwendet werden.
Robustheit
• Bei der Erstellung: KI-Tools sollten Unsicherheiten oder Datenlücken kennzeichnen und keine Inhalte produzieren, die nicht fundiert sind. Das hilft den technischen Teams, Unklarheiten vor der Veröffentlichung zu erkennen und zu korrigieren.
• Bei der Verwendung: KI-gestützte Tools sollten auch bei unvollständigen Abfragen oder in Umgebungen mit schlechter Konnektivität zuverlässig funktionieren. Bei Problemen sollte das System den Benutzer darüber informieren und nicht nur die Qualität der Leistung (z. B. die Genauigkeit der Beantwortung der Fragen) verringern.
Nachhaltigkeit
• Bei der Erstellung: KI-generierte Inhalte sollten genauso wie alle anderen Arten von Inhalten Teil einer Wiederverwendungsstrategie sein. KI-erstellte Inhaltsfragmente können in verschiedenen Kontexten wiederverwendet werden, und KI-basierte Schreibwerkzeuge können strukturierte Inhalte und Vorlagen verwenden, wodurch die Dokumentation konsistent bleibt und Doppelarbeit reduziert wird. Technische Redakteure mit ihrer Erfahrung in der Inhaltsentwicklung sind Experten, die solche Strategien aufstellen und die richtigen Werkzeuge zu ihrer Umsetzung auswählen können.
• Bei der Nutzung: Je schneller Nutzer die richtige Antwort finden, desto weniger Zeit und Energie wird verschwendet. Effiziente Systeme führen zu weniger Supportanfragen, weniger Druckaufwand und besseren Ergebnissen.
Klärung der Verantwortlichkeiten: Wer macht was?
KI-Systeme werden von Menschen entwickelt und genutzt. KI-Systeme selbst tragen keine Verantwortung für die von ihnen generierten Ergebnisse; diese Verantwortung liegt bei den Personen und Organisationen, die sie entwickeln und anwenden. Im Folgenden wird erläutert, wie die Verantwortlichkeiten aufgeteilt sind, um die richtige Umsetzung der verantwortungsbewussten KI sicherzustellen:

Grundsatz | KI-System Entwickler | Technische Redakteure |
|---|---|---|
| Verantwortung | Entwicklung von Systemen mit Rückverfolgbarkeit, Überprüfungsprotokollen und Übersteuerungsfunktionen, da KI-Technologie Einschränkungen unterliegt und diese durch das Systemdesign entschärft werden müssen. | Validierung aller Ergebnisse vor der Freigabe für den Endnutzer. Festlegung von Anforderungen an die KI-Tools. Testen der Tools. |
| Erklärbarkeit | Stellen Sie sicher, dass die Tools eine sinnvolle Rückverfolgbarkeit bieten. | Hinterfragen und überprüfen Sie unklare Vorschläge. |
| Fairness | Trainieren Sie mit vielfältigen, inklusiven Datensätzen. Stellen Sie mehrsprachige, plattformübergreifende Zugänglichkeit sicher. | Achten Sie auf voreingenommene oder exklusive Inhalte. |
| Datenschutz | Schützen Sie Daten und anonymisieren Sie sie. Begrenzen Sie die Datenerfassung und setzen Sie Schutzstandards durch. Verwenden Sie Daten und Eingabeaufforderungen aus verantwortungsvollen Quellen. | Verfassen Sie Inhalte, die sich konsistent auf alle Zielgruppen skalieren lassen. |
| Robustheit | Erstellen Sie Systeme, die unsichere Einträge oder Lücken kennzeichnen können. Berücksichtigen Sie reale Bedingungen und Fehlertoleranz bei der Entwicklung. | Testen Sie KI-generierte Inhalte auf Sicherheit und Genauigkeit. Berücksichtigen Sie mögliche Herausforderungen für die Nutzer im jeweiligen Anwendungsfall. |
| Nachhaltigkeit | Ermöglichen Sie wiederverwendbare Bausteine und effiziente Arbeitsabläufe. Reduzieren Sie Rechenaufwand und unnötige Verarbeitungsschritte. | Nutzen Sie Vorlagen und Strukturen für dauerhafte Übersichtlichkeit. |

Welche Rolle spielen die Anwender?
Auch Anwender von Produktinformationen (wie Techniker oder Servicemitarbeiter) spielen eine wichtige Rolle. Auch wenn sie nicht für die Funktionsweise von KI-Systemen verantwortlich sind, beeinflusst ihr Verhalten die Effektivität dieser Systeme.
Wenn Anwender vorsichtig und kritisch bleiben, bemerken sie eher Lücken oder Fehler in den Antworten von KI-Systemen. Anstatt Ergebnisse einfach zu akzeptieren, hinterfragen sie unklare Vorschläge und überprüfen potenziell riskante Empfehlungen. Dieser Ansatz schützt sie nicht nur, sondern spielt auch eine wichtige Rolle bei der Verbesserung der Systeme. Wenn Anwender diese Probleme über integrierte Feedback-Mechanismen melden, helfen sie den Entwicklern von KI-Systemen, wiederkehrende Probleme zu identifizieren und zu beheben, was wiederum die Gesamtqualität und Zuverlässigkeit der Tools stärkt.
KI-Systeme sind Ratgeber, keine Entscheidungsträger, und ihre Vorschläge sollten entsprechend bewertet werden. Bis diese Systeme ausgereift sind, hilft ein verantwortungsvoller Umgang dabei, die Lücke zwischen menschlichem Fachwissen und maschineller Unterstützung zu schließen.
Was ist also das Fazit?
Verantwortungsbewusste KI ist kein abstraktes Wunschbild. Es ist etwas, das wir täglich durch Designentscheidungen, Überprüfungsprozesse und Anwenderverhalten praktizieren. In der Welt der technischen Dokumentation muss sichergestellt werden, dass KI so zum Einsatz kommt, dass sie Genauigkeit, Sicherheit und Klarheit unterstützt.
Teil 2 - Verantwortungsbewusste KI in die Praxis umsetzen: Was macht sie wirklich erfolgreich?
Kontakt
Interessiert an unseren Dienstleistungen?

Elke Grundmann
Department Manager Munich
+49 172 378 16 32
- bei https://form.apsis.one/yvK4fU8w5dPxKe