Jargon-Übersetzer
Technische Begriffe in klarer Sprache erklärt – ohne Buzzword-Bingo.
Was verbirgt sich wirklich hinter den Schlagworten?
Single Source Publishing
Klartext: Einmal schreiben, mehrfach publizieren
Sie erfassen den Inhalt nur einmal in einem Quellformat (z.B. DITA, XML) und erstellen daraus automatisch verschiedene Ausgaben für unterschiedliche Kanäle:
- PDF für Druck
- HTML für Web
- Mobile-App-Content
- Online-Hilfe
Vorteil: Konsistenz über alle Kanäle, Zeitersparnis, weniger Fehler.
Digitale Transformation
Klartext: Von analogen zu digitalen Prozessen
Der Wechsel von papier-basierten oder manuellen Workflows zu digitalen, automatisierten Prozessen.
Konkret in der Dokumentation:
- Von Word-Dateien zu strukturiertem XML
- Von manuellen PDFs zu automatisierten Builds
- Von lokal gespeicherten Dateien zu Cloud-Systemen
Vorteil: Schnellere Prozesse, bessere Zusammenarbeit, leichtere Aktualisierungen.
Cross Media Publishing
Klartext: Inhalte für verschiedene Kanäle aufbereiten
Ihre Inhalte werden für mehrere Medienarten optimiert und ausgegeben:
- Print (Broschüren, Handbücher)
- Web (responsive Websites)
- Mobile (Apps, E-Books)
- Social Media (Snippets, Grafiken)
Unterschied zu Single Source Publishing: Hier geht es um medienspezifische Anpassungen (Layout, Interaktivität), nicht nur verschiedene Formate.
Vorteil: Maximale Reichweite, optimale Nutzererfahrung pro Kanal.
DITA
Klartext: Darwin Information Typing Architecture
Ein XML-Standard für strukturierte technische Dokumentation. Inhalt wird in wiederverwendbare Bausteine (Topics) unterteilt:
- Concept: Konzeptuelle Informationen
- Task: Schritt-für-Schritt-Anleitungen
- Reference: Nachschlagewerke (Tabellen, Parameter)
Diese Topics können in verschiedenen Dokumenten wiederverwendet und zu unterschiedlichen Publikationen zusammengestellt werden.
Vorteil: Wiederverwendbarkeit, Konsistenz, einfache Wartung.
XML
Klartext: eXtensible Markup Language
Ein textbasiertes Format zur strukturierten Speicherung von Daten. Anders als grafische Formate (PDF, Word) beschreibt XML die Bedeutung von Inhalten, nicht ihr Aussehen.
Beispiel:
<title>Bedienungsanleitung</title>
<step>Gerät einschalten</step>
Das Aussehen wird später durch Stylesheets (CSS, XSLT) definiert.
Vorteil: Unabhängigkeit von Layout-Software, maschinelle Verarbeitbarkeit, Langzeitarchivierung.
Structured Authoring
Klartext: Strukturiertes Schreiben
Inhalte werden nach einem festen Schema erfasst, nicht frei gestaltet. Die Struktur gibt vor, welche Elemente in welcher Reihenfolge vorkommen:
- Jede Anleitung hat: Titel → Einleitung → Schritte → Ergebnis
- Jeder Schritt hat: Aktion → (Optional) Hinweis → (Optional) Bild
Anders als in Word, wo Sie frei formatieren können, erzwingt strukturiertes Schreiben Konsistenz und Wiederverwendbarkeit.
Vorteil: Automatisierbarkeit, Qualitätssicherung, leichtere Übersetzung.
Transklusion
Klartext: Inhalte per Referenz einbinden statt kopieren
Ein Konzept aus dem Document Engineering, bei dem Inhalte durch Verweise (Referenzen) eingebunden werden, nicht durch Kopieren.
- Prinzip: Ein Inhalt existiert nur einmal als "Master"
- Verwendung: Wird per Referenz an mehreren Stellen eingebunden
- Änderung: Einmal ändern → überall automatisch aktualisiert
In DITA konkret: ConRef (Content Reference) und ConKeyRef sind technische Umsetzungen des Transklusions-Prinzips.
Beispiel: Sicherheitshinweis einmal schreiben, in 50 Dokumenten einbinden – bei Änderung (z.B. neue Norm) automatisch überall aktualisiert.
Vorteil: Single Source of Truth, keine Inkonsistenzen, minimaler Wartungsaufwand.
LLM
Klartext: Large Language Model (KI-Sprachmodell)
KI-Systeme wie ChatGPT, die Text verstehen und generieren. Strukturierte Dokumentation ist der Schlüssel zu besseren Ergebnissen:
- Input: Je strukturierter Ihre Daten (XML, DITA), desto präziser die Antworten
- Context: Klare Struktur = bessere Kontexterkennung
- Output: Konsistente Struktur ermöglicht zuverlässiger Generierung
Warum strukturiert? LLMs können semantische Beziehungen in XML/DITA besser erkennen als in unstrukturiertem Text.
Vorteil: Strukturierte Dokumentation = AI-ready = Zukunftssicher
RAG
Klartext: Retrieval-Augmented Generation
Eine Technik, bei der ein LLM auf Ihre spezifischen Daten zugreift, bevor es antwortet. Besonders wichtig für technische Dokumentation:
- Retrieve: Relevante Inhalte aus Ihrer Doku finden
- Augment: LLM mit diesen Infos "anreichern"
- Generate: Präzise Antwort basierend auf Ihren Daten
RAG-taugliche Dokumentation erfordert:
- Saubere Strukturierung (DITA Topics, XML-Elemente)
- Semantische Metadaten
- Modularer Aufbau (wiederverwendbare Bausteine)
- Klare Informationsarchitektur
Vorteil: Chatbots, die aus IHRER Dokumentation präzise antworten können
Multimodal
Klartext: KI-Systeme, die mehrere Medientypen verarbeiten
Moderne LLMs wie GPT-4V oder Claude können nicht nur Text, sondern auch Bilder, Videos und Audio verarbeiten.
- Text + Bild: Screenshots in Dokumentation automatisch analysieren
- Text + Video: Tutorial-Videos auswerten
- Text + Audio: Meeting-Aufnahmen transkribieren
Für Dokumentation relevant: Diagramme, Screenshots, UML automatisch verstehen und beschreiben lassen.
Vorteil: Multimodale Doku = reichhaltigere KI-Analyse möglich
Computer Vision
Klartext: KI erkennt Inhalte in Bildern/Videos
Technologie, die es Maschinen ermöglicht, visuelle Inhalte zu verstehen – ein Teil von Multimodal AI.
- Screenshots automatisch beschreiben
- UI-Elemente in Bildern erkennen
- Diagramme und Flowcharts auswerten
- Fehler in visuellen Anleitungen finden
Use Case: Automatische Alt-Text-Generierung für Barrierefreiheit.
Vorteil: Bildlastige Dokumentation wird AI-durchsuchbar
ASR / Speech-to-Text
Klartext: Automatic Speech Recognition (Spracherkennung)
KI wandelt gesprochene Sprache in Text um – wichtig für Audio-basierte Dokumentation.
- Meeting-Protokolle automatisch erstellen
- Video-Tutorials transkribieren
- Podcast-Content dokumentieren
- Voice Commands in Software dokumentieren
Tools: Whisper (OpenAI), Google Speech-to-Text, Azure Speech Services
Vorteil: Audio-Content wird durchsuchbar und wiederverwendbar
NLP
Klartext: Natural Language Processing (Sprachverarbeitung)
Die Technologie hinter LLMs – ermöglicht Maschinen, menschliche Sprache zu verstehen und zu verarbeiten.
- Textanalyse und -klassifizierung
- Sentiment-Analyse in User-Feedback
- Named Entity Recognition (NER)
- Automatische Zusammenfassungen
Dokumentations-Use-Cases: Auto-Tagging, Konsistenz-Checks, Terminologie-Extraktion
Vorteil: Intelligente Textverarbeitung ohne manuelle Regeln
Embeddings
Klartext: Text als Zahlenvektor (für KI-Verarbeitung)
LLMs wandeln Text in hochdimensionale Vektoren um – die mathematische Repräsentation von Bedeutung.
- Semantic Similarity: "Auto" ≈ "Fahrzeug" (nicht nur String-Match)
- Basis für RAG: Ähnliche Inhalte finden
- Vector Databases: Pinecone, Weaviate, Chroma
Technisch: z.B. 1536-dimensionaler Vektor für jeden Text-Chunk
Vorteil: Semantische Suche statt Keyword-Matching
Chunking
Klartext: Dokumentation in LLM-verdauliche Stücke teilen
LLMs haben Token-Limits – grosse Dokumente müssen in kleinere "Chunks" aufgeteilt werden.
- Optimale Chunk-Grösse: 500-1500 Zeichen
- DITA-Vorteil: Topics sind natürliche Chunks!
- Overlap zwischen Chunks für Kontext
- Semantisches Chunking (Absatz/Kapitel-basiert)
Best Practice: Strukturierte Doku (DITA) = sauberes Chunking
Vorteil: Bessere RAG-Ergebnisse durch optimale Chunk-Grösse
Prompt Engineering
Klartext: LLMs richtig "fragen"
Die Kunst, Anfragen an LLMs optimal zu formulieren, um beste Ergebnisse zu erzielen.
- Few-Shot Prompting (Beispiele geben)
- Chain-of-Thought (Schritt-für-Schritt denken lassen)
- System Prompts (Rolle definieren)
- Context Window Management
Dokumentations-Use-Case: "Erstelle DITA-konforme Task-Topics aus diesem Text"
Vorteil: Qualität der LLM-Ausgabe um Faktor 10+ verbesserbar
Fine-tuning
Klartext: LLM für spezifische Aufgabe trainieren
Ein bestehendes LLM mit eigenen Daten nachtrainieren – im Gegensatz zu RAG sehr aufwändig.
- Aufwand: Hoch (Tausende Trainingsbeispiele, GPU-Zeit)
- Kosten: $$$$ (vs. RAG: $)
- Dynamik: Statisch (vs. RAG: dynamisch aktualisierbar)
- Use-Case: Hochspezialisierte Domänen-Sprache
Empfehlung: Für Dokumentation meist RAG besser geeignet
Achtung: Nur bei sehr spezifischen Anforderungen sinnvoll
Token
Klartext: Kleinste Einheit für LLM-Verarbeitung
LLMs verarbeiten Text nicht als Wörter, sondern als Tokens – oft Teilwörter oder Zeichen.
- 1 Token ≈ 4 Zeichen (Durchschnitt)
- 100 Tokens ≈ 75 Wörter
- Context Window: GPT-4: 128k Tokens
- Kosten: Abrechnung nach Input/Output-Tokens
Relevanz für Doku: Token-Limit bestimmt max. Dokumentationsgrösse pro Anfrage
Tipp: Strukturierte Doku = effizientere Token-Nutzung
Ingestion
Klartext: Datenaufnahme ins System
Der Prozess, Dokumentation in ein RAG-System zu importieren – inklusive Parsing, Chunking, Embedding-Erstellung.
- Parsing (PDF, HTML, DITA → strukturierte Daten)
- Chunking (grosse Docs aufteilen)
- Embedding-Generierung
- Metadaten-Extraktion
- Speicherung in Vector Database
Pipeline-Beispiel: DITA → Chunks → Embeddings → Pinecone
Vorteil: Strukturierte Doku (DITA/XML) = einfachere Ingestion
Semantic Search
Klartext: Suche nach Bedeutung (nicht nur Keywords)
Suche basierend auf semantischer Ähnlichkeit – findet "Auto" auch wenn Sie "Fahrzeug" suchen.
- Grundlage: Embeddings + Vector Similarity
- Beispiel: "Wie installiere ich?" findet auch "Setup-Anleitung"
- Tool: Elasticsearch, Algolia, Pinecone
Im Unterschied zu: Keyword-Suche ("Auto" findet nur "Auto", nicht "PKW")
Vorteil: Findet relevante Inhalte auch bei unterschiedlicher Formulierung
GEO
Klartext: Generative Engine Optimization
Die Optimierung für generative Suchmaschinen – Sichtbarkeit in AI-basierten Antworten wie Google AI Overviews, ChatGPT, Perplexity.
Branchenbegriffe 2026:
- GEO: Meist genutzter Sammelbegriff
- LLMO: LLM Optimization (Synonym)
- AEO: Answer Engine Optimization (Synonym)
- AI Search Optimization: Alternative Bezeichnung
Für technische Dokumentation entscheidend:
- Strukturierte Daten (DITA, XML) werden besser erkannt
- Klare Metadaten erhöhen Zitierwahrscheinlichkeit
- Semantische Markup verbessert Kontextverständnis
- Modularer Content ermöglicht präzise Antworten
Unterschied zu SEO: Nicht Link-Rankings, sondern direkte Erwähnung/Zitation in AI-generierten Antworten.
Vorteil: Strukturierte Dokumentation = bessere GEO-Readiness = Zukunftssicher
HTML5
Klartext: Modernes Web-Standard-Format
Der aktuelle Standard für Web-Content – wichtig für responsive Online-Hilfen und als Output-Format für strukturierte Dokumentation.
- Responsive Design (Mobile-freundlich)
- Semantische Elemente (<article>, <section>)
- LLMs können HTML generieren/parsen
- Standard-Output aus DITA-Publishing
DITA-Workflow: DITA → DITA-OT → HTML5
Vorteil: Universell zugänglich, suchmaschinenfreundlich
Markdown
Klartext: Einfaches Textformat für Dokumentation
Leichtgewichtiges Markup-Format – LLMs lieben Markdown, weil es strukturiert aber einfach ist.
- Docs-as-Code: Mit Git versionierbar
- LLM-Training: Viele LLM-Daten in Markdown
- LLM-Output: Bevorzugtes Format für Generierung
- Tools: GitHub, GitLab, Notion, Obsidian
Konversion: Markdown ↔ DITA möglich (mit Pandoc)
Vorteil: LLMs generieren & verstehen Markdown nativ
JSON
Klartext: JavaScript Object Notation (Datenformat)
Standard-Format für Datenaustausch und APIs – wichtig für Metadaten, Konfiguration und System-Integrationen.
- API-Kommunikation (REST APIs)
- DITA-Metadaten exportieren
- LLM-Funktionsaufrufe (Function Calling)
- Konfigurationsdateien
Use-Case: DITA-Metadaten als JSON → RAG-System
Vorteil: Maschinenlesbar, universell unterstützt
DTD
Klartext: Document Type Definition (XML-Schema)
Definition der Struktur-Regeln für XML-Dokumente – DITA basiert traditionell auf DTDs.
- DITA-Standard: Nutzt DTDs (z.B. topic.dtd)
- Definiert erlaubte Elemente & Attribute
- Validierung von XML-Dokumenten
- Alternative: XSD (XML Schema Definition)
Immer noch verbreitet: Trotz XSD bleibt DTD DITA-Standard
Vorteil: Konsistente Dokumentstruktur erzwingen
API
Klartext: Application Programming Interface (Schnittstelle)
Schnittstellen für Systemkommunikation und Automatisierung – essentiell für moderne Dokumentations-Infrastruktur.
- FrameMaker API: ExtendScript-Automatisierung
- DITA-OT API: Publishing programmatisch steuern
- LLM APIs: OpenAI, Anthropic, Azure
- CCMS APIs: Content-Management integrieren
Use-Case: DITA Publishing via API automatisch triggern
Vorteil: Volle Automatisierung möglich
BPMN
Klartext: Business Process Model and Notation
Standard-Notation für Geschäftsprozesse – eine gemeinsame Sprache für Business und IT zur Visualisierung von Workflows.
- OMG-Standard: International standardisiert (BPMN 2.0)
- Visuelle Elemente: Events, Activities, Gateways, Flows
- Ausführbar: BPMN → Workflow Engine (z.B. Camunda)
- Dokumentierbar: XML-basiert, versionierbar in Git
Use-Case: Dokumentations-Workflow modellieren → automatisieren → CI/CD integrieren
Vorteil: Business versteht IT-Prozesse, IT kann Business-Prozesse automatisieren
Workflow
Klartext: Arbeitsablauf mit definierten Schritten
Strukturierte Abfolge von Aufgaben – von manuell zu teilautomatisiert bis vollautomatisiert. Kern der Prozessoptimierung.
- Review-Workflows: Technische Korrektheit + Freigabe
- Publishing-Workflows: Authoring → Build → Deploy
- Translation-Workflows: Extract → Translate → Re-import
- Approval-Workflows: Mehrst ufige Freigabeprozesse
DIBASS-Expertise: Workflow-Design, BPMN-Modellierung, CI/CD-Integration
Vorteil: Reproduzierbar, skalierbar, automatisierbar
Gap-Analyse
Klartext: Lückenanalyse (IST vs. SOLL)
Systematischer Vergleich des aktuellen Zustands (IST) mit dem Zielzustand (SOLL) – Basis für Roadmap-Entwicklung.
- Dokumentations-Audit: Welche Inhalte fehlen?
- Tool-Evaluation: Welche Features brauchen wir?
- Prozess-Optimierung: Welche Schritte sind ineffizient?
- Skill-Gap: Welches Wissen fehlt im Team?
Methodik: 1. IST aufnehmen → 2. SOLL definieren → 3. Gaps identifizieren → 4. Priorisieren
Vorteil: Fundierte Entscheidungsgrundlage statt Bauchgefühl
Proof of Concept (PoC)
Klartext: Machbarkeitsnachweis
Praktischer Test einer Idee oder Technologie – klein, fokussiert, zeitlich begrenzt. Risiko minimieren vor voller Investition.
- Tool-Evaluierung: CCMS testen mit real Content
- LLM-Integration: RAG-Prototyp mit eigener Doku
- CI/CD-Pipeline: Minimales Setup testen
- DITA-Migration: 10 Topics konvertieren → lernen
Erfolgskriterien: Funktioniert es? Performance OK? Anwenderfreundlich?
Vorteil: Schnelles Feedback, minimales Risiko, konkrete Learnings
Content-Strategie
Klartext: Planung für zielgruppengerechte Inhalte
Strategische Planung von Inhalten, Struktur und Workflows – was braucht die Zielgruppe wirklich? (Minimalismus statt "alles dokumentieren")
- Zielgruppendefinition: Wer nutzt die Dokumentation?
- Informationsbedarfsermittlung: Was brauchen sie wann?
- Minimalismus: Alte Zöpfe abschneiden, Fokus auf Essentials
- Datensilos optimieren: Single Source of Truth etablieren
DIBASS-Service: Content-Strategie-Beratung auf beratung.html
Vorteil: Weniger ist mehr – nur relevante Inhalte produzieren
Information Architecture (IA)
Klartext: Strukturierung von Informationen für optimale Nutzbarkeit
Design der Informationsstruktur – wie werden Inhalte organisiert, kategorisiert und gefunden? Fundament für User Experience.
- Navigation: Wie finden User Informationen?
- Taxonomie: Kategorisierung und Verschlagwortung
- Metadaten: Strukturierte Beschreibung von Inhalten
- Search: Findability durch gute IA
DITA-Context: Topic-Typen, Maps, Metadaten → strukturierte IA
Vorteil: User finden schneller, was sie brauchen
Change Management
Klartext: Begleitung bei Veränderungsprozessen
Strukturierte Einführung neuer Systeme und Prozesse – Menschen mitnehmen, nicht überrollen. Kritisch für Projekterfolg.
- Stakeholder-Kommunikation: Transparenz über Änderungen
- Training: Team befähigen, neue Tools zu nutzen
- Rollout-Planung: Schrittweise statt Big Bang
- Widerstände abbauen: Bedenken ernst nehmen
Typischer Fehler: Neues Tool kaufen, Team nicht schulen → Scheitern
Vorteil: Höhere Akzeptanz, schnellere Adoption
Stakeholder Management
Klartext: Management von Projektbeteiligten und deren Interessen
Identifizierung und Koordination aller relevanten Personen – wer hat Einfluss? Wer ist betroffen? Wer muss mitwirken?
- Identifikation: Wer sind die Stakeholder?
- Analyse: Interessen, Einfluss, Betroffenheit
- Kommunikation: Richtige Info zur richtigen Zeit
- Erwartungsmanagement: Realistische Ziele setzen
Dokumentations-Context: Autoren, Reviewer, Management, User
Vorteil: Konflikte früh erkennen, Alignment schaffen
SOP
Klartext: Standard Operating Procedure (Standardarbeitsanweisung)
Dokumentierte Standardprozesse für wiederkehrende Aufgaben – wie wird etwas gemacht? Schritt für Schritt, reproduzierbar.
- Prozessdokumentation: Klare Anweisungen für Workflows
- Qualitätssicherung: Konsistente Ergebnisse
- Onboarding: Neue Mitarbeiter schneller produktiv
- Automatisierbar: SOPs → Skripte/Workflows
Beispiel: SOP für DITA-Topic-Erstellung, Review-Workflow, Publishing
Vorteil: Weniger Fehler, weniger Fragen, mehr Effizienz
Business Process
Klartext: Geschäftsprozess
Strukturierte Abfolge von Aktivitäten zur Erreichung eines Geschäftsziels – kann mit BPMN modelliert und optimiert werden.
- End-to-End: Vom Trigger bis zum Ergebnis
- Rollen & Verantwortlichkeiten: Wer macht was?
- Input/Output: Was wird benötigt/erzeugt?
- Optimierbar: Ineffizienzen identifizieren
Doku-Beispiel: Content-Erstellung → Review → Freigabe → Publishing
Vorteil: Transparenz, Messbarkeit, kontinuierliche Verbesserung
XSLT
Klartext: Extensible Stylesheet Language Transformations
Transformationssprache für XML – konvertiert XML in andere Formate (HTML, PDF, Text). Essentiell für DITA-Publishing.
- XML → HTML: Online-Hilfen generieren
- XML → XSL-FO: Basis für PDF-Generierung
- DITA → Custom Output: Individuelle Formate
- Template-basiert: Regeln für Transformation
DIBASS-Expertise: XSLT-Entwicklung für automatisierte Publishing-Pipelines
Vorteil: Volle Kontrolle über Output-Format, wiederverwendbar
UML
Klartext: Unified Modeling Language
Standard-Notation für Software-Modellierung – visualisiert Systeme, Prozesse und Datenstrukturen. Ergänzend zu BPMN.
- Use Case Diagramme: Funktionale Anforderungen
- Class Diagramme: Datenmodelle, API-Struktur
- Sequence Diagramme: Interaktionsabläufe
- Activity Diagramme: Ähnlich BPMN, aber IT-fokussiert
Dokumentations-Context: CCMS-Architektur, Publishing-Pipeline visualisieren
Vorteil: Gemeinsames Verständnis komplexer Systeme
KPI
Klartext: Key Performance Indicator (Leistungskennzahl)
Messbare Kennzahlen für Leistung und Fortschritt – ohne Messung keine Verbesserung. Essential für Prozessoptimierung.
- Build-Zeit: Wie lange dauert Publishing?
- Fehlerrate: Anzahl Broken Links, Validation Errors
- Reuse-Rate: Wie oft werden Topics wiederverwendet?
- Time-to-Deploy: Von Commit bis Live
Management-Prinzip: "What gets measured gets improved"
Vorteil: Datengetriebene Entscheidungen, sichtbarer Fortschritt
Technical Debt
Klartext: Technische Schulden
Kosten von Schnelllösungen und veralteten Systemen – heute Zeit sparen = morgen doppelte Arbeit. Muss aktiv gemanagt werden.
- Legacy-Formate: FrameMaker 7.x ohne Struktur
- Organisch gewachsen: Inkonsistente Templates
- Fehlende Automatisierung: Manuelle, fehleranfällige Prozesse
- Dokumentations-Debt: Undokumentierte Workarounds
Strategie: Debt regelmässig abbauen, nicht akkumulieren lassen
Vorteil: Bewusstsein für langfristige Kosten, bessere Priorisierung
SSOT
Klartext: Single Source of Truth
Prinzip: Eine zentrale, verlässliche Datenquelle – keine Duplikate, keine Inkonsistenzen. Ideal für Content Reuse.
- DITA-Topics: Einmal schreiben, mehrfach publishen
- Produktdaten: PIM als SSOT für technische Specs
- Terminologie: Termbank statt lokale Listen
- Version Control: Git als SSOT für Code/Content
Problem ohne SSOT: Datensilos, veraltete Kopien, Inkonsistenzen
Vorteil: Eine Wahrheit, keine Konflikte, einfachere Wartung
Pipeline
Klartext: Automatisierte Prozess-Kette
Verkettung von automatisierten Arbeitsschritten – z.B. Code-Commit → Build → Test → Deploy.
- CI/CD Pipeline: Automatisches Publishing
- Doku-Pipeline: DITA → Validate → Transform → Publish
- RAG-Pipeline: Ingest → Chunk → Embed → Index
- Tools: Jenkins, GitLab CI, GitHub Actions
Beispiel: Git Push → Auto-Build PDF → Deploy zu Server
Vorteil: Zero-Touch Publishing, Fehler früh erkennen
Python
Klartext: Programmiersprache für Automatisierung
Die Sprache für LLM-Integration und Dokumentations-Automatisierung – einfache Syntax, mächtige Libraries.
- LLM-Integration: LangChain, LlamaIndex
- XML-Verarbeitung: lxml, BeautifulSoup
- Publishing: DITA-OT via Python steuern
- Data Processing: Pandas, NumPy
Use-Case: Python-Script für DITA → RAG-Ingestion
Vorteil: Riesiges Ökosystem für AI/ML
Git
Klartext: Versionskontroll-System
Standard für Docs-as-Code – verwaltet Änderungen, ermöglicht Zusammenarbeit und Nachvollziehbarkeit.
- Branching: Features parallel entwickeln
- Pull Requests: Review-Prozess für Doku
- History: Jede Änderung nachvollziehbar
- Integration: GitHub/GitLab mit CI/CD
Workflow: Markdown/DITA in Git → Auto-Publish via Pipeline
Vorteil: Professionelle Versionierung wie bei Code
CI/CD
Klartext: Continuous Integration / Continuous Deployment
Automatisches Testen und Veröffentlichen – jede Änderung wird sofort geprüft und deployed.
- CI: Automatisch validieren (XML, Links, Style)
- CD: Automatisch publishen (PDF, HTML, etc.)
- Fehler früh erkennen
- Konsistente Build-Umgebung
Doku-Pipeline: Git Push → Validate DITA → Build PDF → Deploy
Vorteil: Schneller, zuverlässiger, wiederholbar
CCMS
Klartext: Component Content Management System
Spezialisiertes CMS für strukturierte, wiederverwendbare Dokumentation – das Herzstück enterprise DITA-Workflows.
- Content-Reuse Management
- Versionskontrolle auf Component-Ebene
- Workflow & Review-Prozesse
- Multi-Channel Publishing
Systeme: IXIASOFT, SDL, Oxygen Content Fusion
Vorteil: Enterprise-skalierbare Dokumentations-Infrastruktur
TTS
Klartext: Text-to-Speech (Sprachsynthese)
KI wandelt Text in gesprochene Sprache um – wichtig für Barrierefreiheit und Audio-Content.
- Dokumentation vorlesen lassen
- Audio-Versionen von Anleitungen
- Voice Assistants (Alexa Skills Docs)
- Mehrsprachige Sprachausgabe
Tools: ElevenLabs, Google Cloud TTS, Azure Speech
Vorteil: Barrierefreiheit, neue Content-Formate
GPU
Klartext: Graphics Processing Unit (Grafikprozessor)
Hardware für LLM-Training und -Inferenz – deutlich schneller als CPUs für parallele Berechnungen.
- NVIDIA: CUDA-Ökosystem, Standard für AI
- AMD: ROCm-Alternative
- Use-Case: RAG-Pipeline lokal betreiben
- Consumer: RTX 4090, Enterprise: A100, H100
Doku-Relevanz: "Welche GPU für lokale DITA→RAG Pipeline?"
Vorteil: Lokale Verarbeitung = Datenschutz
VRAM
Klartext: Video RAM (GPU-Speicher)
Der limitierende Faktor für lokale LLM-Grösse – je mehr VRAM, desto grössere Modelle können geladen werden.
- 7B Modell: ~6GB VRAM (Consumer-GPU)
- 13B Modell: ~13GB VRAM
- 70B Modell: ~40GB VRAM (Enterprise)
- Lösung: Quantization reduziert VRAM-Bedarf
Beispiel: RTX 4090 = 24GB VRAM
Tipp: Quantization ermöglicht grössere Modelle
Inferenz
Klartext: LLM nutzen (nicht trainieren)
Der Prozess, ein trainiertes LLM zu verwenden – im Gegensatz zum Training (teuer, zeitaufwändig).
- Kosten: $/Token (Input + Output)
- Geschwindigkeit: Tokens/Sekunde
- Lokal vs. Cloud: On-Premise = keine Übertragung
- Relevanz: Jede RAG-Anfrage ist Inferenz
Doku-Use-Case: "Inferenz über eigene Dokumentation"
Vorteil: Lokal = Keine API-Kosten
HuggingFace
Klartext: Open-Source LLM Platform
Die Plattform für Open-Source AI-Modelle, Datasets und Tools – "GitHub für AI".
- Model Hub: Tausende LLMs kostenlos
- Transformers: Python-Library
- Datasets: Training-Daten
- Llama 3, Mistral, Qwen – alle auf HF
Doku-Relevanz: DITA-optimierte Modelle finden
Vorteil: Open-Source, keine Vendor Lock-in
Ollama
Klartext: Tool für lokales LLM-Management
Das einfachste Tool für lokale LLMs – "Docker für AI-Modelle", extrem populär in der AI-Community.
- Ein Command: `ollama run llama3`
- Automatisches Modell-Download & Management
- API-kompatibel mit OpenAI
- GGUF-Format Support
Doku-Use-Case: Llama 3 lokal für Dokumentations-QA
Vorteil: 5 Minuten Setup, keine Cloud
Quantization
Klartext: Modelle verkleinern
Technik, um LLMs deutlich kleiner zu machen – von 32-bit auf 4-bit, ohne viel Qualitätsverlust.
- 32-bit → 8-bit: Halbiert Speicher
- 32-bit → 4-bit: 1/8 Speicher!
- Ermöglicht: 70B Modell auf Consumer-GPU
- Tools: GPTQ, AWQ, GGUF
Beispiel: Llama 3 70B: 140GB → 18GB (4-bit)
Vorteil: Grosse Modelle auf kleiner Hardware
GGUF
Klartext: Quantisiertes Modell-Format
Das Standard-Format für quantisierte LLMs – optimiert für llama.cpp und Ollama.
- Nachfolger von GGML
- Unterstützt verschiedene Quantisierungsstufen
- CPU + GPU Inferenz
- Ollama verwendet GGUF intern
File-Endung: model-Q4_K_M.gguf (4-bit quantized)
Vorteil: Plattformübergreifend, CPU-tauglich
On-Premise
Klartext: Lokal statt Cloud
LLM-Deployment auf eigener Infrastruktur – im Gegensatz zu Cloud/SaaS (OpenAI, Anthropic).
- DSGVO-konform: Daten bleiben intern
- Kosten: Hardware-Invest, keine API-Gebühren
- Kontrolle: Volle Anpassung möglich
- Ideal für Kundendaten-Dokumentation
Use-Case: Vertrauliche Dokumentation = On-Premise RAG
Vorteil: Datenschutz, keine Cloud-Abhängigkeit
Edge AI
Klartext: AI direkt am Endgerät
LLM-Inferenz direkt auf Device (Laptop, Smartphone) – nicht Server oder Cloud.
- Offline-fähig (keine Internet-Verbindung)
- Niedrige Latenz (keine Server-Roundtrip)
- Datenschutz (Daten verlassen Device nicht)
- Beispiel: Llama 3 auf iPhone 15 Pro
Doku-Use-Case: Offline-Suche in PDF-Handbüchern
Vorteil: Funktioniert überall, auch ohne Internet
System Prompt
Klartext: LLM-Rolle definieren
Der Kontext am Anfang jedes LLM-Gesprächs – definiert Rolle, Verhalten und Constraints des LLMs.
- Setzt Erwartungen: "Du bist DITA-Experte..."
- Definiert Output-Format
- Gibt Kontext für gesamte Session
- Wird bei jeder Anfrage berücksichtigt
Beispiel: "Du bist technischer Redakteur. Antworte in DITA XML."
Vorteil: Konsistente LLM-Antworten
User Prompt
Klartext: Die eigentliche Anfrage
Der Input vom Benutzer – die konkrete Aufgabe oder Frage an das LLM.
- Die eigentliche Arbeitsanweisung
- Kann Kontext enthalten
- Kann auf System Prompt aufbauen
- Im Chat: jede neue Nachricht
Beispiel: "Konvertiere folgenden Text in DITA Task Topic: ..."
Tipp: Klare Anweisungen = bessere Ergebnisse
Assistant Prompt
Klartext: LLM-Antwort im Kontext
Die Antwort des LLMs – wird teil des Gesprächs-Kontexts für Follow-up Fragen.
- Wird zum Kontext für nächste Frage
- Ermöglicht Multi-Turn Gespräche
- Bei Few-Shot: Beispiel-Antworten
- Beeinflusst weiteren Verlauf
Few-Shot: User: "..." → Assistant: "..." (Beispiel)
Vorteil: Kontextuelle Gespräche möglich
AI Agent / Agentic AI
Klartext: Autonomes LLM mit Tools
LLM, das selbstständig Tools nutzen kann – nicht nur Text, sondern Aktionen ausführen.
- Tool Use: Code ausführen, APIs aufrufen
- Planung: Multi-Step Tasks aufteilen
- Iteration: Fehler erkennen & korrigieren
- Beispiel: "Validiere DITA & erstelle PDF"
Doku-Use-Case: Agent automatisiert DITA-Publishing-Pipeline
Vorteil: Komplexe Workflows automatisiert
Multi-Agent Systems
Klartext: Mehrere Agenten arbeiten zusammen
Mehrere spezialisierte AI Agents kooperieren – jeder Agent hat eigene Rolle & Expertise.
- Spezialisierung: Writer, Reviewer, Editor
- Workflows: Sequentiell oder parallel
- Qualität: Peer-Review durch Agents
- Framework: AutoGen, CrewAI
Doku-Beispiel: Writer-Agent + Reviewer-Agent + QA-Agent
Vorteil: Höhere Qualität durch Spezialisierung
Cursor
Klartext: AI-first Code Editor
VS Code Fork mit eingebauter AI – für AI-gestütztes Programmieren optimiert.
- AI-Chat im Editor
- Code-Completion (Tab)
- Codebase-weites Understanding
- Claude, GPT-4 Integration
Doku-Use-Case: ExtendScript für FrameMaker mit Cursor entwickeln
Vorteil: Schnellere Entwicklung, weniger Fehler
Antigravity
Klartext: Google's AI Coding Agent
Agentic AI von Google – autonomer Coding-Agent in VS Code, powered by Gemini 2.0.
- Multi-File Editing
- Tool Use (Terminal, Browser, etc.)
- Iterative Problem-Solving
- Integration: VS Code Extension
Doku-Use-Case: Docs-as-Code Workflows mit Antigravity
Vorteil: Komplexe Tasks autonom lösen
Windsurf
Klartext: Codeium's AI IDE
AI-nativer Editor von Codeium – Alternative zu Cursor mit Fokus auf "Flows".
- Cascade: AI übernimmt schrittweise
- Free Tier verfügbar
- Codebase Understanding
- Multi-File Edits
Doku-Use-Case: DITA-Plugin-Entwicklung mit Windsurf
Vorteil: Kostenloser Einstieg möglich
Context Window
Klartext: Token-Gedächtnis des LLMs
Die maximale Anzahl Tokens, die ein LLM gleichzeitig verarbeiten kann – Input + Output zusammen.
- GPT-4: 128k Tokens (~96k Wörter)
- Claude 3: 200k Tokens
- Gemini 1.5 Pro: 2M Tokens (!)
- Limit: Grösser = teuerer
Doku-Relevanz: 128k Context = ganzes Handbuch auf einmal
Vorteil: Grosse Context Windows = weniger Chunking
Temperature
Klartext: Kreativität vs. Determinismus
Parameter (0-1), der Zufälligkeit der LLM-Antwort steuert – niedrig = vorhersagbar, hoch = kreativ.
- 0.0: Deterministisch, immer gleiche Antwort
- 0.7: Standard, ausgewogen
- 1.0+: Sehr kreativ, unvorhersagbar
- Für Doku: Meist 0.0-0.3
Use-Case: Temp=0 für konsistente Dokumentations-Generierung
Tipp: Niedrige Temperature für technische Texte
Top-K
Klartext: Sampling aus Top-K Tokens
Sampling-Strategie: LLM wählt nur aus den K wahrscheinlichsten Tokens – reduziert "Halluzinationen".
- K=1: Greedy (immer wahrscheinlichstes)
- K=50: Standard-Wert
- K=100: Mehr Diversität
- Kombination mit Temperature üblich
Doku-Use-Case: Top-K=50 für konsistente Terminologie
Vorteil: Weniger unwahrscheinliche Outputs
Top-P (Nucleus Sampling)
Klartext: Kumulatives Wahrscheinlichkeits-Sampling
Alternative zu Top-K: LLM wählt aus Tokens, die zusammen P% Wahrscheinlichkeit ergeben – dynamische Grösse.
- P=0.9: Standard (90% kumulative Wahrsch.)
- P=0.95: Etwas mehr Diversität
- P=1.0: Alle Tokens möglich
- Oft besser als Top-K für Qualität
Empfehlung: Top-P=0.9 für die meisten Use-Cases
Vorteil: Flexibler als Top-K
Hyperlink
Klartext: Klickbarer Verweis, der von einem Dokument zu einem anderen (oder zu einer Stelle im selben Dokument) führt – das Fundament des World Wide Web.
Technisch: HTML-Element <a href="...">, das
eine URL (Uniform Resource Locator) als Ziel referenziert. Hyperlinks können auf
Webseiten, Dateien, E-Mail-Adressen oder Anker (#id) verweisen.
- Externe Links: Verweise auf andere Websites
- Interne Links: Navigation innerhalb der eigenen Website
- Anker-Links: Sprung zu Abschnitten (#section-id)
- Deep Links: Direkte Verweise auf spezifische Inhalte
Verstehe: Gut strukturierte Link-Architektur verbessert SEO, UX und Barrierefreiheit.
Hypertext
Klartext: Text mit eingebetteten Hyperlinks, der nicht-lineare Navigation ermöglicht – Nutzer können eigene Lesepfade durch verknüpfte Informationen wählen.
Geschichte: Konzept von Ted Nelson (1965) geprägt, technisch realisiert durch Tim Berners-Lee mit HTML (HyperText Markup Language) und HTTP (HyperText Transfer Protocol) im Jahr 1989 – Grundlage des World Wide Web.
- Nicht-lineares Lesen: Freie Navigation statt sequenzieller Struktur
- Vernetzte Informationen: Kontextuelle Querverweise
- HTML: Standard-Format für Hypertext im Web
- Hypermedia: Erweiterung um Bilder, Videos, Audio
Verstehe: Hypertext revolutionierte Dokumentation – von linearen Handbüchern zu vernetzten Wissensgraphen.
CHM (Compiled HTML Help)
Klartext: Legacy-Hilfesystem-Format von Microsoft, offiziell abgekündigt seit Windows Vista, aber noch weit verbreitet.
Problem 2026: Das Wissen über CHM-Projektstruktur (.hhp, .hhc, .hhk), HTML Help Workshop und Troubleshooting schwindet in Unternehmen, während bestehende Workflows weiterhin auf CHM angewiesen sind.
- Wartung: Compiler-Setup, CI/CD-Integration
- Migration: CHM → HTML5, WebHelp, EPUB
- Alternative: Moderne, responsive Formate
Verstehe: CHM ist deprecated, aber manchmal nötig. Migration ist oft der bessere Weg.
DIBASS bietet: CHM-Support UND Migrationshilfe zu zeitgemässen Formaten.
PDF (Portable Document Format)
Klartext: Dokumentformat zur plattformunabhängigen Darstellung. Für Menschen gut lesbar, aber maschinenlesbar mit Herausforderungen: unstrukturiert, rauschbehaftet und lediglich eine digitale Papiersimulation. Echte Digitalisierung erfordert strukturierte Formate wie XML/DITA.
Kontext in der Dokumentation: Während PDF für Endanwender-Ausgaben geeignet ist, sind strukturierte Quellformate (DITA, XML) für Content-Management, Wiederverwendung und maschinelle Verarbeitung essentiell.
Verstehe: PDF ist ein beliebtes Ausgabeformat, aber keine Lösung für strukturierte Inhaltsverwaltung oder Prozessdigitalisierung.
Prozessdigitalisierung
Klartext: Automatisierung und Digitalisierung von Geschäftsprozessen, die früher personengebunden oder manuell waren. Geht weit über PDF-Erstellung hinaus: strukturierte Workflows, System-Integrationen, automatisierte Freigaben und Versionskontrolle.
Kontext in der Dokumentation: DIBASS unterstützt echte Prozessdigitalisierung durch CCMS-Systeme, CI/CD-Pipelines für Dokumentation und automatisierte Publishing-Workflows statt statischer PDF-Ablage.
Verstehe: Ein Papierformular als PDF zu haben ist KEINE Digitalisierung – das Ziel ist strukturierte Daten und automatisierte Prozesse.
Human-in-the-Loop (HITL)
Klartext: KI-Systeme, bei denen Menschen aktiv in kritische Entscheidungsprozesse eingebunden sind. Kombiniert Automatisierung mit menschlicher Expertise für Qualitätssicherung, ethische Überprüfung und kontinuierliches Lernen.
Kontext in der Dokumentation: Bei KI-gestützter Dokumentationserstellung (z.B. automatische Übersetzungen oder Content-Generierung) sollten technische Redakteure immer die finale Freigabe behalten – HITL stellt Qualität und Compliance sicher.
Verstehe: Vollständige Automatisierung ist nicht immer das Ziel – menschliche Kontrolle erhöht Qualität und Vertrauen in KI-Systeme.
MCP Server (Model Context Protocol)
Klartext: Standardprotokoll zur Verbindung von KI-Systemen (wie ChatGPT, Claude) mit externen Tools und Datenquellen. Ermöglicht modulare, erweiterbare AI Agent-Architekturen durch standardisierte Schnittstellen.
Kontext in der Dokumentation: MCP-Server können AI Agents Zugriff auf CCMS-Systeme, Git-Repositories oder Terminologie-Datenbanken geben, ohne dass für jedes System eine custom Integration entwickelt werden muss.
Verstehe: MCP ist wie USB für AI Agents – ein Standard-Anschluss für verschiedene Tools.
Noch Fragen?
Sie haben einen Begriff gehört, der hier fehlt? Oder möchten Sie mehr über eines dieser Konzepte erfahren?
Kontakt aufnehmen