FAIR… KOMPETENT… ZUVERLÄSSIG… KUNDENORIENTIERT…
Über DIBASS Services

Jargon-Übersetzer

Technische Begriffe in klarer Sprache erklärt – ohne Buzzword-Bingo.

Was verbirgt sich wirklich hinter den Schlagworten?

Single Source Publishing

Klartext: Einmal schreiben, mehrfach publizieren

Sie erfassen den Inhalt nur einmal in einem Quellformat (z.B. DITA, XML) und erstellen daraus automatisch verschiedene Ausgaben für unterschiedliche Kanäle:

  • PDF für Druck
  • HTML für Web
  • Mobile-App-Content
  • Online-Hilfe

Vorteil: Konsistenz über alle Kanäle, Zeitersparnis, weniger Fehler.

Digitale Transformation

Klartext: Von analogen zu digitalen Prozessen

Der Wechsel von papier-basierten oder manuellen Workflows zu digitalen, automatisierten Prozessen.

Konkret in der Dokumentation:

  • Von Word-Dateien zu strukturiertem XML
  • Von manuellen PDFs zu automatisierten Builds
  • Von lokal gespeicherten Dateien zu Cloud-Systemen

Vorteil: Schnellere Prozesse, bessere Zusammenarbeit, leichtere Aktualisierungen.

Cross Media Publishing

Klartext: Inhalte für verschiedene Kanäle aufbereiten

Ihre Inhalte werden für mehrere Medienarten optimiert und ausgegeben:

  • Print (Broschüren, Handbücher)
  • Web (responsive Websites)
  • Mobile (Apps, E-Books)
  • Social Media (Snippets, Grafiken)

Unterschied zu Single Source Publishing: Hier geht es um medienspezifische Anpassungen (Layout, Interaktivität), nicht nur verschiedene Formate.

Vorteil: Maximale Reichweite, optimale Nutzererfahrung pro Kanal.

DITA

Klartext: Darwin Information Typing Architecture

Ein XML-Standard für strukturierte technische Dokumentation. Inhalt wird in wiederverwendbare Bausteine (Topics) unterteilt:

  • Concept: Konzeptuelle Informationen
  • Task: Schritt-für-Schritt-Anleitungen
  • Reference: Nachschlagewerke (Tabellen, Parameter)

Diese Topics können in verschiedenen Dokumenten wiederverwendet und zu unterschiedlichen Publikationen zusammengestellt werden.

Vorteil: Wiederverwendbarkeit, Konsistenz, einfache Wartung.

XML

Klartext: eXtensible Markup Language

Ein textbasiertes Format zur strukturierten Speicherung von Daten. Anders als grafische Formate (PDF, Word) beschreibt XML die Bedeutung von Inhalten, nicht ihr Aussehen.

Beispiel:

<title>Bedienungsanleitung</title>
<step>Gerät einschalten</step>

Das Aussehen wird später durch Stylesheets (CSS, XSLT) definiert.

Vorteil: Unabhängigkeit von Layout-Software, maschinelle Verarbeitbarkeit, Langzeitarchivierung.

Structured Authoring

Klartext: Strukturiertes Schreiben

Inhalte werden nach einem festen Schema erfasst, nicht frei gestaltet. Die Struktur gibt vor, welche Elemente in welcher Reihenfolge vorkommen:

  • Jede Anleitung hat: Titel → Einleitung → Schritte → Ergebnis
  • Jeder Schritt hat: Aktion → (Optional) Hinweis → (Optional) Bild

Anders als in Word, wo Sie frei formatieren können, erzwingt strukturiertes Schreiben Konsistenz und Wiederverwendbarkeit.

Vorteil: Automatisierbarkeit, Qualitätssicherung, leichtere Übersetzung.

Transklusion

Klartext: Inhalte per Referenz einbinden statt kopieren

Ein Konzept aus dem Document Engineering, bei dem Inhalte durch Verweise (Referenzen) eingebunden werden, nicht durch Kopieren.

  • Prinzip: Ein Inhalt existiert nur einmal als "Master"
  • Verwendung: Wird per Referenz an mehreren Stellen eingebunden
  • Änderung: Einmal ändern → überall automatisch aktualisiert

In DITA konkret: ConRef (Content Reference) und ConKeyRef sind technische Umsetzungen des Transklusions-Prinzips.

Beispiel: Sicherheitshinweis einmal schreiben, in 50 Dokumenten einbinden – bei Änderung (z.B. neue Norm) automatisch überall aktualisiert.

Vorteil: Single Source of Truth, keine Inkonsistenzen, minimaler Wartungsaufwand.

LLM

Klartext: Large Language Model (KI-Sprachmodell)

KI-Systeme wie ChatGPT, die Text verstehen und generieren. Strukturierte Dokumentation ist der Schlüssel zu besseren Ergebnissen:

  • Input: Je strukturierter Ihre Daten (XML, DITA), desto präziser die Antworten
  • Context: Klare Struktur = bessere Kontexterkennung
  • Output: Konsistente Struktur ermöglicht zuverlässiger Generierung

Warum strukturiert? LLMs können semantische Beziehungen in XML/DITA besser erkennen als in unstrukturiertem Text.

Vorteil: Strukturierte Dokumentation = AI-ready = Zukunftssicher

RAG

Klartext: Retrieval-Augmented Generation

Eine Technik, bei der ein LLM auf Ihre spezifischen Daten zugreift, bevor es antwortet. Besonders wichtig für technische Dokumentation:

  • Retrieve: Relevante Inhalte aus Ihrer Doku finden
  • Augment: LLM mit diesen Infos "anreichern"
  • Generate: Präzise Antwort basierend auf Ihren Daten

RAG-taugliche Dokumentation erfordert:

  • Saubere Strukturierung (DITA Topics, XML-Elemente)
  • Semantische Metadaten
  • Modularer Aufbau (wiederverwendbare Bausteine)
  • Klare Informationsarchitektur

Vorteil: Chatbots, die aus IHRER Dokumentation präzise antworten können

Multimodal

Klartext: KI-Systeme, die mehrere Medientypen verarbeiten

Moderne LLMs wie GPT-4V oder Claude können nicht nur Text, sondern auch Bilder, Videos und Audio verarbeiten.

  • Text + Bild: Screenshots in Dokumentation automatisch analysieren
  • Text + Video: Tutorial-Videos auswerten
  • Text + Audio: Meeting-Aufnahmen transkribieren

Für Dokumentation relevant: Diagramme, Screenshots, UML automatisch verstehen und beschreiben lassen.

Vorteil: Multimodale Doku = reichhaltigere KI-Analyse möglich

Computer Vision

Klartext: KI erkennt Inhalte in Bildern/Videos

Technologie, die es Maschinen ermöglicht, visuelle Inhalte zu verstehen – ein Teil von Multimodal AI.

  • Screenshots automatisch beschreiben
  • UI-Elemente in Bildern erkennen
  • Diagramme und Flowcharts auswerten
  • Fehler in visuellen Anleitungen finden

Use Case: Automatische Alt-Text-Generierung für Barrierefreiheit.

Vorteil: Bildlastige Dokumentation wird AI-durchsuchbar

ASR / Speech-to-Text

Klartext: Automatic Speech Recognition (Spracherkennung)

KI wandelt gesprochene Sprache in Text um – wichtig für Audio-basierte Dokumentation.

  • Meeting-Protokolle automatisch erstellen
  • Video-Tutorials transkribieren
  • Podcast-Content dokumentieren
  • Voice Commands in Software dokumentieren

Tools: Whisper (OpenAI), Google Speech-to-Text, Azure Speech Services

Vorteil: Audio-Content wird durchsuchbar und wiederverwendbar

NLP

Klartext: Natural Language Processing (Sprachverarbeitung)

Die Technologie hinter LLMs – ermöglicht Maschinen, menschliche Sprache zu verstehen und zu verarbeiten.

  • Textanalyse und -klassifizierung
  • Sentiment-Analyse in User-Feedback
  • Named Entity Recognition (NER)
  • Automatische Zusammenfassungen

Dokumentations-Use-Cases: Auto-Tagging, Konsistenz-Checks, Terminologie-Extraktion

Vorteil: Intelligente Textverarbeitung ohne manuelle Regeln

Embeddings

Klartext: Text als Zahlenvektor (für KI-Verarbeitung)

LLMs wandeln Text in hochdimensionale Vektoren um – die mathematische Repräsentation von Bedeutung.

  • Semantic Similarity: "Auto" ≈ "Fahrzeug" (nicht nur String-Match)
  • Basis für RAG: Ähnliche Inhalte finden
  • Vector Databases: Pinecone, Weaviate, Chroma

Technisch: z.B. 1536-dimensionaler Vektor für jeden Text-Chunk

Vorteil: Semantische Suche statt Keyword-Matching

Chunking

Klartext: Dokumentation in LLM-verdauliche Stücke teilen

LLMs haben Token-Limits – grosse Dokumente müssen in kleinere "Chunks" aufgeteilt werden.

  • Optimale Chunk-Grösse: 500-1500 Zeichen
  • DITA-Vorteil: Topics sind natürliche Chunks!
  • Overlap zwischen Chunks für Kontext
  • Semantisches Chunking (Absatz/Kapitel-basiert)

Best Practice: Strukturierte Doku (DITA) = sauberes Chunking

Vorteil: Bessere RAG-Ergebnisse durch optimale Chunk-Grösse

Prompt Engineering

Klartext: LLMs richtig "fragen"

Die Kunst, Anfragen an LLMs optimal zu formulieren, um beste Ergebnisse zu erzielen.

  • Few-Shot Prompting (Beispiele geben)
  • Chain-of-Thought (Schritt-für-Schritt denken lassen)
  • System Prompts (Rolle definieren)
  • Context Window Management

Dokumentations-Use-Case: "Erstelle DITA-konforme Task-Topics aus diesem Text"

Vorteil: Qualität der LLM-Ausgabe um Faktor 10+ verbesserbar

Fine-tuning

Klartext: LLM für spezifische Aufgabe trainieren

Ein bestehendes LLM mit eigenen Daten nachtrainieren – im Gegensatz zu RAG sehr aufwändig.

  • Aufwand: Hoch (Tausende Trainingsbeispiele, GPU-Zeit)
  • Kosten: $$$$ (vs. RAG: $)
  • Dynamik: Statisch (vs. RAG: dynamisch aktualisierbar)
  • Use-Case: Hochspezialisierte Domänen-Sprache

Empfehlung: Für Dokumentation meist RAG besser geeignet

Achtung: Nur bei sehr spezifischen Anforderungen sinnvoll

Token

Klartext: Kleinste Einheit für LLM-Verarbeitung

LLMs verarbeiten Text nicht als Wörter, sondern als Tokens – oft Teilwörter oder Zeichen.

  • 1 Token ≈ 4 Zeichen (Durchschnitt)
  • 100 Tokens ≈ 75 Wörter
  • Context Window: GPT-4: 128k Tokens
  • Kosten: Abrechnung nach Input/Output-Tokens

Relevanz für Doku: Token-Limit bestimmt max. Dokumentationsgrösse pro Anfrage

Tipp: Strukturierte Doku = effizientere Token-Nutzung

Ingestion

Klartext: Datenaufnahme ins System

Der Prozess, Dokumentation in ein RAG-System zu importieren – inklusive Parsing, Chunking, Embedding-Erstellung.

  • Parsing (PDF, HTML, DITA → strukturierte Daten)
  • Chunking (grosse Docs aufteilen)
  • Embedding-Generierung
  • Metadaten-Extraktion
  • Speicherung in Vector Database

Pipeline-Beispiel: DITA → Chunks → Embeddings → Pinecone

Vorteil: Strukturierte Doku (DITA/XML) = einfachere Ingestion

Semantic Search

Klartext: Suche nach Bedeutung (nicht nur Keywords)

Suche basierend auf semantischer Ähnlichkeit – findet "Auto" auch wenn Sie "Fahrzeug" suchen.

  • Grundlage: Embeddings + Vector Similarity
  • Beispiel: "Wie installiere ich?" findet auch "Setup-Anleitung"
  • Tool: Elasticsearch, Algolia, Pinecone

Im Unterschied zu: Keyword-Suche ("Auto" findet nur "Auto", nicht "PKW")

Vorteil: Findet relevante Inhalte auch bei unterschiedlicher Formulierung

GEO

Klartext: Generative Engine Optimization

Die Optimierung für generative Suchmaschinen – Sichtbarkeit in AI-basierten Antworten wie Google AI Overviews, ChatGPT, Perplexity.

Branchenbegriffe 2026:

  • GEO: Meist genutzter Sammelbegriff
  • LLMO: LLM Optimization (Synonym)
  • AEO: Answer Engine Optimization (Synonym)
  • AI Search Optimization: Alternative Bezeichnung

Für technische Dokumentation entscheidend:

  • Strukturierte Daten (DITA, XML) werden besser erkannt
  • Klare Metadaten erhöhen Zitierwahrscheinlichkeit
  • Semantische Markup verbessert Kontextverständnis
  • Modularer Content ermöglicht präzise Antworten

Unterschied zu SEO: Nicht Link-Rankings, sondern direkte Erwähnung/Zitation in AI-generierten Antworten.

Vorteil: Strukturierte Dokumentation = bessere GEO-Readiness = Zukunftssicher

HTML5

Klartext: Modernes Web-Standard-Format

Der aktuelle Standard für Web-Content – wichtig für responsive Online-Hilfen und als Output-Format für strukturierte Dokumentation.

  • Responsive Design (Mobile-freundlich)
  • Semantische Elemente (<article>, <section>)
  • LLMs können HTML generieren/parsen
  • Standard-Output aus DITA-Publishing

DITA-Workflow: DITA → DITA-OT → HTML5

Vorteil: Universell zugänglich, suchmaschinenfreundlich

Markdown

Klartext: Einfaches Textformat für Dokumentation

Leichtgewichtiges Markup-Format – LLMs lieben Markdown, weil es strukturiert aber einfach ist.

  • Docs-as-Code: Mit Git versionierbar
  • LLM-Training: Viele LLM-Daten in Markdown
  • LLM-Output: Bevorzugtes Format für Generierung
  • Tools: GitHub, GitLab, Notion, Obsidian

Konversion: Markdown ↔ DITA möglich (mit Pandoc)

Vorteil: LLMs generieren & verstehen Markdown nativ

JSON

Klartext: JavaScript Object Notation (Datenformat)

Standard-Format für Datenaustausch und APIs – wichtig für Metadaten, Konfiguration und System-Integrationen.

  • API-Kommunikation (REST APIs)
  • DITA-Metadaten exportieren
  • LLM-Funktionsaufrufe (Function Calling)
  • Konfigurationsdateien

Use-Case: DITA-Metadaten als JSON → RAG-System

Vorteil: Maschinenlesbar, universell unterstützt

DTD

Klartext: Document Type Definition (XML-Schema)

Definition der Struktur-Regeln für XML-Dokumente – DITA basiert traditionell auf DTDs.

  • DITA-Standard: Nutzt DTDs (z.B. topic.dtd)
  • Definiert erlaubte Elemente & Attribute
  • Validierung von XML-Dokumenten
  • Alternative: XSD (XML Schema Definition)

Immer noch verbreitet: Trotz XSD bleibt DTD DITA-Standard

Vorteil: Konsistente Dokumentstruktur erzwingen

API

Klartext: Application Programming Interface (Schnittstelle)

Schnittstellen für Systemkommunikation und Automatisierung – essentiell für moderne Dokumentations-Infrastruktur.

  • FrameMaker API: ExtendScript-Automatisierung
  • DITA-OT API: Publishing programmatisch steuern
  • LLM APIs: OpenAI, Anthropic, Azure
  • CCMS APIs: Content-Management integrieren

Use-Case: DITA Publishing via API automatisch triggern

Vorteil: Volle Automatisierung möglich

BPMN

Klartext: Business Process Model and Notation

Standard-Notation für Geschäftsprozesse – eine gemeinsame Sprache für Business und IT zur Visualisierung von Workflows.

  • OMG-Standard: International standardisiert (BPMN 2.0)
  • Visuelle Elemente: Events, Activities, Gateways, Flows
  • Ausführbar: BPMN → Workflow Engine (z.B. Camunda)
  • Dokumentierbar: XML-basiert, versionierbar in Git

Use-Case: Dokumentations-Workflow modellieren → automatisieren → CI/CD integrieren

Vorteil: Business versteht IT-Prozesse, IT kann Business-Prozesse automatisieren

Workflow

Klartext: Arbeitsablauf mit definierten Schritten

Strukturierte Abfolge von Aufgaben – von manuell zu teilautomatisiert bis vollautomatisiert. Kern der Prozessoptimierung.

  • Review-Workflows: Technische Korrektheit + Freigabe
  • Publishing-Workflows: Authoring → Build → Deploy
  • Translation-Workflows: Extract → Translate → Re-import
  • Approval-Workflows: Mehrst ufige Freigabeprozesse

DIBASS-Expertise: Workflow-Design, BPMN-Modellierung, CI/CD-Integration

Vorteil: Reproduzierbar, skalierbar, automatisierbar

Gap-Analyse

Klartext: Lückenanalyse (IST vs. SOLL)

Systematischer Vergleich des aktuellen Zustands (IST) mit dem Zielzustand (SOLL) – Basis für Roadmap-Entwicklung.

  • Dokumentations-Audit: Welche Inhalte fehlen?
  • Tool-Evaluation: Welche Features brauchen wir?
  • Prozess-Optimierung: Welche Schritte sind ineffizient?
  • Skill-Gap: Welches Wissen fehlt im Team?

Methodik: 1. IST aufnehmen → 2. SOLL definieren → 3. Gaps identifizieren → 4. Priorisieren

Vorteil: Fundierte Entscheidungsgrundlage statt Bauchgefühl

Proof of Concept (PoC)

Klartext: Machbarkeitsnachweis

Praktischer Test einer Idee oder Technologie – klein, fokussiert, zeitlich begrenzt. Risiko minimieren vor voller Investition.

  • Tool-Evaluierung: CCMS testen mit real Content
  • LLM-Integration: RAG-Prototyp mit eigener Doku
  • CI/CD-Pipeline: Minimales Setup testen
  • DITA-Migration: 10 Topics konvertieren → lernen

Erfolgskriterien: Funktioniert es? Performance OK? Anwenderfreundlich?

Vorteil: Schnelles Feedback, minimales Risiko, konkrete Learnings

Content-Strategie

Klartext: Planung für zielgruppengerechte Inhalte

Strategische Planung von Inhalten, Struktur und Workflows – was braucht die Zielgruppe wirklich? (Minimalismus statt "alles dokumentieren")

  • Zielgruppendefinition: Wer nutzt die Dokumentation?
  • Informationsbedarfsermittlung: Was brauchen sie wann?
  • Minimalismus: Alte Zöpfe abschneiden, Fokus auf Essentials
  • Datensilos optimieren: Single Source of Truth etablieren

DIBASS-Service: Content-Strategie-Beratung auf beratung.html

Vorteil: Weniger ist mehr – nur relevante Inhalte produzieren

Information Architecture (IA)

Klartext: Strukturierung von Informationen für optimale Nutzbarkeit

Design der Informationsstruktur – wie werden Inhalte organisiert, kategorisiert und gefunden? Fundament für User Experience.

  • Navigation: Wie finden User Informationen?
  • Taxonomie: Kategorisierung und Verschlagwortung
  • Metadaten: Strukturierte Beschreibung von Inhalten
  • Search: Findability durch gute IA

DITA-Context: Topic-Typen, Maps, Metadaten → strukturierte IA

Vorteil: User finden schneller, was sie brauchen

Change Management

Klartext: Begleitung bei Veränderungsprozessen

Strukturierte Einführung neuer Systeme und Prozesse – Menschen mitnehmen, nicht überrollen. Kritisch für Projekterfolg.

  • Stakeholder-Kommunikation: Transparenz über Änderungen
  • Training: Team befähigen, neue Tools zu nutzen
  • Rollout-Planung: Schrittweise statt Big Bang
  • Widerstände abbauen: Bedenken ernst nehmen

Typischer Fehler: Neues Tool kaufen, Team nicht schulen → Scheitern

Vorteil: Höhere Akzeptanz, schnellere Adoption

Stakeholder Management

Klartext: Management von Projektbeteiligten und deren Interessen

Identifizierung und Koordination aller relevanten Personen – wer hat Einfluss? Wer ist betroffen? Wer muss mitwirken?

  • Identifikation: Wer sind die Stakeholder?
  • Analyse: Interessen, Einfluss, Betroffenheit
  • Kommunikation: Richtige Info zur richtigen Zeit
  • Erwartungsmanagement: Realistische Ziele setzen

Dokumentations-Context: Autoren, Reviewer, Management, User

Vorteil: Konflikte früh erkennen, Alignment schaffen

SOP

Klartext: Standard Operating Procedure (Standardarbeitsanweisung)

Dokumentierte Standardprozesse für wiederkehrende Aufgaben – wie wird etwas gemacht? Schritt für Schritt, reproduzierbar.

  • Prozessdokumentation: Klare Anweisungen für Workflows
  • Qualitätssicherung: Konsistente Ergebnisse
  • Onboarding: Neue Mitarbeiter schneller produktiv
  • Automatisierbar: SOPs → Skripte/Workflows

Beispiel: SOP für DITA-Topic-Erstellung, Review-Workflow, Publishing

Vorteil: Weniger Fehler, weniger Fragen, mehr Effizienz

Business Process

Klartext: Geschäftsprozess

Strukturierte Abfolge von Aktivitäten zur Erreichung eines Geschäftsziels – kann mit BPMN modelliert und optimiert werden.

  • End-to-End: Vom Trigger bis zum Ergebnis
  • Rollen & Verantwortlichkeiten: Wer macht was?
  • Input/Output: Was wird benötigt/erzeugt?
  • Optimierbar: Ineffizienzen identifizieren

Doku-Beispiel: Content-Erstellung → Review → Freigabe → Publishing

Vorteil: Transparenz, Messbarkeit, kontinuierliche Verbesserung

XSLT

Klartext: Extensible Stylesheet Language Transformations

Transformationssprache für XML – konvertiert XML in andere Formate (HTML, PDF, Text). Essentiell für DITA-Publishing.

  • XML → HTML: Online-Hilfen generieren
  • XML → XSL-FO: Basis für PDF-Generierung
  • DITA → Custom Output: Individuelle Formate
  • Template-basiert: Regeln für Transformation

DIBASS-Expertise: XSLT-Entwicklung für automatisierte Publishing-Pipelines

Vorteil: Volle Kontrolle über Output-Format, wiederverwendbar

UML

Klartext: Unified Modeling Language

Standard-Notation für Software-Modellierung – visualisiert Systeme, Prozesse und Datenstrukturen. Ergänzend zu BPMN.

  • Use Case Diagramme: Funktionale Anforderungen
  • Class Diagramme: Datenmodelle, API-Struktur
  • Sequence Diagramme: Interaktionsabläufe
  • Activity Diagramme: Ähnlich BPMN, aber IT-fokussiert

Dokumentations-Context: CCMS-Architektur, Publishing-Pipeline visualisieren

Vorteil: Gemeinsames Verständnis komplexer Systeme

KPI

Klartext: Key Performance Indicator (Leistungskennzahl)

Messbare Kennzahlen für Leistung und Fortschritt – ohne Messung keine Verbesserung. Essential für Prozessoptimierung.

  • Build-Zeit: Wie lange dauert Publishing?
  • Fehlerrate: Anzahl Broken Links, Validation Errors
  • Reuse-Rate: Wie oft werden Topics wiederverwendet?
  • Time-to-Deploy: Von Commit bis Live

Management-Prinzip: "What gets measured gets improved"

Vorteil: Datengetriebene Entscheidungen, sichtbarer Fortschritt

Technical Debt

Klartext: Technische Schulden

Kosten von Schnelllösungen und veralteten Systemen – heute Zeit sparen = morgen doppelte Arbeit. Muss aktiv gemanagt werden.

  • Legacy-Formate: FrameMaker 7.x ohne Struktur
  • Organisch gewachsen: Inkonsistente Templates
  • Fehlende Automatisierung: Manuelle, fehleranfällige Prozesse
  • Dokumentations-Debt: Undokumentierte Workarounds

Strategie: Debt regelmässig abbauen, nicht akkumulieren lassen

Vorteil: Bewusstsein für langfristige Kosten, bessere Priorisierung

SSOT

Klartext: Single Source of Truth

Prinzip: Eine zentrale, verlässliche Datenquelle – keine Duplikate, keine Inkonsistenzen. Ideal für Content Reuse.

  • DITA-Topics: Einmal schreiben, mehrfach publishen
  • Produktdaten: PIM als SSOT für technische Specs
  • Terminologie: Termbank statt lokale Listen
  • Version Control: Git als SSOT für Code/Content

Problem ohne SSOT: Datensilos, veraltete Kopien, Inkonsistenzen

Vorteil: Eine Wahrheit, keine Konflikte, einfachere Wartung

Pipeline

Klartext: Automatisierte Prozess-Kette

Verkettung von automatisierten Arbeitsschritten – z.B. Code-Commit → Build → Test → Deploy.

  • CI/CD Pipeline: Automatisches Publishing
  • Doku-Pipeline: DITA → Validate → Transform → Publish
  • RAG-Pipeline: Ingest → Chunk → Embed → Index
  • Tools: Jenkins, GitLab CI, GitHub Actions

Beispiel: Git Push → Auto-Build PDF → Deploy zu Server

Vorteil: Zero-Touch Publishing, Fehler früh erkennen

Python

Klartext: Programmiersprache für Automatisierung

Die Sprache für LLM-Integration und Dokumentations-Automatisierung – einfache Syntax, mächtige Libraries.

  • LLM-Integration: LangChain, LlamaIndex
  • XML-Verarbeitung: lxml, BeautifulSoup
  • Publishing: DITA-OT via Python steuern
  • Data Processing: Pandas, NumPy

Use-Case: Python-Script für DITA → RAG-Ingestion

Vorteil: Riesiges Ökosystem für AI/ML

Git

Klartext: Versionskontroll-System

Standard für Docs-as-Code – verwaltet Änderungen, ermöglicht Zusammenarbeit und Nachvollziehbarkeit.

  • Branching: Features parallel entwickeln
  • Pull Requests: Review-Prozess für Doku
  • History: Jede Änderung nachvollziehbar
  • Integration: GitHub/GitLab mit CI/CD

Workflow: Markdown/DITA in Git → Auto-Publish via Pipeline

Vorteil: Professionelle Versionierung wie bei Code

CI/CD

Klartext: Continuous Integration / Continuous Deployment

Automatisches Testen und Veröffentlichen – jede Änderung wird sofort geprüft und deployed.

  • CI: Automatisch validieren (XML, Links, Style)
  • CD: Automatisch publishen (PDF, HTML, etc.)
  • Fehler früh erkennen
  • Konsistente Build-Umgebung

Doku-Pipeline: Git Push → Validate DITA → Build PDF → Deploy

Vorteil: Schneller, zuverlässiger, wiederholbar

CCMS

Klartext: Component Content Management System

Spezialisiertes CMS für strukturierte, wiederverwendbare Dokumentation – das Herzstück enterprise DITA-Workflows.

  • Content-Reuse Management
  • Versionskontrolle auf Component-Ebene
  • Workflow & Review-Prozesse
  • Multi-Channel Publishing

Systeme: IXIASOFT, SDL, Oxygen Content Fusion

Vorteil: Enterprise-skalierbare Dokumentations-Infrastruktur

TTS

Klartext: Text-to-Speech (Sprachsynthese)

KI wandelt Text in gesprochene Sprache um – wichtig für Barrierefreiheit und Audio-Content.

  • Dokumentation vorlesen lassen
  • Audio-Versionen von Anleitungen
  • Voice Assistants (Alexa Skills Docs)
  • Mehrsprachige Sprachausgabe

Tools: ElevenLabs, Google Cloud TTS, Azure Speech

Vorteil: Barrierefreiheit, neue Content-Formate

GPU

Klartext: Graphics Processing Unit (Grafikprozessor)

Hardware für LLM-Training und -Inferenz – deutlich schneller als CPUs für parallele Berechnungen.

  • NVIDIA: CUDA-Ökosystem, Standard für AI
  • AMD: ROCm-Alternative
  • Use-Case: RAG-Pipeline lokal betreiben
  • Consumer: RTX 4090, Enterprise: A100, H100

Doku-Relevanz: "Welche GPU für lokale DITA→RAG Pipeline?"

Vorteil: Lokale Verarbeitung = Datenschutz

VRAM

Klartext: Video RAM (GPU-Speicher)

Der limitierende Faktor für lokale LLM-Grösse – je mehr VRAM, desto grössere Modelle können geladen werden.

  • 7B Modell: ~6GB VRAM (Consumer-GPU)
  • 13B Modell: ~13GB VRAM
  • 70B Modell: ~40GB VRAM (Enterprise)
  • Lösung: Quantization reduziert VRAM-Bedarf

Beispiel: RTX 4090 = 24GB VRAM

Tipp: Quantization ermöglicht grössere Modelle

Inferenz

Klartext: LLM nutzen (nicht trainieren)

Der Prozess, ein trainiertes LLM zu verwenden – im Gegensatz zum Training (teuer, zeitaufwändig).

  • Kosten: $/Token (Input + Output)
  • Geschwindigkeit: Tokens/Sekunde
  • Lokal vs. Cloud: On-Premise = keine Übertragung
  • Relevanz: Jede RAG-Anfrage ist Inferenz

Doku-Use-Case: "Inferenz über eigene Dokumentation"

Vorteil: Lokal = Keine API-Kosten

HuggingFace

Klartext: Open-Source LLM Platform

Die Plattform für Open-Source AI-Modelle, Datasets und Tools – "GitHub für AI".

  • Model Hub: Tausende LLMs kostenlos
  • Transformers: Python-Library
  • Datasets: Training-Daten
  • Llama 3, Mistral, Qwen – alle auf HF

Doku-Relevanz: DITA-optimierte Modelle finden

Vorteil: Open-Source, keine Vendor Lock-in

Ollama

Klartext: Tool für lokales LLM-Management

Das einfachste Tool für lokale LLMs – "Docker für AI-Modelle", extrem populär in der AI-Community.

  • Ein Command: `ollama run llama3`
  • Automatisches Modell-Download & Management
  • API-kompatibel mit OpenAI
  • GGUF-Format Support

Doku-Use-Case: Llama 3 lokal für Dokumentations-QA

Vorteil: 5 Minuten Setup, keine Cloud

Quantization

Klartext: Modelle verkleinern

Technik, um LLMs deutlich kleiner zu machen – von 32-bit auf 4-bit, ohne viel Qualitätsverlust.

  • 32-bit → 8-bit: Halbiert Speicher
  • 32-bit → 4-bit: 1/8 Speicher!
  • Ermöglicht: 70B Modell auf Consumer-GPU
  • Tools: GPTQ, AWQ, GGUF

Beispiel: Llama 3 70B: 140GB → 18GB (4-bit)

Vorteil: Grosse Modelle auf kleiner Hardware

GGUF

Klartext: Quantisiertes Modell-Format

Das Standard-Format für quantisierte LLMs – optimiert für llama.cpp und Ollama.

  • Nachfolger von GGML
  • Unterstützt verschiedene Quantisierungsstufen
  • CPU + GPU Inferenz
  • Ollama verwendet GGUF intern

File-Endung: model-Q4_K_M.gguf (4-bit quantized)

Vorteil: Plattformübergreifend, CPU-tauglich

On-Premise

Klartext: Lokal statt Cloud

LLM-Deployment auf eigener Infrastruktur – im Gegensatz zu Cloud/SaaS (OpenAI, Anthropic).

  • DSGVO-konform: Daten bleiben intern
  • Kosten: Hardware-Invest, keine API-Gebühren
  • Kontrolle: Volle Anpassung möglich
  • Ideal für Kundendaten-Dokumentation

Use-Case: Vertrauliche Dokumentation = On-Premise RAG

Vorteil: Datenschutz, keine Cloud-Abhängigkeit

Edge AI

Klartext: AI direkt am Endgerät

LLM-Inferenz direkt auf Device (Laptop, Smartphone) – nicht Server oder Cloud.

  • Offline-fähig (keine Internet-Verbindung)
  • Niedrige Latenz (keine Server-Roundtrip)
  • Datenschutz (Daten verlassen Device nicht)
  • Beispiel: Llama 3 auf iPhone 15 Pro

Doku-Use-Case: Offline-Suche in PDF-Handbüchern

Vorteil: Funktioniert überall, auch ohne Internet

System Prompt

Klartext: LLM-Rolle definieren

Der Kontext am Anfang jedes LLM-Gesprächs – definiert Rolle, Verhalten und Constraints des LLMs.

  • Setzt Erwartungen: "Du bist DITA-Experte..."
  • Definiert Output-Format
  • Gibt Kontext für gesamte Session
  • Wird bei jeder Anfrage berücksichtigt

Beispiel: "Du bist technischer Redakteur. Antworte in DITA XML."

Vorteil: Konsistente LLM-Antworten

User Prompt

Klartext: Die eigentliche Anfrage

Der Input vom Benutzer – die konkrete Aufgabe oder Frage an das LLM.

  • Die eigentliche Arbeitsanweisung
  • Kann Kontext enthalten
  • Kann auf System Prompt aufbauen
  • Im Chat: jede neue Nachricht

Beispiel: "Konvertiere folgenden Text in DITA Task Topic: ..."

Tipp: Klare Anweisungen = bessere Ergebnisse

Assistant Prompt

Klartext: LLM-Antwort im Kontext

Die Antwort des LLMs – wird teil des Gesprächs-Kontexts für Follow-up Fragen.

  • Wird zum Kontext für nächste Frage
  • Ermöglicht Multi-Turn Gespräche
  • Bei Few-Shot: Beispiel-Antworten
  • Beeinflusst weiteren Verlauf

Few-Shot: User: "..." → Assistant: "..." (Beispiel)

Vorteil: Kontextuelle Gespräche möglich

AI Agent / Agentic AI

Klartext: Autonomes LLM mit Tools

LLM, das selbstständig Tools nutzen kann – nicht nur Text, sondern Aktionen ausführen.

  • Tool Use: Code ausführen, APIs aufrufen
  • Planung: Multi-Step Tasks aufteilen
  • Iteration: Fehler erkennen & korrigieren
  • Beispiel: "Validiere DITA & erstelle PDF"

Doku-Use-Case: Agent automatisiert DITA-Publishing-Pipeline

Vorteil: Komplexe Workflows automatisiert

Multi-Agent Systems

Klartext: Mehrere Agenten arbeiten zusammen

Mehrere spezialisierte AI Agents kooperieren – jeder Agent hat eigene Rolle & Expertise.

  • Spezialisierung: Writer, Reviewer, Editor
  • Workflows: Sequentiell oder parallel
  • Qualität: Peer-Review durch Agents
  • Framework: AutoGen, CrewAI

Doku-Beispiel: Writer-Agent + Reviewer-Agent + QA-Agent

Vorteil: Höhere Qualität durch Spezialisierung

Cursor

Klartext: AI-first Code Editor

VS Code Fork mit eingebauter AI – für AI-gestütztes Programmieren optimiert.

  • AI-Chat im Editor
  • Code-Completion (Tab)
  • Codebase-weites Understanding
  • Claude, GPT-4 Integration

Doku-Use-Case: ExtendScript für FrameMaker mit Cursor entwickeln

Vorteil: Schnellere Entwicklung, weniger Fehler

Antigravity

Klartext: Google's AI Coding Agent

Agentic AI von Google – autonomer Coding-Agent in VS Code, powered by Gemini 2.0.

  • Multi-File Editing
  • Tool Use (Terminal, Browser, etc.)
  • Iterative Problem-Solving
  • Integration: VS Code Extension

Doku-Use-Case: Docs-as-Code Workflows mit Antigravity

Vorteil: Komplexe Tasks autonom lösen

Windsurf

Klartext: Codeium's AI IDE

AI-nativer Editor von Codeium – Alternative zu Cursor mit Fokus auf "Flows".

  • Cascade: AI übernimmt schrittweise
  • Free Tier verfügbar
  • Codebase Understanding
  • Multi-File Edits

Doku-Use-Case: DITA-Plugin-Entwicklung mit Windsurf

Vorteil: Kostenloser Einstieg möglich

Context Window

Klartext: Token-Gedächtnis des LLMs

Die maximale Anzahl Tokens, die ein LLM gleichzeitig verarbeiten kann – Input + Output zusammen.

  • GPT-4: 128k Tokens (~96k Wörter)
  • Claude 3: 200k Tokens
  • Gemini 1.5 Pro: 2M Tokens (!)
  • Limit: Grösser = teuerer

Doku-Relevanz: 128k Context = ganzes Handbuch auf einmal

Vorteil: Grosse Context Windows = weniger Chunking

Temperature

Klartext: Kreativität vs. Determinismus

Parameter (0-1), der Zufälligkeit der LLM-Antwort steuert – niedrig = vorhersagbar, hoch = kreativ.

  • 0.0: Deterministisch, immer gleiche Antwort
  • 0.7: Standard, ausgewogen
  • 1.0+: Sehr kreativ, unvorhersagbar
  • Für Doku: Meist 0.0-0.3

Use-Case: Temp=0 für konsistente Dokumentations-Generierung

Tipp: Niedrige Temperature für technische Texte

Top-K

Klartext: Sampling aus Top-K Tokens

Sampling-Strategie: LLM wählt nur aus den K wahrscheinlichsten Tokens – reduziert "Halluzinationen".

  • K=1: Greedy (immer wahrscheinlichstes)
  • K=50: Standard-Wert
  • K=100: Mehr Diversität
  • Kombination mit Temperature üblich

Doku-Use-Case: Top-K=50 für konsistente Terminologie

Vorteil: Weniger unwahrscheinliche Outputs

Top-P (Nucleus Sampling)

Klartext: Kumulatives Wahrscheinlichkeits-Sampling

Alternative zu Top-K: LLM wählt aus Tokens, die zusammen P% Wahrscheinlichkeit ergeben – dynamische Grösse.

  • P=0.9: Standard (90% kumulative Wahrsch.)
  • P=0.95: Etwas mehr Diversität
  • P=1.0: Alle Tokens möglich
  • Oft besser als Top-K für Qualität

Empfehlung: Top-P=0.9 für die meisten Use-Cases

Vorteil: Flexibler als Top-K

Hyperlink

Klartext: Klickbarer Verweis, der von einem Dokument zu einem anderen (oder zu einer Stelle im selben Dokument) führt – das Fundament des World Wide Web.

Technisch: HTML-Element <a href="...">, das eine URL (Uniform Resource Locator) als Ziel referenziert. Hyperlinks können auf Webseiten, Dateien, E-Mail-Adressen oder Anker (#id) verweisen.

  • Externe Links: Verweise auf andere Websites
  • Interne Links: Navigation innerhalb der eigenen Website
  • Anker-Links: Sprung zu Abschnitten (#section-id)
  • Deep Links: Direkte Verweise auf spezifische Inhalte

Verstehe: Gut strukturierte Link-Architektur verbessert SEO, UX und Barrierefreiheit.

Hypertext

Klartext: Text mit eingebetteten Hyperlinks, der nicht-lineare Navigation ermöglicht – Nutzer können eigene Lesepfade durch verknüpfte Informationen wählen.

Geschichte: Konzept von Ted Nelson (1965) geprägt, technisch realisiert durch Tim Berners-Lee mit HTML (HyperText Markup Language) und HTTP (HyperText Transfer Protocol) im Jahr 1989 – Grundlage des World Wide Web.

  • Nicht-lineares Lesen: Freie Navigation statt sequenzieller Struktur
  • Vernetzte Informationen: Kontextuelle Querverweise
  • HTML: Standard-Format für Hypertext im Web
  • Hypermedia: Erweiterung um Bilder, Videos, Audio

Verstehe: Hypertext revolutionierte Dokumentation – von linearen Handbüchern zu vernetzten Wissensgraphen.

CHM (Compiled HTML Help)

Klartext: Legacy-Hilfesystem-Format von Microsoft, offiziell abgekündigt seit Windows Vista, aber noch weit verbreitet.

Problem 2026: Das Wissen über CHM-Projektstruktur (.hhp, .hhc, .hhk), HTML Help Workshop und Troubleshooting schwindet in Unternehmen, während bestehende Workflows weiterhin auf CHM angewiesen sind.

  • Wartung: Compiler-Setup, CI/CD-Integration
  • Migration: CHM → HTML5, WebHelp, EPUB
  • Alternative: Moderne, responsive Formate

Verstehe: CHM ist deprecated, aber manchmal nötig. Migration ist oft der bessere Weg.


DIBASS bietet: CHM-Support UND Migrationshilfe zu zeitgemässen Formaten.

PDF (Portable Document Format)

Klartext: Dokumentformat zur plattformunabhängigen Darstellung. Für Menschen gut lesbar, aber maschinenlesbar mit Herausforderungen: unstrukturiert, rauschbehaftet und lediglich eine digitale Papiersimulation. Echte Digitalisierung erfordert strukturierte Formate wie XML/DITA.

Kontext in der Dokumentation: Während PDF für Endanwender-Ausgaben geeignet ist, sind strukturierte Quellformate (DITA, XML) für Content-Management, Wiederverwendung und maschinelle Verarbeitung essentiell.

Verstehe: PDF ist ein beliebtes Ausgabeformat, aber keine Lösung für strukturierte Inhaltsverwaltung oder Prozessdigitalisierung.

Prozessdigitalisierung

Klartext: Automatisierung und Digitalisierung von Geschäftsprozessen, die früher personengebunden oder manuell waren. Geht weit über PDF-Erstellung hinaus: strukturierte Workflows, System-Integrationen, automatisierte Freigaben und Versionskontrolle.

Kontext in der Dokumentation: DIBASS unterstützt echte Prozessdigitalisierung durch CCMS-Systeme, CI/CD-Pipelines für Dokumentation und automatisierte Publishing-Workflows statt statischer PDF-Ablage.

Verstehe: Ein Papierformular als PDF zu haben ist KEINE Digitalisierung – das Ziel ist strukturierte Daten und automatisierte Prozesse.

Human-in-the-Loop (HITL)

Klartext: KI-Systeme, bei denen Menschen aktiv in kritische Entscheidungsprozesse eingebunden sind. Kombiniert Automatisierung mit menschlicher Expertise für Qualitätssicherung, ethische Überprüfung und kontinuierliches Lernen.

Kontext in der Dokumentation: Bei KI-gestützter Dokumentationserstellung (z.B. automatische Übersetzungen oder Content-Generierung) sollten technische Redakteure immer die finale Freigabe behalten – HITL stellt Qualität und Compliance sicher.

Verstehe: Vollständige Automatisierung ist nicht immer das Ziel – menschliche Kontrolle erhöht Qualität und Vertrauen in KI-Systeme.

MCP Server (Model Context Protocol)

Klartext: Standardprotokoll zur Verbindung von KI-Systemen (wie ChatGPT, Claude) mit externen Tools und Datenquellen. Ermöglicht modulare, erweiterbare AI Agent-Architekturen durch standardisierte Schnittstellen.

Kontext in der Dokumentation: MCP-Server können AI Agents Zugriff auf CCMS-Systeme, Git-Repositories oder Terminologie-Datenbanken geben, ohne dass für jedes System eine custom Integration entwickelt werden muss.

Verstehe: MCP ist wie USB für AI Agents – ein Standard-Anschluss für verschiedene Tools.

Noch Fragen?

Sie haben einen Begriff gehört, der hier fehlt? Oder möchten Sie mehr über eines dieser Konzepte erfahren?

Kontakt aufnehmen