Olaf Lischke
Allgemein KI Powershell
MarkDown in DOCX oder PPTX umwandeln

MarkDown in DOCX oder PPTX umwandeln

Generative KI liefert Kontext? Ja klar, aber egal welches Modell, welcher Anbieter: Möchte man ein Word-Dokument oder eine Powerpoint-Präsentation, lassen sich diese häufig nicht öffnen oder enthalten nur Teile der Ausgabe. Das das einzige Dateiformat, das LLMs wirklich zuverlässig liefern, ist Markdown (*.md) – eine sehr simple, ursprünglich 2004 von John Gruber entwickelte Auszeichnungssprache, die mit einfachen Sonderzeichen Textformatierungen erlaubt. Doch die Alltagstauglichkeit von Markdown ist eher bescheiden, weil bislang kein Office-Paket, egal von welchem Hersteller, Markdown wirklich unterstützt (Hinweis: Für Februar 2026 ist LibreOffice v26 angekündigt, das als ein neues Main Feature die Markdown-Unterstützung mitbringen wird).

Eine sehr schöne Lösung stellt pandoc dar: Kommandozeilenbasiert wandelt es .md in .docx oder .pptx um:

pandoc datei.md -o datei.docx

Wie installiert man das?

Drei Wege für Windows:

Weitere Betriebssysteme (Linux, macOS) siehe https://pandoc.org/installing.html.

Check, ob’s geklappt hat mit:

pandoc --version

Wie benutzt man das?

Jedes beliebige Terminal kann benutzt werden, also Windows Terminal, der gute alte DOS-Prompt oder auch Powershell, im Terminal in VS Code gibt’s sogar Vorschläge von Github Copilot!

Einfache Dateiumwandlung:

pandoc datei.md -o datei.docx

Mit Metadaten für’s Dokument:

pandoc -s --metadata title="Bericht Q4" --metadata author="Name" datei.md -o datei.docx

Mit Inhaltsverzeichnis:

pandoc -s --toc datei.md -o datei.docx

Mit Vorlagedatei (gut für Coporate Design):

pandoc -s --reference-doc=vorlage.docx datei.md -o datei.docx

Die Vorlage darf auch gern eine .DOT/.DOTX sein.

Und was ist mit Powerpoint (.PPTX)?

Geht gut – vorausgesetzt, im Markdown sind die einzelnen Folien mit – – – getrennt, also:

# Präsentation

Titelfolie

---

## Folie 1

- Punkt 1
- Punkt 2

---

## Folie 2

Text mit **Fettdruck** und Code:

```Powershell
Write-Host("Hello")

Klarer Fall für richtiges Prompting, oder? 😉

Die Konvertierung geht dann wie mit Word-Dateien:

pandoc slides.md -o presentation.pptx
pandoc -s --reference-doc=template.pptx slides.md -o presentation.pptx

Mehrere Dateien in Stapelverarbeitung?

Klar, geht super mit Powershell:

Get-ChildItem *.md | ForEach-Object { 
    pandoc -s --reference-doc=vorlage.docx $_.Name -o $_.BaseName.docx 
}

Grenzen der Anwendung

Was funktioniert

  • Überschriften, Listen (gepunktet/nummeriert)
  • Fettdruck, Kursiv, Unterstrich
  • Links, Bilder (relativ und absolut)
  • Tabellen, Code-Blöcke
  • Blockquotes, Fußnoten

Was nicht funktioniert

  • Syntax-Highlighting in Code-Blöcken (werden ohne Farben konvertiert)
  • Komplexe CSS/JavaScript-Konstrukte
  • Sehr aufwendige Tabellenformatierung

Troubleshooting

Umlaute/Sonderzeichen fehlerhaft?

Terminal auf UTF-8 setzen (chcp = Change CodePage):

chcp 65001
pandoc datei.md -o datei.docx

Bilder nicht eingebunden?

Relativen Pfad verwenden: ![text](./images/bild.png)

Geht auch direkt PDF?

Ja, erfordert aber zusätzlich eine LaTEX-Installation, und da die meisten Dokumente ohnehin noch bearbeitet werden, wird hier der Weg über das eigene Office-Paket der elegantere sein.

Wo ist die Doku?

Hier: https://pandoc.org/MANUAL.html

KI
KI lokal: Wieviel RAM braucht ein KI-Modell?

KI lokal: Wieviel RAM braucht ein KI-Modell?

Die Hardware ist vorhanden, die Umgebung ist aufgesetzt. Doch welches Modell von Hugging Face oder der Ollama Model Library passt denn jetzt in meine lokale Welt?

KI-Modelle in der Ollama Model Library oder von Hugging Face geben an, wieviele Parameter sie verwenden – je mehr Parameter, desto leistungsfähiger das Modell, wird angenommen. Mit Hilfe dieser Parameter-Zahl lässt sich abschätzen, welche Speicheranforderungen ein Modell an das eigene System stellt. Die Parameterzahl lässt sich entweder direkt aus dem Namen (z.B. „gpt-oss-20b“) oder aus der Beschreibung des jeweiligen Modells entnehmen – in der Ollama Model Library sind diese Werte direkt verlinkt zu den jeweiligen Modellen:

Die Amerikaner zählen „millions, billions, trillions“, anders als wir Europäer, die „Millionen, Milliarden, Billionen, Billiarden…“ zählen. Ein 2b-Modell hat also 2 Milliarden Parameter.

Ein Parameter entspricht grundsätzlich einer Variablen im Arbeitsspeicher, und da moderne Systeme normalerweise Fließkommzahlen als 32-bit-Werte speichern, entsprechend also 4 Byte je Parameter, sollte sich für ein Modell mit 2 Milliarden Parametern (ein 2b-Modell) ein Speicherplatz von 4 byte x 2 Milliarden = 8 Gigabyte ergeben?

Speicherplatzbedarf optimiert

Fast, aber nicht ganz! Dass der Speicherverbrauch eines Modells ein limitierender Faktor ist, hat auch die Entwicklergemeinde ganz schnell verstanden, und zwei ganz grundsätzliche Gegenmaßnahmen ergriffen:

Erstens reicht es für KI-Systeme meist aus, 16-bit-Fließkomma-Operationen (= 2 Byte) durchzuführen, was den Speicherbedarf gerade mal halbiert! Für nicht-quantisierte Modelle (siehe unten) gilt also folgende Tabelle für 16-bit-Fließkomma-Parameter:

ModellgrößeSpeicherbedarf (ca.)
2b4 GB
3b6 GB
7b14 GB
13b26 GB

Zweitens können KI-Systeme „quantisiert“ werden, d.h. die Entwickler*innen des Modells legen die zu verwendende Bit-Breite selbst fest – und geben dies durch ein q-Suffix im Modellnamen an, z. B. ist „llama2:7b-q4“ – ein 7b-Modell mit 4-bit-Werten (= 0,5 Byte), also:

0,5 byte x 7 Milliarden = 3,5 Gigabyte.

Hierzu gibt es natürlich keine Tabelle, da ist selbst rechnen angesagt, nach folgender Formel:

Bit-Breite in Byte x Anzahl Parameter = RAM-Bedarf des Modells in Byte

In der Praxis können sich höhere Werte als berechnet ergeben, diese Formel liefert lediglich eine Orientierung.

Fazit

Modellname und Beschreibung geben Hinweise auf die Paramterzahl und damit den Speicherplatzbedarf eines Modells. Aktuelle Modelle verwenden 16-Bit-Fließkomma-Operationen, der Speicherplatzbedarf ist also über eine simple Formel bestimmbar. Als Besitzer eines Systems mit 16 GB RAM oder noch besser 16 GB VRAM der GPU kann man also Modelle bis 7 Milliarden Parameter (7b-Modelle) in seinem System verkraften, bei quantisierten Modellen je nach Bit-Breite auch deutlich mehr.