Über uns
Quick TTS gibt es, weil jedes andere kostenlose Text-to-Speech-Tool dich entweder bei 1.000 Wörtern abschneidet, eine Anmeldung verlangt oder dir ein Abo aufschwatzen will. Hier nicht.
Was es ist
Quick TTS ist eine Single-Page-Web-App, die jeden eingefügten Text im Browser laut vorliest. Kein Konto. Kein Zeichenlimit. Kein Wasserzeichen. Kein „Upgrade, um weiterzulesen". Nur ein Textfeld, ein Play-Button und eine Stimme.
Unter der Haube laufen zwei Sprachmodule:
- Die im Browser eingebaute Stimme (die Web Speech API), die überall funktioniert — Desktop, Mobile, im Notfall sogar auf älteren Systemen.
- AI Voice, ein optionales neuronales TTS-Modell namens Kokoro, das über WebGPU auf deiner GPU läuft und für eine deutlich natürlichere Lesung sorgt. Vorerst nur Desktop-Chrome/Edge.
Warum es kostenlos ist
Den Betrieb der Seite kostet ungefähr so viel wie ein Kaffee pro Monat (statisches Hosting auf Firebase, eine Domain-Registrierung, sonst nichts). Display-Anzeigen von Google AdSense decken diese Kosten — und falls die Sache größer wird, irgendwann auch einen Teil der Zeit, die in Aufbau und Pflege fließt.
Eine kostenpflichtige Stufe ist nicht geplant. Es gibt keine „Premium-Stimme" hinter einer Paywall. Die AI-Voice-Funktion ist aus dem gleichen Grund kostenlos wie die Standardvariante: Sie läuft auf deinem Rechner, nicht auf unserem, also kostet es uns nichts, sie anzubieten.
Designprinzipien
Ein paar Regeln, an die wir uns halten wollen:
- Dein Text bleibt auf deinem Gerät. Die gesamte Synthese läuft clientseitig. Wir bekommen deinen Text nie zu sehen und werden es auch nie.
- Keine Anmeldung. In dem Moment, in dem ein Tool für eine 30-sekündige Interaktion ein Konto verlangt, hat es versagt.
- Keine Dark Patterns. Anzeigen sind Display-Ads in festen Slots. Keine Pop-Unders, keine Interstitials, kein „warte 15 Sekunden, bevor dein Audio abspielt", keine Fake-Download-Buttons.
- Transparente Grenzen. Das Einzige, was nicht synthetisiert werden kann, ist Text, der zu lang ist, um vom Browser im Speicher gehalten zu werden. Wenn etwas nicht funktioniert, steht der Grund in der FAQ.
Auf offener Technik aufgebaut
Quick TTS gäbe es ohne ein paar brillante Open-Source-Projekte nicht:
- Kokoro-82M — das neuronale TTS-Modell hinter der Kokoro-HQ-Option (Apache 2.0).
- Piper von rhasspy — die universelle neuronale TTS, die die Piper-Option antreibt (MIT). Stimmenmodelle aus rhasspy/piper-voices: Wir liefern eine kuratierte Auswahl unter CC-BY 4.0 (LibriTTS-R, VCTK) und CC0 / Public Domain (Joe). Lizenzdetails stehen jeweils in der MODEL_CARD jeder Stimme im piper-voices-Repo.
- Transformers.js — die Bibliothek, mit der ML-Modelle im Browser laufen.
- vits-web — die WASM-Bindings für Modelle der VITS-Familie, die Piper im Browser zum Laufen bringen.
- Die Web Speech API — seit über einem Jahrzehnt leise in den Browsern, immer noch das unbesungene Arbeitstier.
Wer das gebaut hat
Quick TTS wurde von einem kleinen Team bei Next Now Agency als Schwesterprojekt zu WSBSynth gebaut, einem Echtzeit-Vorleser für r/wallstreetbets-Kommentare. Der Großteil der TTS-Architektur wird zwischen beiden geteilt — WSBSynth war das Versuchslabor, Quick TTS ist die nutzerfreundliche Variante.
Kontakt
Bugs, Feedback, Feature-Wünsche, Presse: hello@quick-tts.com. Oder schau auf der Kontaktseite vorbei.