O nas
Quick TTS powstał, bo każde inne darmowe narzędzie do zamiany tekstu na mowę albo ucina cię na 1000 słów, albo każe się rejestrować, albo wciska abonament. Tutaj nic z tych rzeczy.
Co to jest
Quick TTS to jednostronicowa aplikacja webowa, która bierze dowolny wklejony tekst i czyta go na głos w przeglądarce. Bez konta. Bez limitu znaków. Bez znaku wodnego. Bez „przejdź na wersję premium, żeby kontynuować". Tylko pole tekstowe, przycisk play i głos.
Pod maską mamy dwa silniki mowy:
- Wbudowany głos przeglądarki (Web Speech API), działa wszędzie — na desktopie, mobilkach, w razie czego nawet na starszych systemach.
- AI Voice, opcjonalny neuronowy model TTS o nazwie Kokoro, który działa na twoim GPU przez WebGPU i daje znacznie naturalniejsze brzmienie. Na razie tylko Chrome/Edge na desktopie.
Dlaczego za darmo
Utrzymanie tej strony kosztuje mniej więcej tyle co kawa miesięcznie (statyczny hosting na Firebase, rejestracja domeny, nic więcej). Reklamy displayowe z Google AdSense pokrywają ten koszt — a jeśli to chwyci, z czasem także część czasu, który idzie w budowanie i utrzymanie.
Nie planujemy płatnej wersji. Nie ma „premium głosu" zamkniętego za paywallem. Funkcja AI Voice jest darmowa z tego samego powodu co domyślna: działa na twoim sprzęcie, nie na naszym, więc nic nas nie kosztuje, żeby ją oferować.
Zasady projektowe
Kilka reguł, których staramy się trzymać:
- Twój tekst zostaje na twoim urządzeniu. Cała synteza dzieje się po stronie klienta. Nie dostajemy twojego tekstu i nigdy nie dostaniemy.
- Bez rejestracji. W momencie, w którym narzędzie żąda konta dla 30-sekundowej interakcji, już zawiodło.
- Bez ciemnych wzorców. Reklamy są displayowe, w stałych slotach. Żadnych pop-underów, interstycjali, „poczekaj 15 sekund, zanim audio się odtworzy", fałszywych przycisków pobierania.
- Przejrzystość ograniczeń. Jedyne, czego nie da się zsyntetyzować, to tekst zbyt długi, żeby przeglądarka utrzymała go w pamięci. Jeśli coś nie działa, powód jest w FAQ.
Zbudowane na otwartej technologii
Quick TTS nie istniałby bez kilku znakomitych projektów open source:
- Kokoro-82M — neuronowy model TTS napędzający opcję Kokoro HQ (Apache 2.0).
- Piper autorstwa rhasspy — uniwersalny neuronowy TTS, który napędza opcję Piper (MIT). Modele głosów z rhasspy/piper-voices: dostarczamy wybrany zestaw na licencji CC-BY 4.0 (LibriTTS-R, VCTK) oraz CC0 / domena publiczna (Joe). Szczegóły licencji są w MODEL_CARD każdego głosu w repo piper-voices.
- Transformers.js — biblioteka pozwalająca uruchamiać modele ML w przeglądarce.
- vits-web — bindingi WASM dla modeli z rodziny VITS, dzięki którym Piper działa w przeglądarkach.
- Web Speech API — od ponad dekady cicho obecne w przeglądarkach, wciąż niedoceniany koń pociągowy.
Kto to zbudował
Quick TTS został zbudowany przez mały zespół z Next Now Agency jako siostrzany projekt do WSBSynth, czytnika komentarzy z r/wallstreetbets w czasie rzeczywistym. Większość architektury TTS jest dzielona między oba — WSBSynth był poligonem, Quick TTS to wersja przyjazna użytkownikowi.
Kontakt
Bugi, opinie, propozycje funkcji, prasa: hello@quick-tts.com. Albo zerknij na stronę kontaktową.