AIA v2 to otwartoźródłowy, modularny asystent głosowy stworzony w Pythonie. Łączy w sobie rozpoznawanie mowy (STT), syntezę mowy (TTS) i generatywne modele językowe (LLM). Działa lokalnie i wspiera wiele trybów, silników i interfejs graficzny do konfiguracji.
- 🎙️ Rozpoznawanie mowy (Whisper, Faster-Whisper, Vosk, Google STT)
- 🔊 Synteza mowy (Coqui, pyttsx3, ElevenLabs, Google TTS)
- 🤖 Obsługa LLM przez OpenRouter (GPT, Claude, Mistral, LLaMA)
- 🖥️ Interfejs GUI oparty na Streamlit
- 🧩 Dynamiczne ładowanie komponentów STT / TTS / LLM
- 🔁 Wiele trybów: testowy, standardowy, prezentacja, alarmowy
- 🛡️ Oddzielenie konfiguracji lokalnej i prywatnych kluczy
- Python 3.10+
- Streamlit
- Torch + TTS
- Sounddevice, Pyttsx3
- gTTS, ElevenLabs API
- Vosk STT
- OpenRouter API
AIAv2/
├── aia_audio/ # Obsługa mikrofonu i mowy
├── config/ # Konfiguracja i klucze (zabezpieczone)
├── core/ # Logika i analiza
├── interface/ # GUI Streamlit
├── llm/ # Integracja z modelami LLM
├── stt/ # Moduły rozpoznawania mowy
├── tts/ # Moduły syntezy mowy
├── models/ # Bufor lokalnych modeli (gitignored)
├── main.py # Główne wejście systemu
├── requirements.txt # Wymagania systemowe
└── .gitignore # Wykluczenia dla Git
- Sklonuj repozytorium:
git clone https://github.com/orhis/AIAv2.git
cd AIAv2- Utwórz i aktywuj środowisko:
python -m venv venv
.�env\Scripts�ctivate # Windows
# lub
source venv/bin/activate # Linux/macOS- Zainstaluj zależności:
pip install -r requirements.txtstreamlit run interface/config_gui.pypython main.py.streamlit/secrets.toml– zawieraOPENROUTER_API_KEY,elevenlabs_api_key, itd.config/secure.json– zawiera głos systemowy, voice_id lub lokalne ustawienia
venv/,.venv/models/,*.mp3,*.wav,*.logconfig/secure.json.streamlit/secrets.toml__pycache__/
Projekt open-source – do wykorzystania edukacyjnego, testowego i rozwojowego.
Możesz go forkować, rozwijać i dostosowywać do własnych potrzeb!
Projekt rozwijany w ramach nauki i eksperymentów z AI.
GitHub: https://github.com/orhis