← Alle ManaScores
Alpha 30. März 2026
von Claude Code
Playground: Production Readiness Audit
LLM-Playground mit Streaming-Chat, Model-Comparison (bis 4 Modelle parallel), Parameter-Tuning und Modality-Filter - pure Frontend-App ohne Datenpersistenz
Gesamtscore
Gewichteter Durchschnitt aus 8 Kategorien
38 /100
Kategorie-Scores
Backend 10
Frontend 60
Database 5
Testing 0
Deployment 60
Doku 10
Security 50
UX 65
Metriken
1.861 Lines of Code
28 Source Files
0.1 MB (Source)
0 Commits
2 Contributors
2026-01-01 Erster Commit
0 Backend Module
7 Web Routes
5 Stores
12 Komponenten
0 DB Tabellen
0 Tests
0 Test Files
1 Sprachen
205 Max File (LOC)
audit playground production-readiness alpha
Zusammenfassung
Playground ist ein LLM-Playground zum Testen verschiedener Sprachmodelle mit Streaming-Chat, Model-Comparison (bis 4 Modelle parallel) und Parameter-Tuning. Pure Frontend-App die externe mana-llm API konsumiert. Kein eigenes Backend, keine Datenpersistenz, keine Tests, keine Dokumentation.
Backend (10/100)
- Kein eigenes Backend
- Konsumiert externe mana-llm API (
/v1/chat/completions,/v1/models) - Health-Check Endpoint vorhanden
- Designentscheidung: Stateless Frontend, LLM-Logik im mana-llm Service
Frontend (60/100)
- SvelteKit 2 + Svelte 5 Runes
- Tailwind CSS 4
- Vite 7.1
- 7 Routes: Playground (protected), Login, Register, Health, Layouts
- 12 Komponenten: Header, Sidebar, ChatInput, MessageBubble, MessageList, ModelSelector, ParameterPanel, SystemPromptEditor, ModelComparisonSelector, ModelModalityFilter, ComparisonResponseCard, ComparisonMessageBubble
- 5 Stores (auth, chat, comparison, models, settings)
- AsyncGenerator-basiertes Streaming
- AbortController für Stop-Funktion
- JSON-Export für Konversationen
- Lücke: Hardcoded German, keine i18n
Database (5/100)
- Keine Datenpersistenz
- Chat-History nur im Speicher (verloren bei Refresh)
- Keine IndexedDB, kein localStorage
- Lücke: Konversationen gehen verloren
Testing (0/100)
- Keine Tests
- Kein Test-Framework konfiguriert
- Nächster Schritt: Streaming-Parser, Model-Comparison-Logik testen
Security (50/100)
- Mana Core Auth Integration (Better Auth + JWT)
- Protected Routes mit Auth Guard
- Passkey + 2FA Support
- CORS-aware URL Handling
- Lücke: Kein Rate Limiting (LLM API ist teuer)
Deployment (60/100)
- Dockerfile vorhanden (Multi-Stage, node:20-alpine, Port 5026)
- Health Check konfiguriert
- In docker-compose.macmini.yml (llm-playground)
- Lücke: Kein CI/CD, kein Error Monitoring
Documentation (10/100)
- Keine CLAUDE.md
- Keine README.md
- Keine API-Docs
- Kritisch: Keine Dokumentation vorhanden
UX (65/100)
- Streaming-Chat mit Echtzeit-Ausgabe
- Model-Comparison: bis 4 Modelle parallel
- Echtzeit-Metriken: Tokens/Sekunde, Dauer, Token-Counts
- Parameter-Panel: Temperature, Max Tokens, Top-P
- System Prompt Editor
- Modality-Filter (Text, Vision, Code)
- Loading States und Animationen
- JSON-Export
- Lücke: Keine Konversations-Persistenz, kein Prompt-Templates, kein Sharing
Top-3 Empfehlungen
- CLAUDE.md erstellen - API-Integration, Model-Config, Deployment dokumentieren
- Konversations-Persistenz - IndexedDB/Dexie für Chat-History
- Prompt-Templates - Vordefinierte System-Prompts für verschiedene Anwendungsfälle