Zum Hauptinhalt springen
← Alle ManaScores
Alpha 30. März 2026 von Claude Code

Playground: Production Readiness Audit

LLM-Playground mit Streaming-Chat, Model-Comparison (bis 4 Modelle parallel), Parameter-Tuning und Modality-Filter - pure Frontend-App ohne Datenpersistenz

Gesamtscore

Gewichteter Durchschnitt aus 8 Kategorien

38 /100

Kategorie-Scores

Backend
10
Frontend
60
Database
5
Testing
0
Deployment
60
Doku
10
Security
50
UX
65

Metriken

1.861 Lines of Code
28 Source Files
0.1 MB (Source)
0 Commits
2 Contributors
2026-01-01 Erster Commit
0 Backend Module
7 Web Routes
5 Stores
12 Komponenten
0 DB Tabellen
0 Tests
0 Test Files
1 Sprachen
205 Max File (LOC)
audit playground production-readiness alpha

Zusammenfassung

Playground ist ein LLM-Playground zum Testen verschiedener Sprachmodelle mit Streaming-Chat, Model-Comparison (bis 4 Modelle parallel) und Parameter-Tuning. Pure Frontend-App die externe mana-llm API konsumiert. Kein eigenes Backend, keine Datenpersistenz, keine Tests, keine Dokumentation.

Backend (10/100)

  • Kein eigenes Backend
  • Konsumiert externe mana-llm API (/v1/chat/completions, /v1/models)
  • Health-Check Endpoint vorhanden
  • Designentscheidung: Stateless Frontend, LLM-Logik im mana-llm Service

Frontend (60/100)

  • SvelteKit 2 + Svelte 5 Runes
  • Tailwind CSS 4
  • Vite 7.1
  • 7 Routes: Playground (protected), Login, Register, Health, Layouts
  • 12 Komponenten: Header, Sidebar, ChatInput, MessageBubble, MessageList, ModelSelector, ParameterPanel, SystemPromptEditor, ModelComparisonSelector, ModelModalityFilter, ComparisonResponseCard, ComparisonMessageBubble
  • 5 Stores (auth, chat, comparison, models, settings)
  • AsyncGenerator-basiertes Streaming
  • AbortController für Stop-Funktion
  • JSON-Export für Konversationen
  • Lücke: Hardcoded German, keine i18n

Database (5/100)

  • Keine Datenpersistenz
  • Chat-History nur im Speicher (verloren bei Refresh)
  • Keine IndexedDB, kein localStorage
  • Lücke: Konversationen gehen verloren

Testing (0/100)

  • Keine Tests
  • Kein Test-Framework konfiguriert
  • Nächster Schritt: Streaming-Parser, Model-Comparison-Logik testen

Security (50/100)

  • Mana Core Auth Integration (Better Auth + JWT)
  • Protected Routes mit Auth Guard
  • Passkey + 2FA Support
  • CORS-aware URL Handling
  • Lücke: Kein Rate Limiting (LLM API ist teuer)

Deployment (60/100)

  • Dockerfile vorhanden (Multi-Stage, node:20-alpine, Port 5026)
  • Health Check konfiguriert
  • In docker-compose.macmini.yml (llm-playground)
  • Lücke: Kein CI/CD, kein Error Monitoring

Documentation (10/100)

  • Keine CLAUDE.md
  • Keine README.md
  • Keine API-Docs
  • Kritisch: Keine Dokumentation vorhanden

UX (65/100)

  • Streaming-Chat mit Echtzeit-Ausgabe
  • Model-Comparison: bis 4 Modelle parallel
  • Echtzeit-Metriken: Tokens/Sekunde, Dauer, Token-Counts
  • Parameter-Panel: Temperature, Max Tokens, Top-P
  • System Prompt Editor
  • Modality-Filter (Text, Vision, Code)
  • Loading States und Animationen
  • JSON-Export
  • Lücke: Keine Konversations-Persistenz, kein Prompt-Templates, kein Sharing

Top-3 Empfehlungen

  1. CLAUDE.md erstellen - API-Integration, Model-Config, Deployment dokumentieren
  2. Konversations-Persistenz - IndexedDB/Dexie für Chat-History
  3. Prompt-Templates - Vordefinierte System-Prompts für verschiedene Anwendungsfälle