Vollzeit
Hamburg & Remote
Worum’s geht
Du entwickelst datengetriebene Features und Entscheidungsgrundlagen: von Embeddings‑Strategien über Datenmodelle für Reports bis zu Product Analytics (Kohorten, Funnels, North‑Star‑KPIs). Ziel: bessere Retrieval‑Qualität, weniger Hallucinations, mehr Nutzer‑Value.
Deine Aufgaben
Datenmodellierung in PostgreSQL, ETL/ELT, Datenqualität & ‑Governance
Embeddings‑Evaluation (Model/Dim, Chunk‑Strategien, Recall/Precision)
Metriken & Dashboards (Amplitude/GA4/own stack), Experiment‑Design (A/B)
Daten‑Contracts zwischen Services; Kosten‑/Leistungs‑Analysen für AI‑Pipelines
Privacy by Design: DSGVO, Datensparsamkeit, Löschkonzepte
Tech‑Stack
SQL (PostgreSQL), dbt (optional), Python (Pandas/Polars), FastAPI (light)
Embeddings: OpenAI/Voyage/Cohere · pgvector/Pinecone/Weaviate
BI/Dashboards nach Wahl · Telemetrie/Tracing
Was du mitbringst
4+ Jahre Data/Analytics, sehr gutes SQL & saubere Modellierung
Erfahrung mit Vector/Retrieval‑Metriken und produktnaher Analyse
Fähigkeit, Zahlen in Produktentscheidungen zu übersetzen
Nice to have
Relevanz‑Feedback‑Loops, Offline/Online‑Eval, Guardrails‑KPIs
Erfahrung mit Preis‑/Nutzungs‑Analysen (AI‑Kostensteuerung)
Rahmen & Kultur
Ort: Hamburg (Hybrid); Remote in DE möglich, gelegentliche Team‑Tage in HH
Sprache: Deutsch (B2+) & Englisch (Tech)
Arbeitsweise: kurze Wege, pragmatisch, „ship small, ship often“
Security & Privacy: DSGVO, PII‑Handling, Least‑Privilege, Logs‑Hygiene
Equipment & Tools: moderne Hardware, AI‑APIs, Monitoring, Staging/Preview‑Envs
Du sprichst SQL fließend und magst saubere Metriken? Schick uns ein kleines Case, Query oder Dashboard‑Screenshot – Zahlen erzählen genug.