Hays

Senior Data Scientist / AI Engineer (m/w/d)

  • Wien
  • Festanstellung
  • Vollzeit

Bitte beziehen Sie sich bei Ihrer Bewerbung auf BIG-DATA.JOBS – Kennziffer: 105472

Bild zu Senior Data Scientist / AI Engineer (m/w/d) Bild zu Senior Data Scientist / AI Engineer (m/w/d)

Projektinformationen

  • Vorort Projekt

Aufgaben

  • End-to-End Verantwortung für ML-, AI- und Agentic-AI Use Cases: Problem Framing, Data Preparation, Modeling, Orchestration, Evaluation und Deployment in Production
  • Design von Agent Architectures (Planner–Executor, Multi-Agent Collaboration) mit Memory, Reflection und Tool-Use, Sicherstellung von Robustness, Transparency und Controllability
  • Implementierung des Model Context Protocol (MCP) für standardisierte und sichere Tool Integrations sowie Capability Discovery
  • Orchestrierung von LLMs und Tools mit Agent Frameworks (z. B. LangChain, LlamaIndex, Semantic Kernel, OpenAI Assistants), inkl. Function/Tool Calling, Fallbacks und Guardrails
  • Aufbau und Optimierung von RAG Pipelines: Ingestion, Chunking, Embeddings, Vector Stores, Retrieval Strategies, Caching sowie Evaluation für Precision/Recall und Latency
  • Etablierung von LLMOps/MLOps Practices: Experiment Tracking, Prompt/Dataset Versioning, CI/CD, Model Registry, Monitoring und Incident Response
  • Sicherstellung von Reliability, Safety und Compliance: Prompt-Injection Defenses, Content Filtering, Policy Enforcement, Red-Teaming und messbare Quality Gates
  • Durchführung von Offline-/Online Evaluations: Backtesting, Time-Series Cross-Validation, A/B Testing, Shadow Deployments, Canary Releases sowie Drift und Impact Monitoring
  • Performance- und Cost Optimization (Latency, Throughput, Rate Limits, Batching, Streaming, Caching); Pflege von Usage- und Cost Dashboards
  • Zusammenarbeit mit Product Owners, Engineers und Business Stakeholders; Bereitstellung skalierbarer Lösungen auf Databricks (AWS) und Integration in Bank Systems
  • Erstellung klarer Documentation, wiederverwendbarer Templates und Playbooks; Mentoring von Teammitgliedern und Beitrag zu Community Best Practices

Profil

  • Teamplayer mit Eigeninitiative und Problemlösungskompetenz
  • Praktische Erfahrung mit Cloud Computing (AWS, inkl. AWS Linux und AWS Lambda)
  • Fundierte Erfahrung mit Database Technologies und idealerweise Data Lakes (AWS/S3)
  • Erfahrung in Product-Driven Environments
  • Programmierkenntnisse, insbesondere Python (idealerweise Django) sowie Erfahrung mit RESTful APIs
  • Nachweisbare Fähigkeit zur Entwicklung von Prozessen für Data Transformation, Data Structures, Metadata und Workload Management
  • Grundkenntnisse in ETL Tools
  • Vertraut mit Agilem Arbeiten
  • Soft Skills: Proaktivität, Neugier, Verantwortungsbewusstsein
  • Strukturierte Arbeitsweise und ausgeprägte Problemlösungsskills
  • Banking Experience von Vorteil

Benefits

  • Internationaler Kunde
  • Remote-Möglichkeit
Alle Personenbezeichnungen beziehen sich auf alle Geschlechter gleichermaßen. Weitere Informationen.