Im Rahmen seiner Wachstumsstrategie mit Fokus auf die Plattformisierung seines digitalen Angebots und die europĂ€ische Entwicklung, steht ARTE angesichts der rasanten Digitalisierung und des technologischen Wandels vor groĂen strategischen Herausforderungen. Zur UnterstĂŒtzung der wichtigsten Initiativen des Senders in den Bereichen Daten und KI soll dieses dynamische Beschaffungssystem Partner vorqualifizieren, die in der Lage sind, spezialisierte Dienstleistungen, leistungsstarke Infrastrukturen oder dedizierte Softwarelösungen anzubieten. Dieses neue dynamische Beschaffungssystem soll einen agilen Rahmen zur Umsetzung und zur Erprobung dieser Lösungen schaffen. Dies erleichtert die Antizipierung technologischer Entwicklungen, die Erforschung innovativer Möglichkeiten sowie die kontinuierliche Anpassung der PrioritĂ€ten ĂŒber einen iterativen Ansatz, der die neuesten Entwicklungen der Branche berĂŒcksichtigt/ Das vorliegende Verfahren dient der Einrichtung eines Dynamischen Beschaffungssystems (DBS), um die Bedarfe von ARTE GEIE (Strassburg) und ARTE France (Issy-les-Moulineaux) zu decken. Zu diesem Zweck wurde eine Beschaffungsgemeinschaft gebildet. ARTE GEIE ĂŒbernimmt die Rolle des Koordinators dieser Beschaffungsgemeinschaft.
Im Rahmen seiner Wachstumsstrategie mit Fokus auf die Plattformisierung seines digitalen Angebots und die europĂ€ische Entwicklung, steht ARTE angesichts der rasanten Digitalisierung und des technologischen Wandels vor groĂen strategischen Herausforderungen.
Zur UnterstĂŒtzung der wichtigsten Initiativen des Senders in den Bereichen Daten und KI soll dieses dynamische Beschaffungssystem Partner vorqualifizieren, die in der Lage sind, spezialisierte Dienstleistungen, leistungsstarke Infrastrukturen oder dedizierte Softwarelösungen anzubieten.
Dieses neue dynamische Beschaffungssystem soll einen agilen Rahmen zur Umsetzung und zur Erprobung dieser Lösungen schaffen. Dies erleichtert die Antizipierung technologischer Entwicklungen, die Erforschung innovativer Möglichkeiten sowie die kontinuierliche Anpassung der PrioritĂ€ten ĂŒber einen iterativen Ansatz, der die neuesten Entwicklungen der Branche berĂŒcksichtigt/
Das vorliegende Verfahren dient der Einrichtung eines Dynamischen Beschaffungssystems (DBS), um die Bedarfe von ARTE GEIE (Strassburg) und ARTE France (Issy-les-Moulineaux) zu decken. Zu diesem Zweck wurde eine Beschaffungsgemeinschaft gebildet. ARTE GEIE ĂŒbernimmt die Rolle des Koordinators dieser Beschaffungsgemeinschaft.
âą Entwurf, Implementierung und Ăberwachung robuster und skalierbarer Datenarchitekturen und -modelle
⹠Koordination der Zusammenarbeit mit den Technik-Teams zur GewÀhrleistung der architektonischen IntegritÀt und KohÀrenz
âą Bewertung, Auswahl und Optimierung von Technologien und Tools fĂŒr die Dateninfrastruktur, insbesondere von Azure Data Factory oder gleichwertigen Lösungen
âą Formalisierung und Einsatz von Best-Practice-Referenzen fĂŒr die Datenverwaltung
⹠Diagnose und Lösung komplexer technischer Problemstellungen im Zusammenhang mit Datenarchitekturen
Das dynamische Beschaffungssystem ist fĂŒr einen Zeitraum von zwei (2) Jahren offen und kann zweimal um jeweils zwei Jahre ab dem 1. September 2025 verlĂ€ngert werden.
Die EinzelauftrÀge werden von ARTE GEIE und ARTE FRANCE nach Bedarf und wÀhrend der gesamten Laufzeit des DBS vergeben.
Der Abschluss der EinzelauftrÀge kann nur wÀhrend der Laufzeit des DBS erfolgen.
Der im DBS aufgefĂŒhrte Bewerber kann die VerlĂ€ngerung nicht ablehnen; er hat keinen Anspruch auf EntschĂ€digung aufgrund der NichtverlĂ€ngerung des DBS. Die VerlĂ€ngerung des DBS erfolgt mindestens einen (1) Monat vor dem VerlĂ€ngerungsdatum.
Die Laufzeit der EinzelauftrĂ€ge ist nicht im DBS festgelegt; sie wird in den Vertragsunterlagen jedes Einzelauftrags festgelegt, darf jedoch vier Jahre nicht ĂŒberschreiten.
Es wird darauf hingewiesen, dass die Laufzeit der EinzelauftrĂ€ge nur dann ĂŒber die GĂŒltigkeitsdauer des DBS hinaus verlĂ€ngert werden kann, wenn die Verpflichtung zur regelmĂ€Ăigen DurchfĂŒhrung eines neuen Ausschreibungsverfahrens fĂŒr die Wirtschaftsteilnehmer nicht verletzt wird.
âą Entwicklung einer skalierbaren und leistungsstarken Infrastruktur fĂŒr groĂe Datenmengen
âą Management der Dateningestprozesse, -verarbeitung und -distribution
⹠Aufbau und StÀrkung von Konnektoren zu Drittanbieterdiensten (Middleware, APIs)
âą proaktive Erkennung und Behebung von Schwachstellen (Penetrationstests, Sicherheitsaudits, BedrohungsĂŒberwachung)
⹠GewÀhrleistung der Einhaltung von Datenschutzbestimmungen (DSGVO und zugehörige Standards) wÀhrend des gesamten Data-Lifecycles
âą Umsetzung erweiterter Schutzmethoden (VerschlĂŒsselung, Anonymisierung, IAM)
⹠StÀrkung der Architekturen zur Verhinderung von Cyberangriffen und zur Einhaltung geltender Vorschriften
âą Erstellung, Strukturierung und Aktualisierung der technischen Dokumentation zur Erleichterung des Wissenstransfers
⹠Sammlung und Organisation der Daten sowie GewÀhrleistung der DatenqualitÀt in enger Zusammenarbeit mit Redaktion, Technik und der Rechtsabteilung
⹠Leistungsanalyse mithilfe von KPIs und Erarbeitung entsprechender VerbesserungsvorschlÀge
âą Konzeption und Automatisierung von Dashboards und Reports
Komplexe Analyseergebnisse fâÂșr nicht-technische Zielgruppen verstĂ€ndlich aufbereiten und vermitteln
âą Ăberwachung analytischer Prozesse zur GewĂ€hrleistung von Compliance und VerlĂ€sslichkeit
âą GewĂ€hrleistung der Einhaltung von Datenschutzbestimmungen (DSGVO, âPrivacy by designâ und âPrivacy by defaultâ) bei allen Analyse-Workflows
âą Erstellung, Strukturierung und Aktualisierung der technischen Dokumentation zur Erleichterung des Wissenstransfers
âą Nutzung verfĂŒgbarer BI- und Datenvisualisierungstools zur Erstellung von Berichten und Dashboards fĂŒr interne Beteiligte
⹠Bereitstellung von Studien und strategischer Empfehlungen (Tagging, Segmentierung, Marketing-Attribution, Scoring, Auswertungen der DatenqualitÀt, Nutzerverhalten, usw.)
âą Umfassende Erfahrung in den Bereichen Data-Lifecycle-Management und Nutzung von Datenmanagement-Tools
âą Verwaltung oder Anreicherung synthetischer DatensĂ€tze fĂŒr TestlĂ€ufe oder zum FĂŒllen von Datenlecks
âą Annotation und Klassifizierung multimodaler DatenbestĂ€nde â Text, Bild, Audio, Video â zum Training von KI-Modellen und zur Anreicherung von Wissensdatenbanken
⹠GewÀhrleistung der Einhaltung von Datenschutzbestimmungen (DSGVO, KI-Verordnung) wÀhrend des gesamten Data-Lifecycles
âą DurchfĂŒhrung von Audits und kontinuierliche Ăberwachung der DatenqualitĂ€t und -sicherheit.
âą Ăberwachung der KonformitĂ€t sowie der Metadaten hinsichtlich Transparenz und RĂŒckverfolgbarkeit
⹠Analyse und Auswertung strukturierter und unstrukturierter Daten zur Entwicklung prÀdiktiver, deskriptiver und prÀskriptiver Modelle
âą Erstellung und Optimierung von KI-Algorithmen fĂŒr Unternehmensbedarfe (Empfehlung, Klassifizierung, Segmentierung, Generierung, multimodale Analyse)
⹠Zusammenarbeit mit technischen und fachlichen Teams zur Integration innovativer AnsÀtze zur Kombination verschiedener KI-Techniken
âą KI-Lösungen in leistungsfĂ€hige, skalierbare und wartbare Services und APIs ĂŒberfĂŒhren
⹠GewÀhrleistung der Einhaltung von Datenschutz- und KI-bezogenen Vorschriften (DSGVO, KI-Verordnung) und Integration der GrundsÀtze von Fairness, ErklÀrbarkeit und ethischer KI wÀhrend des gesamten Lifecycles des Modells
âą Ăberwachung der Modell-Perfomances, von Drift und DatenqualitĂ€t in der Produktion; iteratives Neutraining der Modelle nach Bedarf sowie deren Aktualisierung
âą Identifizierung, Anpassung und Feintuning von Open-Source-Modellen (Vision, Audio, Sprache, Text) fĂŒr ARTE-spezifische audiovisuelle AnwendungsfĂ€lle
âą Implementierung hochentwickelter Interaktions- und Optimierungsstrategien â Prompt-Engineering, RAG (Retrieval-Augmented Generation), LoRA/Destillation, Quantisierung, Pruning â zur Maximierung von Genauigkeit, Latenz und redaktioneller Relevanz
âą Architektur multimodaler End-to-End-Pipelines zur Fusion von Video, Audio, Bild und Text, zur Anreicherung der Metadaten, Optimierung der Indexierung und zur Automatisierung des Produktionsworkflows
âą Auswertung, Vergleich und kontinuierliche Verbesserung von KI-Systemen gegenĂŒber sowohl technischen als auch geschĂ€ftsprozess-orientierten KPIs
⹠Entwurf und Einsatz multimodaler Cross-Data- und Cross-Modality-Lösungen zur Erweiterung der prÀdiktiven und generativen FÀhigkeiten der Modelle
âą Verwaltung und Optimierung der fĂŒr die Bereitstellung, Monitoring und Anpassung der Modelle in der Produktion erforderlichen technischen Infrastruktur (GPU/TPU-Cluster, Inferenz-Gateway, Skalierungsrichtlinien)
âą Koordination der Integration von KI-Diensten in die bestehenden Mediensysteme (MAM/PAM, NRCS, Transkriptions- und Distributionspipelines, Softwareinformationssysteme) in Zusammenarbeit mit Product Ownern und Tech Leads
⹠Strukturierung, Anreicherung und Validierung von audiovisuellen Datasets gemÀà der redaktionellen, kulturellen und ethischen Standards
âą Ăberwachung, Auswertung und kontinuierliche Verbesserung der Modelle unter realen Bedingungen (Genauigkeit, ErklĂ€rbarkeit, kulturelle Relevanz, CO2-FuĂabdruck)
⹠Koordination der Abstimmung der KI-Lösungen mit den strategischen Zielen sowie dem rechtlichen Rahmen gemeinsam den multidisziplinÀren Teams (DSGVO, KI-Verordnung)
âą Ausarbeitung und Pflege einer umfassenden technischen Dokumentation zur Sicherstellung des Wissenstransfers
âą Gestaltung intuitiver BenutzeroberflĂ€chen fĂŒr KI-Tools und Analyse-Dashboards zur Maximierung des Werts prĂ€diktiver und generativer Modelle
âą Erstellung hochentwickelter Datenvisualisierungssysteme zur Umwandlung multidimensionaler Informationen in klare und umsetzbare Erkenntnisse
⹠Entwicklung nutzerfreundlicher Schnittstellen und Interaktionen zur Förderung der Transparenz und VerstÀndlichkeit von KI-Modellen (z. B. durch Prompting, erklÀrende Visualisierungen, Feedback-Schleifen)
âą DurchfĂŒhrung gezielter Usability-Tests zur Bewertung des VerstĂ€ndnisses, des Vertrauens und der Gesamterfahrung der Nutzer:innen von KI-Systemen
⹠Definition und Anwendung ethischer Designprinzipien zur GewÀhrleistung von Transparenz, ErklÀrbarkeit sowie verantwortungsvoller Nutzung von KI
âą GewĂ€hrleistung der Einhaltung von Standards fĂŒr Barrierefreiheit (WCAG / RGAA) und Datenschutzbestimmungen (DSGVO, KI-Verordnung) wĂ€hrend des gesamten Designprozesses
âą Produktion, Strukturierung und Aktualisierung der Designdokumentationen (Design-System-Guidelines, Interaktionsmodelle, User Research Reports) fĂŒr effizientere Zusammenarbeit und besseren Wissenstransfer
âą Strategische Beratung an der Schnittstelle KI, Daten und der spezifischen Medien-Workflows (Redaktion, Content-Produktion, Postproduktion)
⹠Umsetzung redaktioneller, journalistischer sowie produktionstechnischer Anforderungen in daten- und KI-basierte Lösungen
⹠Identifizierung und Priorisierung von hochwertigen AnwendungsfÀllen (Storytelling-Support, Optimierung von Redaktionsworkflows, Produktionsplanung, Anreicherung von Metadaten, Kostenverfolgung, usw.)
âą Erarbeitung von KI- und Data-Strategien, die die Arbeitsziele von Redaktion, Journalismus und Produktion in einem öffentlich-rechtlichen Medienumfeld gezielt unterstĂŒtzen
âą UnterstĂŒtzung bei organisatorischen VerĂ€nderungen, VerĂ€nderungsprozessen und dem KapazitĂ€tsaufbau zur langfristigen Integration von KI-Lösungen
⹠Bewertung der Auswirkungen von KI auf journalistische ArbeitsablÀufe, redaktionelle Werte sowie den öffentlich-rechtlichen Auftrag; Definition von Erfolgs-KPIs und ROI-Metriken
âą Beratung zur Implementierung von KI in redaktionellen und produktionellen Kernsystemen â von der Planung ĂŒber Editing-Workflows bis hin zu Archiv- und Newsroom-Plattformen
âą Sicherstellung der Ausrichtung an ethischen und regulatorischen Standards (KI-Verordnung, DSGVO, Urheberrecht, redaktionelle Verantwortung, Vielfalt und Inklusion)
âą Erstellung, Strukturierung und Aktualisierung von Strategiepapieren, Roadmaps und Best-Practices-Richtlinien zur Erleichterung eines effektiven Wissenstransfers
âą Bewertung der Leistung, QualitĂ€t und Einhaltung gesetzlicher Vorschriften von KI- und datengestĂŒtzten Systemen in allen Bereichen von ARTE (Produktion, Redaktion, Distribution, Support)
⹠Vergleich von proprietÀren Lösungen mit Open-Source- und SaaS-Alternativen und Hinweis auf technische, wirtschaftliche bzw. ökologische Kompromisse
âą PrĂ€sentation umsetzbarer Empfehlungen zur Optimierung von Kosten, des CO2-FuĂabdrucks, der Skalierbarkeit, der Sicherheit sowie der Wartbarkeit
⹠Identifikation und Quantifizierung der Projektrisiken (Sicherheit, Compliance, Ethik, redaktionelle IntegritÀt, Urheberrecht) und Vorschlag von PlÀnen zur Risikominderung
⹠Anleitung zur durchgÀngigen Ausrichtung an relevanten Vorschriften und Standards (KI-Gesetz, DSGVO, Urheberrecht, Barrierefreiheit, Auflagen als öffentlich-rechtliches Medienunternehmen)
âą GewĂ€hrleistung strategischer und technologischer Ăberwachung zur Identifizierung aufkommender Chancen bzw. Bedrohungen in den Bereichen KI, Daten und Medieninnovation
⹠StÀrkung interner KapazitÀten durch Workshops, Fortbildungsveranstaltungen und strukturierter Programme zum Wissenstransfer
âą Mitgestaltung von Roadmaps und Governance-Rahmen zur Einbindung von KI bei gleichzeitigem Change-Management sowie der Einbeziehung der Beteiligten
âą Erstellung, Strukturierung und Aktualisierung von Audit-Berichten, Reifegradbewertungen und Entscheidungs-Dashboards zur UnterstĂŒtzung einer transparenten und datengestĂŒtzten UnternehmensfĂŒhrung
âą Analyse und Ăbersetzung von GeschĂ€ftsanforderungen in funktionale Spezifikationen fĂŒr daten- und KI-gesteuerte Lösungen
⹠Entwicklung und Steuerung von Produkt-Roadmaps im Einklang mit der Innovationsstrategie von ARTE und dem öffentlich-rechtlichen Auftrag
âą Innovationspotenziale im Umfeld von Daten, KĂŒnstlicher Intelligenz und neuen Technologien erkennen, analysieren und strategisch priorisieren
⹠Koordinierung der Zusammenarbeit zwischen internen Beteiligten und externen Partnern zur Maximierung der Wertschöpfung und zur Minderung der Risiken
⹠Bewerbung und umfassende Förderung von auf Datenverarbeitung und KI basierenden Initiativen bei internen und externen Zielgruppen (Demos, Showcases, Erfolgsgeschichten)
âą Anleitung zur organisatorischen Transformation sowie zum Change-Management zur schnelleren EinfĂŒhrung datenzentrierter Lösungen
⹠Ausrichtung an InteroperabilitÀtsstandards und geltenden Vorschriften (DSGVO, KI-Verordnung, Urheberrecht)
âą Produktion, Strukturierung und Aktualisierung der Produktartefakte sowie der Projektdokumentationen (Backlogs, OKRs, Risikoregister, Lessons Learned) zur UnterstĂŒtzung einer transparenten Governance
âą Entwicklung und Verfolgung einer auf den Auftrag von ARTE, seine technische Landschaft und den regulatorischen Kontext zugeschnittenen umfassenden Open-Source-Strategie
⹠Festlegung von Governance-Modellen zum Einsatz von Open Source Software (Beitragsworkflows, Lizenzauswahl, Risikobewertung, Veröffentlichungsrichtlinien)
âą Rechtliche und organisatorische Beratung zu Lizenzen (MIT, GPL, AGPL, Creative Commons), Vereinbarungen fĂŒr Anbieter und SonderfĂ€lle im Zusammenhang mit KI (Gewicht von Modellen, DatensĂ€tze, Prompts)
âą Gestaltung nachhaltiger Prozesse zur Verwaltung und Veröffentlichung von OSS-Projekten (Dokumentation, Versionierung, Offenlegung von Sicherheitsvorkehrungen, Metriken zur âProject Health Checkâ)
âą Etablierung von Community-Management-Praktiken â KommunikationskanĂ€le, Integrationspfade, Moderationsrichtlinien und externe Sichtbarkeit
⹠Beratung zu strategischen Partnerschaften mit OSS-Stiftungen, öffentlichen Rundfunkanstalten, Forschungskonsortien und EU-Initiativen
âą Ăberwachung rechtlicher, technologischer und gesellschaftlicher Trends zur Antizipation möglicher Folgen auf das KI- und Datensystem von ARTE und zur kontinuierlichen Einhaltung von Vorschriften (KI-Verordnung, DSGVO)
⹠Erstellung, Strukturierung und Aktualisierung von Dokumenten zur Unternehmenspolitik, von strategischen PrÀsentationen und Schulungsmaterialien zur Förderung der unternehmensinternen Verbreitung sowie des Wissenstransfers
Vor dem Hintergrund der beschleunigten Entwicklung der KI-Technologien werden mithilfe dieser Kategorie Partner mit dem Ziel der Bereitstellung hochleistungsfĂ€higer, hoch skalierbarer und wirtschaftlich optimierter Infrastrukturen, deren Architektur sich speziell fĂŒr das Training von KI-Modellen und -Inferenz eignet, gesucht. Mögliche Dienstleister sollten folgende technische Anforderungen erfĂŒllen:
⹠FlexibilitÀt und Einsatzbereitschaft: dynamische Bereitstellung von optimierten Computing-Clustern und virtuellen Instanzen zur gleichzeitigen BewÀltigung von 24/7-Inferenzlasten und intensiven On-Demand-Trainings-Workloads sowie zur effizienten Orchestrierung komplexer verteilter Datenpipelines
âą Digitale SouverĂ€nitĂ€t und Einhaltung von Vorschriften: Hosting-Lösungen mit einer garantierten vollstĂ€ndigen Lokalisierung der Daten auf europĂ€ischem Territorium ohne Ausnahme, mit einer garantierten strikten Einhaltung der gesetzlichen Rahmenbedingungen (DSGVO, DSA, KI-Verordnung) sowie einer garantierten vollstĂ€ndigen technologischen UnabhĂ€ngigkeit von auĂereuropĂ€ischen Gerichtsbarkeiten
âą Ergonomie und InteroperabilitĂ€t: erleichterte Implementierungsmöglichkeiten fĂŒr Tests, Benchmarks und Proof-of-Concepts (PoC) zur Optimierung der Entwicklungszyklen von KI-Engineering- und Forschungsteams
âą Optimierung des Kosten-Leistungs-VerhĂ€ltnisses: wettbewerbsfĂ€hige TarifvorschlĂ€ge fĂŒr eine höhere technisch-wirtschaftliche Effizienz als herkömmliche Hyperscaler-Lösungen mit transparenten Tarifrastern und Kostenoptimierungsmechanismen auf der Grundlage des tatsĂ€chlichen Verbrauchs
âą KompatibilitĂ€t mit hochentwickelten Beschleunigungsarchitekturen: Zugang zu spezialisierter Hardware-Infrastruktur, einschlieĂlich Grafikprozessoren der neuesten Generation (z. B. NVIDIA A100, H100, Blackwell), TPUs und speziell fĂŒr KI-Lasten mit hoher Rechendichte entwickelten Beschleunigern
âą End-to-End Managed Services: vollstĂ€ndig verwaltete Serviceangebote mit Infrastrukturmanagement, Update-Zyklen, Leistungsoptimierung, SicherheitsĂŒberwachung und speziellem KI-Support
âą Energieeffizienz und ökologische Verantwortung: nachweisbares Engagement bei der Implementierung einer energieeffizienten Infrastruktur, der Reduzierung des CO2-FuĂabdrucks und der metrischen Transparenz von Indikatoren zur ökologischen Nachhaltigkeit
KI-Werkzeuge und Lösungen
Die folgenden Kategorien umfassen einsatzfertige, als On-Premise- oder SaaS-Lizenzen erhÀltliche Lösungen; diese sind auf eine leichte Integrierbarkeit in bereits vorhandene Systeme, Workflows oder Anwendungen/Softwaresysteme ausgelegt.
Kategorie 13: Co-Development-Umgebungen
Lösungen fĂŒr Ingenieurteams zum effizienten Entwurf, zur Implementierung, zum Test und zur Zusammenarbeit unter Nutzung der neuesten KI-Fortschritte
âą Integrierte kollaborative Plattformen: Enterprise-grade-Lösungen fĂŒr in Echtzeit synchronisierte Entwicklungsumgebungen mit eigens fĂŒr KI/ML-Projekte optimiertem Versionsmanagement
âą KI-erweiterte EntwicklungsunterstĂŒtzungssysteme: Tool-Suiten zur erheblichen Steigerung der ProduktivitĂ€t von Technik-Teams durch kontextbezogene intelligente AutovervollstĂ€ndigung, unterstĂŒtzte Programmgenerierung und automatisiertes Refactoring fĂŒr Data-Science-Umgebungen
âą Hochentwickelte Technologien zur UnterstĂŒtzung selbstgenerierter Dokumentationen, intelligenten Debuggings und algorithmischer Optimierung zur deutlichen VerkĂŒrzung der Entwicklungszyklen und zur schnelleren Aufnahme der Produktion
Lösungen fĂŒr Ingenieurteams zum effizienten Entwurf, zur Implementierung, zum Test und zur Zusammenarbeit unter Nutzung der neuesten KI-Fortschritte
âą Integrierte kollaborative Plattformen: Enterprise-grade-Lösungen fĂŒr in Echtzeit synchronisierte Entwicklungsumgebungen mit eigens fĂŒr KI/ML-Projekte optimiertem Versionsmanagement
âą KI-erweiterte EntwicklungsunterstĂŒtzungssysteme: Tool-Suiten zur erheblichen Steigerung der ProduktivitĂ€t von Technik-Teams durch kontextbezogene intelligente AutovervollstĂ€ndigung, unterstĂŒtzte Programmgenerierung und automatisiertes Refactoring fĂŒr Data-Science-Umgebungen
âą Hochentwickelte Technologien zur UnterstĂŒtzung selbstgenerierter Dokumentationen, intelligenten Debuggings und algorithmischer Optimierung zur deutlichen VerkĂŒrzung der Entwicklungszyklen und zur schnelleren Aufnahme der Produktion
Technologielösungen fĂŒr leichtere Entdeckung, Bewertung und Integration von KI-Modellen bei gleichzeitiger UnterstĂŒtzung neu entstehender Architekturen auf der Basis autonomer Agenten
âą Einheitliche Plattformen fĂŒr den Zugriff auf Modelle: zentralisierte Umgebungen fĂŒr strukturierte Kataloge von vortrainierten Modellen mit standardisierten Interfaces und KompatibilitĂ€t mit mehreren Anbietern zur Abstraktion der zugrunde liegenden Zugriffsschichten
âą Rechen- und energieeffiziente Modellarchitekturen: optimierte Implementierungen mit geringem Energie- und Rechenaufwand, konzipiert fĂŒr ressourcenbeschrĂ€nkte EinsĂ€tze und Edge-Computing-Anwendungen
âą Bach Bereich und ModalitĂ€t vertikalisierte Ăkosysteme: Sammlungen von Modellen, speziell zugeschnitten auf die vorrangigen GeschĂ€ftsvertikalen (insbesondere audiovisuelle Medien), die das gesamte Modalspektrum (Text, Bild, Audio, Multimodal) abdecken
⹠Erweiterte Frameworks zur Orchestrierung von Modellen: automatisierte Entscheidungssysteme, die imstande sind, Modelle gemÀà parametrisierbarer EinschrÀnkungen hinsichtlich Latenz, Kosten, Genauigkeit und Anwendungskontext dynamisch zu routen oder zusammenzustellen
âą Agentic Architektur Tool-Suiten, mit deren Hilfe die Technik-Teams zur VerknĂŒpfung von prĂ€diktiven Modellen und externen Diensten in hochautomatisierten End-to-End-Workflows autonome oder halbautonome LLM-Agenten entwerfen, parametrisieren und ĂŒberwachen (FĂ€higkeit zur Planung, AusfĂŒhrung von Drittanbieter-Tools und sequenzielles Denken)
Integrierte technische Lösungen fĂŒr das komplette Lifecycle-Management von KI-Modellen â von der Entwicklung bis hin zur Produktion
âą Einsatzmöglichkeiten fĂŒr mehrere Umgebungen: Plattformen zur GewĂ€hrleistung eines kohĂ€renten und reibungslosen Einsatzes von Modellartefakten ĂŒber heterogene Umgebungen hinweg (öffentliche/private Cloud, Edge Computing, On-Premise-Infrastrukturen), mit erweiterter Versionsverwaltung und der Möglichkeit eines sofortigen Rollbacks
âą Intelligentes Autoscaling und dynamische Ressourcenoptimierung: hochentwickelte Systeme zur automatischen Anpassung der IT-Infrastruktur an wechselnde Belastungen mit optimaler Ăbertragungsrate bei gleichzeitiger Kosteneffizienz
âą Auf KI spezialisierte CI/CD-Pipelines: End-to-End-Orchestrierung vom Training bis hin zum kontrollierten Einsatz, einschlieĂlich automatisierter Tests, auf die Besonderheiten von prĂ€diktiven Modellen zugeschnittene multidimensionale Validierungen und kontinuierliche Bereitstellung
âą Infrastruktur fĂŒr Lifecycle-Management und -Sicherheit: IT-Systeme zum progressiven Einsatz (canary, blue-green), automatisierter Rollback zur Erkennung von Anomalien, granularen Zugriffskontrollen und Echtzeitmonitoring zur Risikominderung und Einhaltung gesetzlicher Vorschriften
Hochentwickelte Lösungen fĂŒr Datenstrukturierung und semantische Suche innerhalb von KI-Architekturen
âą Semantische und vektorbasierte Datenplattformen: semantische und vektorbasierte Suchmaschinen mit Clustering-, Embedding- und multimodalen Retrieval-Features fĂŒr mediale bzw. redaktionelle Zwecke
âą Spezialisierte Datenbankinfrastrukturen: hochverfĂŒgbare, ausfallsichere sowie fĂŒr komplexe analytische Workloads bzw. verteilte Vektoralgebra optimierte, gemanagte oder einbettbare Speicherlösungen (SQL, NoSQL, Vektor, Graph)
âą Datenaufnahme und Transformation: Automatisierungsframeworks zur Erfassung, Transformation und Indexierung von Daten aus mehreren Quellen und in mehreren Formaten, mit vollstĂ€ndigen Pipelines zur semantischen Anreicherung bzw. zur modalitĂ€tsĂŒbergreifenden Vektorisierung (Text, Bild, Audio, Video)
âą Kontextuelle Dokumentenzugriffssysteme: Lösungen fĂŒr einen genauen Abruf von Dokumenten durch erweitertes KontextverstĂ€ndnis, Intent-aware-Analyse bei gleichzeitigem Erhalt der semantischen VerknĂŒpfungen zwischen EntitĂ€ten
⹠Vertikalisierte RAG-Architekturen: spezifische RAG-Frameworks mit kontinuierlichen LernkapazitÀten, inkrementellen Aktualisierungen ohne vollstÀndige Neuindizierung, sowie mit hochentwickelten Speicherverwaltungsstrategien
Lösungen zum Monitoring, zur Steuerung, zur Leistungsoptimierung und zur ZuverlÀssigkeit der KI-Modelle in Produktionsumgebungen
âą Plattformen fĂŒr Observability und erweitertes Monitoring: Integrierte Lösungen mit Echtzeit-Dashboards und konfigurierbaren Warnmeldungen zur kontinuierlichen Ăberwachung von Nutzungs- und Leistungsmetriken mit Anomalieerkennung und prĂ€diktiver Analyse von Modellverhaltensabweichungen
âą Infrastrukturen fĂŒr systematische Bewertung und Benchmarking: Spezialisierte Frameworks zur kontinuierlichen Bewertung prĂ€diktiver Modelle bzw. von RAG-Systemen anhand spezifischer fachlicher Kriterien fĂŒr automatisiertes Benchmarking fĂŒr VorgĂ€ngerversionen und Industriestandards
⹠Mechanismen zur QualitÀtssicherung und zur EindÀmmung von Halluzinationen: Techniken zur proaktiven Identifizierung und EindÀmmung von Halluzinationen, zur Verbesserung der faktischen KohÀrenz und zur Validierung der QualitÀt von nach mehreren Parametern generierten Inhalten
âą Vorkehrungen zur Einhaltung gesetzlicher Vorschriften und zur technischen Governance: automatisierte Plattformen zur Bewertung und Zertifizierung der Einhaltung von Vorschriften (DSGVO, KI-Verordnung) und zur Einhaltung von PrĂŒfbarkeitsstandards bei algorithmischer ErklĂ€rbarkeit, sicherer Protokollierung sowie granularer RĂŒckverfolgbarkeit von Zugriffen und Interaktionen
Lösungen zur Optimierung von Trainingsprozessen, Fine-Tuning und der Verwaltung von Lernkorpora
âą Integrierte Plattformen fĂŒr ĂŒberwachtes Fine-Tuning: spezialisierte Umgebungen zur Anpassung von Foundationmodellen an gezielte AnwendungsfĂ€lle bei gleichzeitiger Optimierung der benötigten Datenmengen Umfassende UnterstĂŒtzung fĂŒr ĂŒberwachtes Lernen, Instruktions-Tuning und RLHF (Reinforcement Learning from Human Feedback)
âą End-to-End-Automatisierung von Trainingspipelines: vollstĂ€ndige Orchestrierung des Trainingszyklusâ mit erweiterter Automatisierung der Einstellung von Hyperparametern, verteilter Parallelisierung und reproduzierbaren Testumgebungen
âą Zentrale Verwaltung von Trainingskorpora: einheitliche Plattformen zur Erfassung, zur kollaborativen Annotation sowie zur semantischen Anreicherung von DatensĂ€tzen einschlieĂlich QualitĂ€tssicherung und RĂŒckverfolgbarkeit
âą Optimierung der Rechenleistung und -effizienz: Lösungen zur Reduzierung des CO2-FuĂabdrucks sowie der Trainingskosten durch LoRA, QLoRA, Quantisierung und Pruning, wobei die prĂ€diktive Leistung der Modelle erhalten bleibt
⹠Strategien zur Anreicherung von Daten: Systematische Methoden zur Anreicherung oder Diversifizierung von TrainingsdatensÀtzen zur Verbesserung der Robustheit und Generalisierbarkeit von Modellen bei geringen Zusatzkosten
⹠Kontinuierliche Bewertung und Monitoring von Modellen: Integration von Leistungs- und Driftmetriken mit Echtzeit-Dashboards zur Sicherung von QualitÀt, ZuverlÀssigkeit und KonformitÀt wÀhrend des gesamten Modell-Lifecycles
Hochentwickelte Lösungen zur automatisierten Verarbeitung, intelligenten Annotation und KI-gestĂŒtzten Generierung multimodaler Inhalte und angereicherter Metadaten
âą Automatische Stimmerkennung und Untertitelung: hochprĂ€zise ASR-Systeme (Automatic Speech Recognition) fĂŒr Spezialbereiche sowie eine Vielzahl von Akzenten mit multilingualer Alignment-Technologie zur Bild-fĂŒr-Bild-Synchronisierung von Transkriptionen mit Audio-/Videostreams
âą Maschinelle Ăbersetzung und Lokalisierung: anpassbare maschinelle Ăbersetzung fĂŒr Untertitel, Transkripte bzw. Metadaten mit integrierter Glossarverwaltung, Anpassung an bestimmte Fachgebiete sowie Metriken zur QualitĂ€tsbewertung
âą Softwaresuite fĂŒr Postproduktion bzw. redaktionelle Workflows: Moderne Untertitel-Editoren mit automatischer Sprecherzuordnung, stilistischer Vereinheitlichung und Timing-Management; hybride AnsĂ€tze aus automatisierter Verarbeitung und gezielter manueller Nachbearbeitung
âą Extraktion und Anreicherung multimodaler Metadaten: auf die semantische Identifizierung und Klassifizierung von SchlĂŒsselelementen (Personen, Objekte, Orte, Handlungen, Themen) in Medieninhalten sowie die Erzeugung von auf branchenĂŒblichen Metadaten spezialisierte KI-Frameworks
âą Kollaborative Video-Annotation-Tools: kollaborative Arbeitsumgebungen zur UnterstĂŒtzung halbĂŒberwachter Annotation von audiovisuellen Inhalten mit KI-gestĂŒtzter Segmentierung, Objektverfolgung sowie kontextbezogener Erkennung visueller Elemente