Nvidia Server
Nvidia Server
Typ:Ausschreibung
Ohne Kreditkarte · Sofortiger Zugang
Nvidia Server
Typ:Ausschreibung
Ohne Kreditkarte · Sofortiger Zugang
Nächster Schritt
Erhalten Sie alle Dokumente zu "Nvidia Server" von Technische Universität Dortmund und behalten Sie Fristen und Einreichungshinweise im Blick.
Nvidia Server
Nvidia Server
Nach Registrierung stehen Unterlagen, Fristen und Hinweise zur Einreichung strukturiert bereit.
Auftragsgegenstand: NVIDIA RTX PRO 6000 Blackwell - Server Edition Leistungsausführung: 02/26 Ort der Leistungsausführung: BAM, Berlin Vergabeart:Verhandlungsvergabe ohne TWB § 8 Abs. 4 Nr. 10 UVgO Auftragnehmer:Conrad Electronic SE NVIDIA RTX PRO 6000 Blackwell - Server Edition
NVidia DGX B200 Deep Learning und KI Server
Das Lamarr-Institut für Maschinelles Lernen und Künstliche Intelligenz beschafft einen performanten Nvidia GPU-Server inklusive aktueller High-End-GPUs. Ziel ist die Bewältigung steigender Rechenanforderungen für die empirische Validierung von Methoden des maschinellen Lernens und die Hyperparameter-Optimierung. Die Beschaffung umfasst optional einen 5-Jahres-Support, um die notwendige Rechenkapazität für die Forschung sicherzustellen.
Erweiterung des NVIDIA DGX POD Clusters zur Unterstützung von KI-Forschungsprojekten und zentralen IT-Services. Beschafft werden 2 x NVIDIA DGX B200 Deep Learning und KI-Server inklusive Inbetriebnahme und Initialleistungen sowie ein 60-monatiger Wartungs- und Servicevertrag.
Lieferung und Inbetriebnahme eines Hochleistungs-Serversystems für KI- und Deep-Learning-Anwendungen zum Betrieb in einem On-Premise / Edge Rechenzentrum
NVIDIA Quadro Grafikkarten
Lieferung eines Dell Servers und Nvidia Lizenzen
Das Deutsche Forschungszentrum für Künstliche Intelligenz GmbH hat den Auftrag für einen GPU-Server vergeben. Der Leistungsort ist 67663 Rheinland-Pfalz. Das Verfahren wurde gemäß UVgO durchgeführt.
Die UniBw M beschafft ein NVIDIA DGX B300 System zur Erweiterung des bestehenden Deep-Learning-GPU-Clusters im Projekt SPARTA. Ziel ist die nahtlose Integration in die vorhandene NVIDIA-Infrastruktur, um Large-Language-Modelle und große Datenmengen aus sozialen Netzwerken effizient zu verarbeiten. Die Erweiterung ist notwendig, um die Kompatibilität mit bestehender Software, Trainingsdaten und neuronalen Netzen zu wahren und die Forschungsziele des Projekts sicherzustellen.
Server