CompecTA SuperNova Engine™ ist eine superschnelle und energieeffiziente Serverlösung für Deep Learning- und KI-Anforderungen.
Entwickelt mit der weltbesten Hardware-, Software- und Systemtechnik und jahrelanger Erfahrung von CompecTA HPC Solutions.
Deep Learning Neural Network-Bibliotheken, Deep Learning Frameworks, Betriebssystem und Treiber sind vorinstalliert und sofort einsatzbereit.
CompecTA SuperNova Engine™ wird mit einem Enterprise Level Support-Paket von HPC-Experten mit über 20 Jahren Erfahrung auf diesem Gebiet geliefert.
Wir helfen Ihnen bei allen Problemen, die mit Ihrem System auftreten können.
CompecTA SuperNova Engine™ verfügt über 100.000 Stunden CPU-Zeit auf CompecTAs internem HPC-Cluster-Service namens FeynmanGrid™.
Nutzen Sie diese Gelegenheit, um Erfahrungen mit der Verwendung von HPC-Clustern zu sammeln, die Leistung einer beliebigen Anwendung zu testen oder einen neuen Code/eine neue Anwendung zu testen.
Superschnelle und skalierbare KI-Serversysteme
660 TFLOPS of Tensor Performance
41.2 TFLOPS of FP32 Performance
20.8 TFLOPS of FP64 Performance
1,320 TOPS of INT8 Tensor Performance
Am besten geeignet für:
Deep-Learning-Entwicklung
Schnelles Training für neuronale Netze
Schnelle Schlussfolgerung
Preise ab
$38,995 (Ohne Steuer)
CNVAIS1-A30V1
1,248 TFLOPS of Tensor Performance
78 TFLOPS of FP32 Performance
38.8 TFLOPS of FP64 Performance
2,496 TOPS of INT8 Tensor Performance
Am besten geeignet für:
Deep-Learning-Entwicklung
Superschnelles neuronales Netzwerktraining
Superschnelle Schlussfolgerung
Preise ab
$79,495 (Ohne Steuer)
CNVAIS1-A100V2
1,248 TFLOPS of Tensor Performance
78 TFLOPS of FP32 Performance
38.8 TFLOPS of FP64 Performance
2,496 TOPS of INT8 Tensor Performance
Am besten geeignet für:
Super-fast Multi-GPU Workloads
Deep-Learning-Entwicklung
Superschnelles neuronales Netzwerktraining
Superschnelle Schlussfolgerung
Fordern Sie ein Angebot an
CNVAIS1-NA104V2
2,500 TFLOPS of Tensor Performance
156 TFLOPS of FP32 Performance
78 TFLOPS of FP64 Performance
5,000 TOPS of INT8 Tensor Performance
Am besten geeignet für:
Super-fast Multi-GPU Workloads
Deep-Learning-Entwicklung
Superschnelles neuronales Netzwerktraining
Superschnelle Schlussfolgerung
Fordern Sie ein Angebot an
CNVAIS1-NA108V2
Folgende Produkte können nicht mehr bestellt werden.
74.8 TFLOPS of FP16 Performance
37.2 TFLOPS of FP32 Performance
Am besten geeignet für:
Deep-Learning-Entwicklung
Superschnelles neuronales Netzwerktraining
Gute Schlussfolgerung
NICHT VERFÜGBAR
CNVAIS1-P100V1
448 TFLOPS of Tensor Performance
56 TFLOPS of FP32 Performance
Am besten geeignet für:
Deep-Learning-Entwicklung
Superschnelles neuronales Netzwerktraining
Schnelle Schlussfolgerung
NICHT VERFÜGBAR
CNVAIS1-V100V1
84.8 TFLOPS of FP16 Performance
42.4 TFLOPS of FP32 Performance
Am besten geeignet für:
Deep-Learning-Entwicklung
Superschnelles neuronales Netzwerktraining
Gute Schlussfolgerung
NICHT VERFÜGBAR
CNVAIS1-NP104V1
500 TFLOPS of Tensor Performance
62.8 TFLOPS of FP32 Performance
Am besten geeignet für:
Deep-Learning-Entwicklung
Superschnelles neuronales Netzwerktraining
Schnelle Schlussfolgerung
NICHT VERFÜGBAR
CNVAIS1-NV104V1
170 TFLOPS of FP16 Performance
84.8 TFLOPS of FP32 Performance
Am besten geeignet für:
Deep-Learning-Entwicklung
Ultra-Fast Training für neuronale Netze
Gute Schlussfolgerung
NICHT VERFÜGBAR
CNVAIS1-NP108V1
1000 TFLOPS of Tensor Performance
125.6 TFLOPS of FP32 Performance
Am besten geeignet für:
Deep-Learning-Entwicklung
Ultra-Fast Training für neuronale Netze
Schnelle Schlussfolgerung
NICHT VERFÜGBAR
CNVAIS1-NV108V1
48 TFLOPS of FP32 Performance
188 TOPS of INT8 Performance
Am besten geeignet für:
Deep-Learning-Entwicklung
Gutes Training für neuronale Netze
Superschnelle Schlussfolgerung
NICHT VERFÜGBAR
CNVAIS1-P40V1
Unsere Experten können all Ihre Fragen beantworten. Bitte erreichen Sie uns per Mail oder Telefon.