TEL: 040-2840 7858 0   |   MO-DO 9-18 UHR + FR 9-17 UHR
Unser Angebot richtet sich ausschließlich an gewerbliche Kunden und Freiberufler.

PRODUKT- und HERSTELLER-SUCHE

Hersteller

Produktgruppen

Sie erreichen uns von
Montag bis Donnerstag 9-18 Uhr
und Freitag 9-17 Uhr.

BERATUNG | BESTELLUNG
Tel: 040-2840 7858 0
E-Mail: info@picturetools.de

BERATUNG | SCHULUNG | DEMOS
picturetools GmbH & Co. KG
Großer Burstah 36-38, 2. Etage
20457 Hamburg-City

AB 250€ VERSANDKOSTENFREIE LIEFERUNG IN DEUTSCHLAND.

NVIDIA Tesla GPU Familie

Bitte in der Dropdown Liste die Kategorie wählen.

NVIDIA TESLA P100 Modul 12GB+++

NVIDIA Tesla Koprozessoren sind für Grafikverarbeitung und Visualisierung ausgelegt. Ihre extreme Rechenleistung unterstützt die Maximus Plattform bei der Beschleunigung paralleler Berechnungen.
NVIDIA Tesla GPU
TCSP100M-12GB-PB
Preis: 5.699,00 €
(6.781,81 € inkl. MwSt.)
6781,81
Lieferzeit: auf Anfrage
 

Fragen zum Produkt?

Senden Sie uns eine Nachricht:

 

NVIDIA Tesla ist die weltweit führende Plattform für beschleunigte Rechenzentren und wird in den größten Supercomputern und Unternehmen der Welt eingesetzt. Sie kombiniert Grafikprozessoren, beschleunigte Rechnersysteme, Verbindungstechnologien, Entwicklertools und Anwendungen und ermöglicht so schnellere wissenschaftliche Entdeckungen und Erkenntnisse in anderen Bereichen. Die NVIDIA Tesla Plattform nutzt massiv-parallele Grafikprozessoren und ermöglicht dadurch deutlich höheren Durchsatz bei rechenintensiven Aufgaben. Ein weiterer Vorteil sind erhebliche Kosteneinsparungen für das Rechenzentrum.

 

Die weltweit schnellsten GPU-Beschleuniger

  • Bis zu 5,31 TFlops Double-Precision-Leistung und bis zu 10,6 TFlops Single-Precision-Leistung mit dem Tesla P100-Grafikprozessor
  • Enterprise-Funktionen wie ECC-Schutz für höhere Zuverlässigkeit und GPU-Boost für optimale Performance

SCHNELLE KOMMUNIKATION

  • Bis zu fünfmal schneller als die PCIe Gen3 x16 mit NVLINK
  • Schnellere bidirektionale Kommunikation mit den zwei DMA-Engines der Tesla-Grafikprozessoren
  • Beschleunigte Kommunikation über Nodes hinweg, mit Netzwerk- und Speichergeräten und zwischen Grafikprozessoren mit NVIDIA GPUDirect

ZUVERLÄSSIGES INFRASTRUKTURMANAGEMENT

  • Einfache Überwachung und Verwaltung von Grafikprozessor-Clustern mit NVIDIA Systemverwaltungstools
  • CUDA- und BS-Treiber in Enterprise-Qualität
  • Nahtlose Anwendungsimplementierung mit ISV-Zertifizierung
  • Belastungstests mit null Fehlertoleranz

 

Pascal-Architektur

Die innovative NVIDIA-Pascal-Architektur ist speziell für Computersysteme ausgelegt, die lernen, sehen und unsere Welt simulieren können – eine Welt, die nach immer mehr Rechenleistung verlangt. Pascal basiert auf vollkommen neu entwickelter Hard- und Software.

 

Die Pascal-Architektur bietet die folgenden Leistungen:

 

16 NANOMETER FINFET FÜR UNÜBERTROFFENE ENERGIEEFFIZIENZ

Mit 150 Mrd. in modernster 16-nm-FinFET-Fertigung hergestellten Transistoren ist der Pascal-Grafikprozessor der weltweit größte FinFET-Chip. Er wurde konstruiert, um maximale Leistung und erstklassige Energieeffizienz für solche Aufgaben zu liefern, die nahezu unbegrenzte Berechnungen erfordern.

 

DIE PASCAL-ARCHITEKTUR SORGT FÜR EINEN EXPONENTIELLEN LEISTUNGSSCHUB

Pascal ist die leistungsstärkste Rechenarchitektur in einem Grafikprozessor, die jemals entwickelt wurde. Es verwandelt einen gewöhnlichen Computer in einen Supercomputer mit einer bisher unerreichten Leistung. Pascal liefert für HPC-Berechnungen eine Leistung von über 5 TeraFLOPS bei doppelter Genauigkeit. Auf dem Gebiet des Deep Learnings vollführt ein Pascal-angetriebenes System beim Trainieren neuronaler Netze einen Leistungssprung um mehr als das 12-Fache aktueller Grafikprozessorarchitekturen.

 

NVIDIA NVLINK SORGT FÜR HÖCHSTE ANWENDUNGSSKALIERBARKEIT

Pascal ist die erste Architektur, die die innovative bidirektionale High-Speed-Verbindung NVIDIA NVLink integriert hat. Diese Technologie ist für die Anwendungsskalierung auf mehrere Grafikprozessoren ausgelegt und liefert eine 5-mal höhere Bandbreite als andere führende Verbindungstechnologien.

 

COWOS MIT HBM2 FÜR BIG-DATA-DATENSÄTZE

Die Pascal-Architektur sorgt durch die Kombination von Prozessor und Datenspeicher für unübertroffene Berechnungseffizienz. Das innovative Speicherdesign eines CoWoS (Chip on Wafer on Substrate) mit HBM2 liefert eine mehr als 3-mal so hohe Speicherbandbreite wie Vorgängerlösungen.

 

NEUE ALGORITHMEN FÜR KÜNSTLICHE INTELLIGENZ (KI)

Pascal wurde von Grund auf dafür entwickelt, bei Berechnungen, die für Deep Learning und andere Anwendungen anfallen, höchste Leistung zu erbringen. Es nutzt neue Anweisungen halber Genauigkeit, um für Deep Learning Spitzenleistungen von über 21 TeraFLOPS zu erreichen.

 

 


Zur Tesla Pascal GPU-Reihe gehören:

Grafikprozessor Tesla P100

NVIDIA Tesla P100 ist der modernste Grafikprozessor für Rechenzentren, der jemals entwickelt wurde. Dafür sorgt eine neue Grafikprozessorarchitektur, die den schnellsten Rechenknoten der Welt ermöglicht. Sie wurden dafür entwickelt, den Durchsatz zu steigern und HPC‑ und Hyperscale-Rechenzentren Geld zu sparen.

Die Produktivität von Datenwissenschaftlern und die Markteinführungszeit KI-basierter Anwendungen hängen davon ab, wie gut sich die Zeit für das Trainieren immer komplexerer Modelle verkürzen lässt. Server mit dem Tesla P100 profitieren von der Leistung der neuen NVIDIA Pascal-Architektur, sodass sich die Trainingszeit bei Deep Learning von mehreren Jahren auf wenige Tage verkürzt.

Grafikprozessoren Tesla P4 und P40

Grafikprozessoren mit der Pascal-Architektur sind die Computing-Engine für ein neues KI-Zeitalter mit herausragenden Nutzererfahrungen. Dazu werden moderne Deep-Learning-Anwendungen im erforderlichen Umfang beschleunigt. Tesla P40 ist speziell auf maximalen Durchsatz für immer schneller wachsende Datenmengen ausgelegt. Der ultraeffiziente Tesla P4 ist auf die Beschleunigung jedes beliebigen Scale-Out-Servers ausgelegt.

NVIDIA Tesla P100 für PCIe-basierte Server

GPU Architektur: NVIDIA Pascal

NVIDIA CUDA Cores: 3584

Double-Precision Leistung: 4,7 TeraFLOPS

Single-Precision Leistung: 9,3 TeraFLOPS

Half-Precision Leistung: 18,7 TeraFLOPS

Verbindungsbandbreite mit PCIe x16: 32 GB/s

Speicherkapazität mit CoWoS-HBM2-Stapelspeicher: 16 GB oder 12 GB

Speicherbandbreite mit CoWoS-HBM2-Stapelspeicher: 732 GB/s oder 549 GB/s

Systemschnittstelle: PCIe Gen3

Maximaler Stromverbrauch: 250W

Verbesserte Programmierbarkeit mit Page Migration Engine: Ja

ECC-Schutz: Ja 

Für den Einsatz in Rechenzentren serveroptimiert: Ja

Thermale Lösung: Passiv

Form Factor: PCIe Full Height/Length

Compute APIs: CUDA, DirectCompute, OpenCL, OpenACC

 

 


NVIDIA Tesla P100 für NVLink-optimierte Server

GPU Architektur: NVIDIA Pascal

NVIDIA CUDA Cores: 3584

Double-Precision Leistung: 5,3 TeraFLOPS

Single-Precision Leistung: 10,6 TeraFLOPS

Half-Precision Leistung: 21,2 TeraFLOPS

Verbindungsbandbreite mit NVIDIA NVLink: 160 GB/s

Verbindungsbandbreite mit PCIe x16: 32 GB/s

Speicherkapazität mit CoWoS-HBM2-Stapelspeicher: 16 GB

Speicherbandbreite mit CoWoS-HBM2-Stapelspeicher: 732 GB/s

Maximaler Stromverbrauch: 300W

Verbesserte Programmierbarkeit mit Page Migration Engine: Ja

ECC-Schutz: Ja, wird nativ unterstüzt ohne Kapazitäts- oder Leistungszuschlag

Für den Einsatz in Rechenzentren serveroptimiert: Ja

Thermale Lösung: Passiv

Form Factor: SXM2

Compute APIs: NVIDIA CUDA, DirectCompute, OpenCL, OpenACC

 

 


 

NVIDIA Tesla P4

Kleines Format, 50/75Watt-Design passt zu jedem Scale-Out-Server. INT8 Operationen senken die Latenz um 15X. Die Hardware-beschleunigte Decodier-Engine kann 35 HD Videostreams in Echtzeit transcodieren und inferenzieren.

GPU Architektur: NVIDIA Pascal

Single-Precision Leistung: 5,5 TeraFLOPS

Integer Operations (INT8): 22 TOPS (TeraOperationen pro Sekunde)

GPU Memory: 8GB

Memory Bandwidth: 192 GB/s

Systemschnittstelle: Low-Profile-PCI-Express-Formfaktor

Maximaler Stromverbrauch: 50W/75W

Verbesserte Programmierbarkeit mit Page Migration Engine: Ja 

ECC-Schutz: Ja 

Für den Einsatz in Rechenzentren serveroptimiert: Ja

Video-Engine mit Hardwarebeschleunigung: 1x Decode Engine, 2x Encode Engine

 

 


 

NVIDIA Tesla P40

Der weltweit schnellste Prozessor für maximalem Inferenzdurchsatz. 47 TOPS an INT8 für maximalen Inferenz-Durchsatz und Reaktionsfreudigkeit. Die Hardware-beschleunigte Decodier-Engine kann 35 HD Videostreams in Echtzeit transcodieren und inferenzieren.

GPU Architektur: NVIDIA Pascal

Single-Precision Leistung: 12 TeraFLOPS

Integer Operations (INT8): 47 TOPS (TeraOperationen pro Sekunde)

GPU Memory: 24GB

Memory Bandwidth: 346 GB/s

Systemschnittstelle: PCI-Express-Formfaktor für zwei Steckplätze mit voller Höhe 3.0 x16

Form Factor: 4.4” H x 10.5” L, Dual Slot, Full Height

Maximaler Stromverbrauch: 250W

Verbesserte Programmierbarkeit mit Page Migration Engine: Ja 

ECC-Schutz: Ja 

Für den Einsatz in Rechenzentren serveroptimiert: Ja

Video-Engine mit Hardwarebeschleunigung: 1x Decode Engine, 2x Encode Engine

 

 

NVIDIA Tesla P100 für Strong-Scale-HPC

Tesla P100 ermöglicht zusammen mit der Technologie NVIDIA NVLink rasend schnelle Knoten, die bei Strong-Scale-Anwendungen den Zeitbedarf bis zum Erhalt der Lösungen deutlich verkürzen. Ein Serverknoten mit NVLink kann bis zu acht Tesla P100 mit der 5-fachen PCIe-Bandbreite miteinander verbinden. Das soll zur Lösung der weltweit wichtigsten und anspruchsvollsten Herausforderungen mit einem unendlichen Bedarf an HPC‑ und Deep-Learning-Berechnungen beitragen.

 

 

NVIDIA Tesla P100 für HPC mit gemischten Berechnungen

Tesla P100 für PCIe ermöglicht Rechenzentren bei HPC mit gemischten Berechnungen einen enormen Schub im Durchsatz bei gleichzeitigen Kosteneinsparungen. Beispiel: Ein einzelner durch Grafikprozessoren beschleunigter Knoten, der durch vier über PCIe miteinander verbundene Tesla P100 angetrieben wird, ersetzt für verschiedene Anwendungen bis zu 32 Standard-CPU-Knoten. Die Ausführung aller Aufgaben mit weitaus weniger, aber leistungsstarken Knoten bedeutet, dass die Kunden bis zu 70% der Gesamtkosten des Rechenzentrums sparen können.

 

 


NVIDIA-Tesla-P100-Grafikprozessor - Merkmale und Vorteile

Der Tesla P100-Grafikprozessor basiert auf vollkommen neu entwickelter Hard- und Software. Jede der innovativen Technologien liefert eine deutliche Leistungssteigerung, um den schnellsten Rechenknoten der Welt zu ermöglichen.

Pascal-Architektur für exponentielle Leistungssteigerung

Durch die neue NVIDIA-Pascal-Architektur liefert der Tesla P100 bei HPC‑ und Hyperscale-Aufgaben unübertroffene absolute Leistung. Mit einer FP16-Leistung von über 21 TeraFLOPS wurde Pascal dafür optimiert, Deep-Learning-Anwendungen großartige, neue Möglichkeiten zu eröffnen. Des Weiteren liefert Pascal bei HPC-Berechnungen eine Leistung von über 5 TeraFLOPS bei doppelter Genauigkeit und von über 10 TeraFLOPS bei einfacher Genauigkeit.

Unübertroffene Effizienz mit HBM2-Speicherstacks

Durch integriertes HBM2-CoWoS (Chip-on-Wafer-on-Substrate) mit einer bis zu 3-mal so hohen Speicherleistung wie die NVIDIA-Maxwell-Architektur kombiniert der Tesla P100 maximale Rechenleistung mit hoher Speicherkapazität.

Extrem umfangreiche Anwendungen mit NVIDIA NVLink

Die Systemleistung wird häufig durch langsame Verbindungen zwischen einzelnen Knoten begrenzt. Die innovative NVIDIA NVLink Highspeed-Verbindungstechnologie ist für die Anwendungsskalierung auf mehrere Grafikprozessoren ausgelegt und liefert 5x mehr Leistung als die zur Zeit führenden Technologien.

Einfache Programmierung mit der Page Migration Engine

Die Page Migration Engine ermöglicht Entwicklern, sich gezielt auf das Feintuning für mehr Rechenleistung anstatt auf die Verwaltung der Datenübertragungen zu konzentrieren. Die Anwendungen können nun über die Größe des physischen Speichers im Grafikprozessor hinaus skalieren, nämlich bis auf 2 Terabyte.

 

Maximaler Durchsatz bei Deep-Learning-Inferenz

Der Tesla P40 ist speziell auf maximalen Durchsatz bei Deep-Learning-Workloads ausgelegt. Mit einer Inferenzleistung von 47 TOPS (Tera-Operations Per Second) pro Grafikprozessor kann ein einzelner Server mit acht Tesla P40-Einheiten mehr als 100 CPU-Server ersetzen.

 

 

Extrem effizientes Deep Learning auf Scale-out-Servern

Der Tesla P4 beschleunigt jeden Scale-Out-Server und bietet eine beeindruckende Energieeffizienz, welche die von CPUs um das 40-Fache übersteigt.

 

 


Deep-Learning-Beschleuniger - Merkmale und Vorteile

Diese Grafikprozessoren ermöglichen schnellere Prognosen, die bei KI-Anwendungen für eine beeindruckende Nutzererfahrung sorgen.

100-mal höherer Durchsatz zur Bewältigung immer größerer Datenvolumen

Jeden Tag werden neue Daten generiert: Sensorprotokolle, Bilder, Videos und Aufzeichnungen. Diese Daten sind so umfangreich, dass eine Verarbeitung auf CPUs aus wirtschaftlicher Sicht nicht sinnvoll ist. Grafikprozessoren mit der Pascal-Architektur ermöglichen in Rechenzentren eine erhebliche Steigerung des Durchsatzes von Workloads zur Bereitstellung von Deep Learning. Außerdem lassen sich so aus der gewaltigen Datenflut sinnvolle Informationen gewinnen. Ein einziger Server mit acht Tesla P40s kann bis zu 100 reine CPU-Server für Deep-Learning-Workloads ersetzen und bietet erheblich höheren Durchsatz bei geringeren Beschaffungskosten.

Bisher unerreichte Effizienz für Scale-Out-Server mit niedrigem Stromverbrauch

Der ultraeffiziente Tesla P4-Grafikprozessor beschleunigt in Bezug auf die Dichte optimierte Scale-Out-Server mit kleinem Formfaktor und 50 bzw. 75 W Leistungsaufnahme. Bei Workloads für Deep-Learning-Inferenz übertrifft seine Energieeffizienz die von CPUs um das 40-Fache. Dies ermöglicht Hyperscale-Kunden eine Skalierung innerhalb ihrer bestehenden Infrastruktur und die Bewältigung des exponentiellen Wachstums bei KI-basierten Anwendungen.

Dedizierte Decodier-Engine für neue KI-basierte Videodienste

Die Grafikprozessoren Tesla P4 und P40 können bis zu 39 HD-Videosignale in Echtzeit analysieren. Hierzu wird eine dedizierte Decodier-Engine mit Hardwarebeschleunigung verwendet, die parallel mit den NVIDIA CUDA-Recheneinheiten für die Inferenz ausgeführt wird. Durch die Integration von Deep Learning in die Videopipeline können Kunden den Benutzern intelligente, innovative Videodienste auf einem völlig neuen Niveau anbieten.

Schnellere Bereitstellung mit NVIDIA TensorRT und dem DeepStream SDK

NVIDIA TensorRT ist eine extrem leistungsfähige Inferenz-Engine für neuronale Netzwerke, die in der Produktionsbereitstellung von Deep-Learning-Anwendungen eingesetzt wird. Sie umfasst eine Bibliothek zur Optimierung von Deep-Learning-Modellen für die Produktionsbereitstellung. Dabei werden trainierte neuronale Netze, die normalerweise 32- oder 16-Bit-Daten umfassen, hergenommen und für INT8-Operationen mit reduzierter Genauigkeit optimiert. Das NVIDIA DeepStream SDK nutzt die Leistung von Grafikprozessoren mit der Pascal-Architektur, um Videostreams gleichzeitig zu decodieren und zu analysieren.

 

Downloads:

 

Fragen zum Produkt?

Senden Sie uns eine Nachricht:

Weitere Produkte von Grafikkarten / GPU:

NVIDIA Quadro Grafikkarten

NVIDIA Quadro Grafikkarten werden speziell für professionelle Workstations entwickelt und unterstützen CAD, CGI und Video Anwendungen. Sie bieten getestete Treiber und 10bit Display Ausgabe. [mehr...]

Sonnet eGFX Breakaway Puck

Handliche externe GPU (eGPU) für Grafikbeschleunigung von Thunderbolt3-Computern sowie den Anschluss von bis zu vier 4K Displays im Multimonitor-Modus. [mehr...]