Assemblage, Expédition et Support de toutes les commandes depuis l'Union Européenne   

Stations de travail optimisées pour le GPU

Optimisée pour les GPU, notre gamme de stations de travail est capable de performances fulgurantes.

  • Performances GPU ultra-rapides
  • Composants de niveau entreprise
  • Équipe de vente technique GPU / Supercomputing
  • 3 ans de garantie inclus avec des options d'extension de garantie disponibles


Core-X TeslaStation Pro

Intel X299, Intel Core-X Extreme Processors, supports 3-Way SLI and CrossFireX and Tesla, 8 x DIMM, Max. 128GB Quad Channel Memory, Dual Intel Gigabit LAN, 8-Channel High Definition Audio CODEC featuring Crystal Sound 2.

Features:
Ultra Quiet System Design, Multi-Display Options, GPU Compatible
Drive Bays:
4 Fixed Drives
Expansion Slots:
7 x PCIe 3.0/2.0 x16
Workstation Size:
Full Tower
Processor:
Intel Core X i7,i9
Max RAM Capacity:
256GB
A Partir De: €1,898
Configurer
TeslaStation XL Single Xeon Gen4

Single 4th Gen Intel Xeon Scalable Gen4 Processor, GPU Computing Pedestal Supercomputer, 4x Tesla, RTX GPU Cards

Features:
Ultra Quiet System Design, GPU Compatible, Up to 4x Graphics Card
Drive Bays:
8 Hot-Swap Drives
Expansion Slots:
4x PCIe 5.0 x16, 1x PCIe 5.0 x8
Workstation Size:
Full Tower
Processor:
Intel Xeon Scalable Processor
Max RAM Capacity:
1TB
A Partir De: €3,228
Configurer
TeslaStation XL Single EPYC Gen4

Single AMD 9004 Series Gen 4 Processor, GPU Computing Pedestal Supercomputer, 3x Tesla, RTX GPU Cards

Features:
Ultra Quiet System Design, GPU Compatible, Up to 3x Graphics Card
Drive Bays:
8 Hot-Swap Drives
Expansion Slots:
4x PCIe 5.0 x16, 1x PCIe 5.0 x8
Workstation Size:
Full Tower
Processor:
AMD EPYC
Max RAM Capacity:
1TB
A Partir De: €4,061
Configurer
Ultra High-Performance Rackmount or Tower 
TeslaStation Pro-XL Xeon Gen2

Dual Scalable Xeon Processor, GPU Computing Pedestal Supercomputer, 4x Tesla, Xeon Phi or GTX-Titan GPU Cards

Features:
Ultra Quiet System Design, GPU Compatible
Drive Bays:
8 Hot-Swap Drives
Expansion Slots:
4 x PCIe 3.0/2.0 x16, 2 x PCIe 3.0/2.0 x8, 1 x PCIe 3.0/2.0 x8(x4 Speed)
Workstation Size:
Full Tower
Processor:
Intel Xeon Scalable Processor
Max RAM Capacity:
2TB
A Partir De: €4,500
Configurer
Ultra High-Performance 
AMD Threadripper Pro

Up to 64 Cores, supports 4-Way SLI and CrossFireX, Upto 256GB DDR4 4400 (OC) Memory, Dual 10GbE LAN, Intel Wifi, Bluetooth, 8-Channel High Definition Audio CODEC,

Features:
Ultra Quiet System Design, Multi-Display Options, GPU Compatible
Drive Bays:
4 Fixed Drives
Expansion Slots:
7 x PCIe 3.0/2.0 x16
Workstation Size:
Full Tower
Processor:
AMD Ryzen
Max RAM Capacity:
256GB
A Partir De: €4,836
Configurer
TeslaStation Pro-XL Xeon Gen4

Dual 4th Gen Intel Xeon Scalable Gen4 Processor, GPU Computing Pedestal Supercomputer, 4x Tesla, RTX GPU Cards

Features:
Ultra Quiet System Design, GPU Compatible, Up to 4x Graphics Card
Drive Bays:
8 Hot-Swap Drives
Expansion Slots:
7x PCIe 5.0 x16
Workstation Size:
Full Tower
Processor:
Intel Xeon Scalable Processor
Max RAM Capacity:
2TB
A Partir De: €5,869
Configurer
Ultra High-Performance Rackmount or Tower 3.5" Drives NVMe Drives 10Gb Lan 
TeslaStation Pro-XL Xeon Gen3

Dual Scalable Xeon Gen3 Processor, GPU Computing Pedestal Supercomputer, 4x Tesla, RTX GPU Cards

Features:
Ultra Quiet System Design, GPU Compatible
Drive Bays:
8 Hot-Swap Drives
Expansion Slots:
4 x PCIe 3.0/2.0 x16, 2 x PCIe 3.0/2.0 x8, 1 x PCIe 3.0/2.0 x8(x4 Speed)
Workstation Size:
Full Tower
Processor:
Intel Xeon Scalable Processor
Max RAM Capacity:
2TB
A Partir De: €5,925
Configurer

Appelez un spécialiste du stockage et des serveurs de Broadberry maintenant: +33 1 72 81 06 78

Etre recontacté par un expert Broadberry:


Huge Educational and Research Discount

NVIDIA Titan RTX
NVIDIA T4
NVIDIA A100
NVIDIA L4
NVIDIA H100
Architecture Turing Turing Ampere Ada Lovelace Hopper
SMs 72 72 108 60 114
CUDA Cores 4,608 2,560 6,912 7,424 18,432
Tensor Cores 576 320 432 240 640
Frequency 1,350 MHz 1,590 MHz 1,095 Mhz 795 Mhz 1,590 MHz
TFLOPs (double) 8.1 65 9.7 489.6 (1:64) 25.61 (1:2)
TFLOPs (single) 16.3 8.1 19.5 31.33 (1:1) 10.6
TFLOPs (half/Tensor) 130 65.13 TFLOPS(8:1) 624 31.33 (1:1) 204.9 (4:1)
Cache 6 MB 4 MB 40 MB 48 MB 50 MB
Max. Memory 24 GB 16 GB 40 GB 24 GB 80 GB
Memory B/W 672 GB/s 350 GB/s 1,555 GB/s 300 GB/s 2,000 Gb/s

La carte graphique pour PC la plus rapide et la plus performante jamais créée, la NVIDIA Titan RTX est dotée de l'architecture Turing et apporte à votre PC 130 TFLOPs de performances, 576 cœurs de tenseur et 24 Go de mémoire GDDR6 ultra-rapide. La Titan RTX alimente l'apprentissage automatique, l'IA et les flux de travail créatifs.

NVIDIA Titan RTX
Une vitesse qui crève le plafond

Il est difficile de trouver une meilleure option que la Titan RTX pour gérer les charges de travail intenses en termes de calcul. Créée pour dominer même dans les situations les plus exigeantes, elle apporte la vitesse ultime à votre centre de données. Le Titan RTX repose sur l'architecture GPU Turing de NVIDIA. Il inclut les toutes dernières technologies Tensor Core et RT Core et est également pris en charge par les pilotes et SDK de NVIDIA. Cela vous permet de travailler plus rapidement et d'obtenir de meilleurs résultats.

Parfait pour le développement de l'IA

Les modèles d'IA peuvent être formés beaucoup plus rapidement grâce aux 576 Tensor Cores NVIDIA Turing à précision mixte qui fournissent 130 TLOPS de performances d'IA. Cette carte fonctionne bien avec tous les frameworks d'apprentissage profond les plus connus, est compatible avec NVIDIA GPU Cloud et est prise en charge par le SDK CUDA-X AI de NVIDIA. .

Accélération des applications

Elle permet d'accélérer les applications, de travailler beaucoup plus vite avec 4609 cœurs NVIDIA Turing CUDA accélérant les workflows de science des données de bout en bout. Avec 24 Go de mémoire GDD44, vous pouvez traiter des ensembles de données gigantesques.

Des performances HPC révolutionnaires

La Titan RTX atteint un niveau de performance bien supérieur à celui de ses prédécesseurs. Doté de Turing Tensor Cores multiprécision, le Titan RTX offre des performances exceptionnelles en FP32, FP16, INT8 et INT4, ce qui permet d'accélérer l'entraînement et l'inférence des réseaux neuronaux.


Les GPU NVIDIA Tesla T4 équipent les serveurs grand public les plus fiables de la planète. Ils s'intègrent facilement dans les infrastructures des centres de données standard. Conçu dans un boîtier discret de 70 watts, le T4 est alimenté par les cœurs de tenseur Turing de NVIDIA, fournissant des performances multiprécision innovantes pour accélérer une vaste gamme d'applications modernes.

NVIDIA Tesla T4
Dominer l'avenir

Il est presque certain que nous nous dirigeons vers un avenir où chacune de vos interactions avec vos clients, chacun de vos produits et services seront influencés et améliorés par l'intelligence artificielle. L'IA va devenir la force motrice de toutes les activités futures, et celui qui s'adaptera le premier à ce changement détiendra la clé de la réussite commerciale à long terme.

Le GPU NVIDIA T4 vous permet de mettre à l'échelle de manière rentable les services basés sur l'intelligence artificielle. Il accélère diverses charges de travail dans le cloud, notamment le calcul haute performance, l'analyse de données, la formation et l'inférence par apprentissage profond, le graphisme et l'apprentissage automatique. Le T4 est doté de Turing Tensor Cores multiprécision et de nouveaux RT Cores. Il est basé sur l'architecture Turing de NVIDIA et se présente sous la forme d'un petit facteur de forme PCIe très économe en énergie. T4 offre des performances révolutionnaires à grande échelle.

Des performances révolutionnaires

Le T4 exploite la technologie révolutionnaire Turing Tensor Core, qui permet un calcul multiprécision pour gérer diverses charges de travail. Le T4 est capable d'atteindre des vitesses fulgurantes.

Inférence de pointe en temps réel

L'engagement de l'utilisateur sera un élément essentiel de la réussite de la mise en œuvre de l'IA, la réactivité étant l'une des principales clés. Cela sera particulièrement évident dans les services tels que la recherche visuelle, l'IA conversationnelle et les systèmes recommandés. Au fil du temps, les modèles continuant à progresser et à augmenter en complexité, une capacité de calcul toujours plus grande sera nécessaire. La technologie T4 permet d'améliorer massivement le débit, ce qui permet de répondre à un plus grand nombre de demandes en temps réel.

Performance du transcodage vidéo

La vidéo en ligne est sans doute le premier moyen de diffusion de l'information à l'ère moderne. À mesure que nous avançons dans l'avenir, le volume de vidéos en ligne va continuer à croître de manière exponentielle. Simultanément, la demande de réponses sur la manière de rechercher efficacement et d'obtenir des informations à partir de vidéos ne cesse de croître.

T4 offre des performances inédites pour les applications vidéo d'IA, grâce à des moteurs de transcodage matériels dédiés qui offrent des performances de décodage deux fois supérieures à celles des GPU de la génération précédente. T4 est capable de décoder jusqu'à près de 40 flux vidéo haute définition, ce qui facilite l'intégration de l'apprentissage profond évolutif dans les pipelines vidéo afin de fournir des services vidéo inventifs et intelligents.


Le GPU NVIDIA A100 fournit une accélération inégalée à toutes les échelles pour l'analyse de données, l'IA et le calcul de haute performance afin de relever les défis informatiques les plus difficiles. Un A100 peut évoluer de manière efficace et efficiente jusqu'à des milliers de GPU. Avec la technologie NVIDIA Multi-Instance GPU (MIG), il peut être partitionné en 7 instances GPU, accélérant les charges de travail de toutes tailles.

NVIDIA Tesla A100
Calcul haute performance

Le NVIDIA A100 introduit les Tensor Cores en double précision, ce qui constitue la plus grande avancée depuis l'introduction de la double précision dans les GPU. Le gain de vitesse ainsi obtenu peut être immense : une simulation en double précision de 10 heures exécutée sur des GPU NVIDIA V100 Tensor Core est ramenée à seulement 4 heures lorsqu'elle est exécutée sur des A100. Les applications hautes performances peuvent également exploiter la précision TF32 des Tensor Cores A100 pour multiplier par 10 le débit des opérations de multiplication de matrices denses en simple précision.

Analyse de données haute performance

Dans les centres de données modernes, il est essentiel de pouvoir visualiser, analyser et transformer d'énormes ensembles de données en informations. Cependant, les solutions scale-out finissent souvent par s'enliser car les ensembles de données sont répartis sur de nombreux serveurs. Les serveurs alimentés par l'A100 offrent la puissance de calcul nécessaire, ainsi qu'une bande passante mémoire de 1,6 To/s et une grande évolutivité.

Utilisation prête pour l'entreprise

La NVIDIA A100 avec MIG maximise l'utilisation de l'infrastructure accélérée par le GPU comme jamais auparavant. Avec MIG, un GPU A100 peut être partitionné en un maximum de 7 instances indépendantes. Cela permet à une multitude d'utilisateurs d'accéder à l'accélération GPU pour leurs applications et leurs projets.


Le GPU NVIDIA L4 Tensor Core, basé sur l'architecture NVIDIA Ada Lovelace, offre une accélération polyvalente et économe en énergie dans une large gamme d'applications, comme le traitement vidéo, l'IA, l'informatique visuelle, le graphisme, la virtualisation, etc. Disponible dans un design compact à profil bas, le L4 constitue une solution rentable et économe en énergie, garantissant un débit élevé et une latence minimale dans les serveurs allant des appareils périphériques aux centres de données et au cloud.

NVIDIA Tesla L4
Accélérer les charges de travail de manière efficace et durable

Le NVIDIA L4 fait partie intégrante de la plate-forme de centre de données de NVIDIA. Conçue pour prendre en charge une large gamme d'applications telles que l'IA, le traitement vidéo, les stations de travail virtuelles, le rendu graphique, les simulations, la science des données et l'analyse des données, cette plate-forme améliore les performances de plus de 3 000 applications. Elle est accessible dans divers environnements, des centres de données à l'informatique en périphérie en passant par le cloud, et offre des améliorations substantielles des performances et des capacités d'efficacité énergétique.

Avec la généralisation de l'IA et des technologies vidéo, le besoin d'une informatique efficace et abordable se fait de plus en plus sentir. Les GPU NVIDIA L4 Tensor Core améliorent considérablement les performances vidéo de l'IA, jusqu'à 120 fois plus, ce qui se traduit par une amélioration remarquable de 99 % de l'efficacité énergétique et une baisse des coûts de possession globaux par rapport aux systèmes traditionnels basés sur le CPU. Cela permet aux entreprises de réduire leurs besoins en espace serveur et de diminuer considérablement leur impact sur l'environnement, tout en développant leurs centres de données pour servir davantage d'utilisateurs. Le passage des CPU aux GPU NVIDIA L4 dans un centre de données de 2 mégawatts permet d'économiser suffisamment d'énergie pour alimenter plus de 2 000 foyers pendant un an ou compenser les émissions de carbone équivalentes à la plantation de 172 000 arbres sur une décennie.

Prêt pour l'entreprise : Les logiciels d'IA rationalisent le développement et le déploiement

Alors que l'IA devient monnaie courante dans les entreprises, celles-ci ont besoin d'une infrastructure complète prête pour l'IA afin de se préparer à l'avenir. NVIDIA AI Enterprise est un ensemble complet de logiciels d'IA et d'analyse de données natifs du cloud, conçu pour permettre à toutes les entreprises d'exceller dans le domaine de l'IA. Il est certifié pour être déployé dans divers environnements, y compris les centres de données d'entreprise et le cloud, et comprend un support d'entreprise mondial pour garantir la réussite des projets d'IA.

NVIDIA AI Enterprise est optimisé pour rationaliser le développement et le déploiement de l'IA. Elle est livrée avec des conteneurs et des frameworks open-source testés, certifiés pour fonctionner sur du matériel de centre de données standard et des systèmes populaires NVIDIA-Certified Systems™ équipés de GPU NVIDIA L4 Tensor Core. De plus, il inclut le support, offrant aux organisations les avantages de la transparence de l'open source et la fiabilité du support mondial de NVIDIA Enterprise, offrant une expertise à la fois pour les praticiens de l'IA et les administrateurs informatiques.

Le logiciel NVIDIA AI Enterprise est une licence supplémentaire pour les GPU NVIDIA L4 Tensor Core, mettant l'IA haute performance à la disposition de presque toutes les entreprises pour la formation, l'inférence et les tâches de science des données. Associé à NVIDIA L4, il simplifie la création d'une plate-forme prête pour l'IA, accélère le développement et le déploiement de l'IA et fournit les performances, la sécurité et l'évolutivité nécessaires pour obtenir rapidement des informations et profiter plus vite des avantages commerciaux.


Bénéficiez de performances, d'une évolutivité et d'une sécurité remarquables pour toutes les tâches grâce au GPU Tensor Core NVIDIA H100. Le système de commutation NVIDIA NVLink permet de connecter jusqu'à 256 GPU H100 pour booster les charges de travail exascales. Ce GPU est doté d'un moteur Transformer dédié pour gérer des modèles de langage à des trillions de paramètres. Grâce à ces avancées technologiques, le H100 peut accélérer les grands modèles de langage (LLM) d'un facteur impressionnant de 30 par rapport à la génération précédente, ce qui en fait le leader de l'IA conversationnelle.

NVIDIA H100

Les GPU NVIDIA H100 pour serveurs ordinaires comprennent un abonnement logiciel de cinq ans qui englobe le support de la suite logicielle NVIDIA AI Enterprise. Cela simplifie le processus d'adoption de l'IA tout en garantissant des performances optimales. Elle permet aux entreprises d'accéder aux frameworks et outils d'IA essentiels pour créer des applications d'IA accélérées par le H100, telles que les chatbots, les moteurs de recommandation et l'IA visionnaire. Profitez de l'abonnement au logiciel NVIDIA AI Enterprise et du support associé pour la NVIDIA H100.

Les GPU NVIDIA H100 sont dotés de la quatrième génération de Tensor Cores et du Transformer Engine avec une précision FP8, ce qui renforce le leadership de NVIDIA dans le domaine de l'IA en accélérant jusqu'à 4 fois la formation et en augmentant de 30 fois la vitesse d'inférence avec des modèles de langage volumineux. Dans le domaine du calcul haute performance (HPC), le H100 triple les opérations en virgule flottante par seconde (FLOPS) en FP64 et introduit les instructions de programmation dynamique (DPX), ce qui se traduit par une augmentation remarquable des performances de 7X. Équipé du GPU multi-instance (MIG) de deuxième génération, de l'informatique confidentielle NVIDIA intégrée et du système de commutation NVIDIA NVLink, le H100 fournit une accélération sécurisée pour toutes les charges de travail dans les centres de données, de l'entreprise à l'exascale.

Saut de performance exponentiel avec l'architecture Pascal

L'architecture Pascal de NVIDIA permet à la Tesla P100 d'offrir des performances supérieures pour les charges de travail HPC et hyperscale. Avec plus de 21 téraflops de performances FP16, l'architecture Pascal est optimisée pour offrir de nouvelles possibilités aux applications d'apprentissage profond. Pascal offre également plus de 5 et 10 téraflops de performances en double et simple précision pour les charges de travail HPC.

Accélérer chaque charge de travail, partout

Le NVIDIA H100 est un composant essentiel de la plate-forme de centre de données de NVIDIA, conçue pour améliorer l'IA, le HPC et l'analyse de données. Cette plateforme accélère plus de 3 000 applications et est accessible sur différents sites, des centres de données à l'edge computing, apportant des améliorations substantielles des performances et des possibilités de réduction des coûts.


Les stations de travail GPU Broadberry exploitent la puissance de traitement des processeurs graphiques nVidia Tesla pour des millions d'applications telles que le traitement d'images et de vidéos, la biologie et la chimie computationnelles, la simulation de la dynamique des fluides, la reconstruction d'images CT, l'analyse sismique, le ray tracing, et bien plus encore.

Au fur et à mesure que l'informatique évolue et que le traitement passe du CPU au co-traitement entre le CPU et le GPU, NVIDIA a inventé l'architecture informatique parallèle CUDA afin d'exploiter les avantages en termes de performances.

Contactez les experts en informatique GPU de Broadberry pour en savoir plus.


Accélérer la découverte scientifique, visualiser les données volumineuses pour en tirer des enseignements et fournir des services intelligents aux consommateurs sont des défis quotidiens pour les chercheurs et les ingénieurs. La résolution de ces défis nécessite des simulations de plus en plus complexes et précises, le traitement d'énormes quantités de données ou l'entraînement de réseaux d'apprentissage profond sophistiqués. Ces charges de travail nécessitent également l'accélération des centres de données pour répondre à la demande croissante de calcul exponentiel.

NVIDIA Tesla est la première plate-forme mondiale pour les centres de données accélérés, déployée par certains des plus grands centres de supercalcul et entreprises du monde. Elle associe des accélérateurs GPU, des systèmes informatiques accélérés, des technologies d'interconnexion, des outils de développement et des applications pour accélérer les découvertes scientifiques et la compréhension du Big Data.

Au cœur de la plate-forme NVIDIA Tesla se trouvent les accélérateurs de GPU massivement parallèles qui permettent d'augmenter considérablement le débit des charges de travail intensives, sans augmenter le budget énergétique et l'empreinte physique des centres de données.


Broadberry Celebrating Over 30 Years.


Engineer performing test.Notre Procédure de Tests rigoureuse

Avant de quitter nos ateliers, toutes les solutions de serveur et de stockage Broadberry sont soumises à une procédure de test rigoureuse de 48 heures. Ceci, associé à un choix de composants de haute qualité, garantit que toutes nos serveurs et solutions de stockage répondent aux normes de qualité les plus strictes qui nous sont imposées.


Broadberry professional.Une Flexibilité Inégalée

Notre principal objectif est d'offrir des serveurs et des solutions de stockage de la plus haute qualité. Nous comprenons que chaque entreprise a des exigences différentes et sommes en mesure d'offrir une flexibilité inégalée dans la personnalisation et la conception de serveurs et de solutions de stockage.

Les Plus Grandes Marques nous font Confiance

Nous nous sommes imposés comme un incontournable fournisseur de stockage en Europe et fournissons depuis 1989 nos solutions de serveurs et de stockage aux plus grandes marques mondiales. Quelques exemples de clients :

NASA, BBC, ITV, SONY, SKY, Disney, Google logos.