AWS : les instances EC2 G4 disponibles pour le Machine Learning et les travaux graphiques
Amazon Web Services a annoncé vendredi la disponibilité générale des instances G4 d’Elastic Compute Cloud (EC2). Avec les GPU Nvidia T4 Tensor Core, ces instances de cloud sont optimisées pour accélérer l’inférence d’apprentissage machine et les charges de travail à forte intensité graphique.
Amazon a présenté en avant-première ces instances G4 aux côtés de Nvidia en mars. Nvidia a également annoncé à l’époque que les GPU T4 sont proposées par Cisco, Dell EMC, Fujitsu, HPE et Lenovo. En janvier dernier, Google a commencé à proposer des GPU T4 sur la plate-forme Google Cloud en version bêta.
Les GPU T4 peuvent être utiles pour exécuter des applications d’apprentissage automatique (Machine Learning), telles que l’ajout de métadonnées à une image, la détection d’objets, les systèmes de recommandation, la reconnaissance vocale automatisée ou la traduction linguistique. Elles constituent également une plate-forme économique pour la création et l’exécution d’applications à forte intensité graphique, le transcodage vidéo ou la conception photo-réaliste.
Disponibilité en Europe
Avec la dernière génération de GPU T4, les instances G4 d’Amazon disposent de processeurs Intel Xeon Scalable de 2ème génération, jusqu’à 100 Gbps de débit réseau, et jusqu’à 1,8 To de stockage NVMe en local. Dans les semaines à venir, les instances G4 supporteront Amazon Elastic Inference, permettant aux développeurs de réduire les coûts en fournissant la bonne quantité de performances GPU pour leurs charges de travail.
Les instances G4 sont disponibles dans les régions de l’est et de l’ouest des États-Unis, de l’Europe (Francfort, Irlande, Londres) et de l’Asie Pacifique (Séoul et Tokyo). D’autres régions étant prévues dans les mois qui viennent.
Article “AWS brings EC2 G4 instances into general availability” traduit et adapté par ZDNet.fr