Advertisements

Qu’est-ce que le edge computing ? Tout comprendre à cette nouvelle technologie

Spread the love

Fournisseurs de services en mode cloud, où l’infrastructure des clients peut être virtualisée dans une certaine mesure, et où les services et les applications sont fournis sur la base de l’utilisation, ce qui permet de comptabiliser les opérations comme des dépenses opérationnelles plutôt que comme des dépenses d’investissement (opex vs capex).
Les architectes de edge computing chercheraient à ajouter leur conception à cette liste en tant que quatrième catégorie : une catégorie qui tire parti de la portabilité des installations conteneurisées avec des serveurs plus petits et plus modulaires, afin de réduire les distances entre le point de traitement et le point de consommation des fonctionnalités du réseau. Si leurs plans se réalisent, ils cherchent à accomplir ce qui suit :

Avantages potentiels du edge computing

  • Une latence minimale. Le problème avec les services de cloud computing aujourd’hui est qu’ils sont lents, en particulier pour les charges de travail d’intelligence artificielle. Cela qui rend le cloud inutilisable pour des applications telles que les prévisions en temps réel des marchés des valeurs mobilières ou le pilotage des véhicules autonomes.
    Les processeurs situés dans de petits centres de données au plus proche de l’endroit où ils sont utilisés, pourraient ouvrir de nouveaux marchés pour les services informatiques que les fournisseurs de cloud n’ont pas été en mesure d’aborder jusqu’à présent. Dans un scénario d’IdO, où des grappes d’appareils de collecte de données autonomes sont largement distribuées, le fait d’avoir des processeurs plus proches de ces grappes d’appareils pourrait améliorer considérablement le temps de traitement, rendant l’analyse en temps réel possible à un niveau beaucoup plus granulaire.
  • Une maintenance simplifiée. Pour une entreprise qui n’a pas de difficultés à envoyer une flotte de véhicules de maintenance sur le terrain, les micro-centres de données (µDC) sont conçus pour une accessibilité maximale, avec une modularité et un degré raisonnable de portabilité. Il s’agit de boîtiers compacts, dont certains sont assez petits pour tenir à l’arrière d’une camionnette, qui peuvent prendre en charge juste assez de serveurs pour héberger des fonctions critiques, et qui peuvent être déployés plus près de leurs utilisateurs.

    Il est concevable que pour un bâtiment qui abrite, alimente et refroidit actuellement son centre de données dans son sous-sol, le remplacement de l’ensemble de cette opération par trois ou quatre µDC quelque part dans le parking pourrait en fait constituer une amélioration.

  • Un refroidissement moins cher. Pour les grands des centres de données, le coût mensuel de l’électricité utilisée pour le refroidissement peut facilement dépasser le coût de l’électricité utilisée pour le traitement. Le rapport entre les deux est appelé efficacité de l’utilisation de l’énergie (PUE – power usage effectiveness). C’est la mesure de référence de l’efficacité des centres de données (bien que ces dernières années, des enquêtes ont montré que certains opérateurs informatiques ne savent pas ce que ce ratio signifie réellement).

    Théoriquement, il peut être moins coûteux pour une entreprise de refroidir et de conditionner plusieurs petits espaces de centre de données qu’un seul grand. De plus, en raison de la manière particulière dont certaines fournisseurs d’électricité gèrent la facturation, le coût par kilowatt peut baisser pour les mêmes baies de serveurs hébergées dans plusieurs petites installations plutôt que dans une grande.

    Un livre blanc publié en 2017 par Schneider Electric [PDF] a évalué tous les coûts liés à la construction de centres de données traditionnels et de micro centres de données. Alors qu’une entreprise pourrait engager un peu moins de 7 millions de dollars en dépenses d’investissement pour la construction d’une installation traditionnelle de 1 MW, elle dépenserait un peu plus de 4 millions de dollars pour faciliter la mise en place de 200 installations de 5 KW.

  • Un dispositif écologique ? Il y a toujours eu un certain attrait écologique à l’idée de distribuer la puissance de calcul aux clients sur une zone géographique plus large, par opposition à la centralisation de cette puissance dans des installations gigantesques, et au recours à des liens en fibre optique.

    Le marketing initial du edge computing repose sur l’impression de bon sens selon laquelle les petites installations consomment moins d’énergie, même collectivement. Mais il est véritablement difficile de savoir si cela est scientifiquement avéré. Une étude réalisée en 2018 par des chercheurs de l’Université technique de Kosice, en Slovaquie [PDF], utilisant des déploiements simulés de edge computing dans un scénario d’IdO, a conclu que l’efficacité énergétique du edge computing dépend presque entièrement de la précision et de l’efficacité des calculs qui y sont effectués. Les frais généraux engendrés par des calculs inefficaces, ont-ils constaté, seraient en fait amplifiés.

Si tout cela semble être un système trop complexe pour être réalisable, il faut garder à l’esprit que dans sa forme actuelle, le modèle de cloud computing public pourrait ne pas être viable à long terme. Selon ce modèle, les abonnés continueraient à faire passer des applications, des flux de données et des flux de contenu par des tuyaux reliés à des mega datacenter dont les zones de service englobent des états, des provinces et des pays entiers.

Les pièges potentiels du edge computing

Néanmoins, un monde informatique entièrement reconstruit sur le edge computing est à peu près aussi illusoire, et éloigné, qu’un monde sans pétrole. À court terme, le modèle du edge computing se heurte à des obstacles importants, dont plusieurs ne seront pas simples à surmonter :

  • Disponibilité de la puissance électrique nécessaire. Les serveurs capables de fournir des services à distance de type “cloud” à des entreprises, quel que soit leur emplacement, ont besoin de gros processeurs et de systèmes de stockage de données in-memory, pour permettre la multilocalisation. Ils devront aussi probablement être alimentés par électricité triphasée. Et cela est difficile, voire impossible, dans les zones rurales.

    Et les stations de base des opérateurs de télécommunications n’ont jamais eu besoin de ce niveau de puissance jusqu’à présent. La seule raison de moderniser le système d’alimentation serait que le edge computing soit viable.

  • Passer au network slicing. Pour que le passage à la 5G soit envisageable, les opérateurs de télécommunications doivent tirer des revenus supplémentaires du edge computing. L’idée de lier l’évolution du edge computing à la 5G est née de l’idée que les fonctions commerciales et opérationnelles pouvaient coexister sur les mêmes serveurs – un concept introduit par le Central Office Re-architected as a Datacenter (CORD) (initialement “Re-imagined”), dont une forme est maintenant considérée comme un facilitateur clé de la 5G.

    Le problème est qu’il n’est peut-être même pas juridiquement valide que les opérations du réseau de télécommunications cohabitent avec les fonctions destinées aux clients sur les mêmes systèmes – les réponses dépendent de la capacité du législateur à comprendre la nouvelle définition des “systèmes”. Jusqu’à ce jour (s’il arrive un jour), le 3GPP (l’organisation industrielle qui régit les normes 5G) a adopté un concept appelé “découpage du réseau” (network slicing), qui est un moyen de découper les serveurs des réseaux de télécommunications en serveurs virtuels à un niveau très bas, avec une séparation beaucoup plus grande que dans un environnement de virtualisation typique comme VMware.

    Il est concevable qu’une tranche de réseau orientée vers les besoins clients puisse être déployée pour faire du edge computing sur les réseaux de télécommunications. Toutefois, certaines grandes entreprises préfèrent prendre en charge leur propre network slicing, même si cela implique de les déployer dans leurs propres locaux – en déplaçant le edge computing dans leurs propres locaux – plutôt que d’investir dans un nouveau système dont la proposition de valeur repose largement sur l’espoir.

  • Des opérateurs telco qui vont se défendre contre les nouveaux entrants (qui sont leurs clients). Si le réseau d’accès radio 5G (RAN – radio access network) et les câbles de fibre optique qui y sont reliés doivent être mis à profit pour les services commerciaux, une passerelle doit être mise en place pour faire passer le trafic des clients privés vers celui du trafic des opérateurs télécoms. L’architecture d’une telle passerelle existe déjà [PDF], et a été formellement adoptée par le 3GPP. Elle s’appelle local breakout, et fait également partie de la déclaration officielle de l’organisme de normalisation ETSI sur le edge computing multi-accès (MEC – multi-access edge computing).

    Techniquement, ce problème a donc été résolu. Le problème, c’est que certains opérateurs de télécommunications peuvent avoir intérêt à empêcher la mise en place de ce système pour des raisons économiques. Et de privilégier de fait l’hébergement de ces données vers leurs propres datacenters.

    La topologie actuelle du réseau Internet comporte trois niveaux : les fournisseurs de services de niveau 1 n’échangent que des informations entre eux, tandis que les fournisseurs de services Internet de niveau 2 sont généralement en contact avec les clients. Le troisième niveau permet aux petits fournisseurs de services Internet d’intervenir à un niveau plus local. Le edge computing à l’échelle mondiale pourrait devenir le catalyseur de services de type cloud public proposés par les FAI au niveau local. Mais cela suppose que les opérateurs de télécommunications, qui gèrent le niveau 2, soient prêts à laisser le trafic réseau entrant se répartir sur un troisième niveau, permettant ainsi une concurrence sur un marché qu’ils pourraient très facilement revendiquer pour eux-mêmes.

Si la localisation des données importe pour l’entreprise, la nature hyperscale, centralisée et gourmande en énergie des centres de données du cloud peut finir par jouer contre elles, car des modèles d’exploitation plus petits, plus agiles et plus rentables apparaissent dans des lieux plus largement distribués.

“Je pense que les déploiements du edge computing est intéressant” fait remarquer Kurt Marko, directeur de la société d’analyse technologique Marko Insights, dans une note adressée à ZDNet, “et est principalement motivé par la nécessité de traiter des quantités massives de données générées par des appareils et des capteurs. En effet, les débits de données des réseaux 5G, ainsi que l’utilisation croissante des données par les clients, exigeront des stations de base mobiles qu’elles deviennent des mini-centres de données”.

Que signifie “edge computing” ?

Dans tout réseau de télécommunications, la périphérie est le point le plus éloigné des installations et de ses services fournis aux clients. Dans le contexte du edge computing, la périphérie est l’endroit où les serveurs peuvent fournir des fonctionnalités aux clients le plus rapidement possible.

Comment les CDN ont ouvert la voie


Diagramme de la relation entre les centres de données et les appareils IoT, tel que décrit par l’Industrial Internet Consortium.

En ce qui concerne l’internet, les données sont collectées à partir de serveurs multiples, et sont convoyées vers le centre de données pour y être traitées. Les CDN accélèrent ce processus en agissant comme des “stations de pompage” pour les utilisateurs. Le cycle de vie typique des services réseau implique ce processus “aller-retour”, où les données sont effectivement extraites, expédiées, raffinées et réexpédiées. Et, comme dans tout processus qui implique la logistique, le transport prend du temps.

ntt-cdn-diagram.jpg

Schéma de fonctionnement des serveurs CDN dans le processus de livraison des données. NTT

Ce schéma simplifié de NTT montre des serveurs CDN s’injectant entre le point d’accès aux données et les utilisateurs. Du point de vue des producteurs de données ou de contenu, par opposition aux acteurs de la livraison, les CDN se situent vers la fin de la chaîne d’approvisionnement – l’avant-dernière étape en fait avant que les données ne parviennent à l’utilisateur.

Au cours de la dernière décennie, les principaux fournisseurs de CDN ont commencé à introduire des services informatiques qui résident au niveau du point de livraison. Imaginez qu’une station-service puisse être sa propre raffinerie, et vous comprenez l’idée. La proposition de valeur de ce service dépend de la perception que les CDN ne sont pas au centre, mais à la périphérie du système. Il permet à certaines données de contourner le besoin de transport longue distance.

La tendance à la décentralisation

Si les CDN n’ont pas encore prouvé l’efficacité du edge computing, ils ont au moins démontré sa valeur business : les entreprises paient pour faire traiter certaines données avant qu’elles n’atteignent le centre, ou “noyau”, du réseau.

“Nous avons connu une assez longue période de centralisation” explique Matt Baker, vice-président senior de Dell Technologies. “Alors que l’on cherche à offrir des expériences numériques en temps réel de plus en plus nombreuses grâce à ses initiatives de transformation numérique, la capacité à conserver cette approche hautement centralisée de l’informatique commence à se fracturer”.

Le edge computing est présenté comme l’un des nouveaux marchés lucratifs rendus possibles par la technologie 5G. Pour que la transition de la 4G à la 5G soit économiquement réalisable pour de nombreuses entreprises de télécommunications, la nouvelle génération doit ouvrir de nouveaux canaux de revenus. La 5G nécessite un nouveau et vaste réseau de connexions (ironiquement) câblées en fibre optique pour fournir aux émetteurs et aux stations de base un accès instantané aux données numériques (le backhaul).

Par conséquent, une nouvelle catégorie de fournisseurs de services informatiques a l’opportunité de déployer plusieurs µDC adjacents aux RAN, peut-être à côté des stations de base des opérateurs de télécommunications ou partageant le même bâtiment avec elles. Ces centres de données pourraient offrir des services d’informatique de cloud à des clients sélectionnés, à des tarifs compétitifs et avec des caractéristiques comparables à ceux des fournisseurs d’informatique de cloud à grande échelle tels qu’Amazon, Microsoft Azure et Google Cloud Platform.

Dans l’idéal, peut-être après une dizaine d’années d’évolution, le edge computing apporterait des services rapides aux clients situés près de leurs stations de base. Nous aurions besoin d’énormes tuyaux en fibre optique pour fournir le backhaul nécessaire, mais les revenus des services du edge computing pourraient en théorie financer leur construction, ce qui permettrait de les rentabiliser.

Objectifs de niveau de service

En dernière analyse, le succès ou l’échec des centres de données du edge computing sera déterminé par la capacité à atteindre les objectifs de niveau de service (SLO – service level objective). Ce sont les attentes des clients qui paient pour les services, telles qu’elles sont codifiées dans leurs contrats de service. Les ingénieurs disposent de mesures qu’ils utilisent pour enregistrer et analyser les performances des composants du réseau. Les clients ont tendance à éviter ces mesures, préférant privilégier les performances observables de leurs applications. Si un déploiement en périphérie n’est pas sensiblement plus rapide qu’un déploiement à grande échelle, alors le edge computing est mort.

“Qu’est-ce qui nous intéresse ? C’est le temps de réponse des applications” explique Tom Gillis, vice-président senior de VMware. “Si nous pouvons caractériser la façon dont l’application répond, et examiner les composants individuels qui travaillent pour fournir cette réponse, nous pouvons réellement commencer à créer une infrastructure auto-réparatrice”.

La réduction de la latence et l’amélioration de la vitesse de traitement devraient jouer en faveur des SLO. Certains soulignent comment la large répartition des ressources sur une zone contribue à la redondance des services et même à la continuité des activités – qui, au moins jusqu’à la pandémie, étaient perçues comme des événements d’un ou deux jours, suivis de périodes de récupération.

Mais il y aura des facteurs d’équilibre, dont l’entretien et la maintenance. Un centre de données de niveau 2 typique peut être entretenu, dans des circonstances d’urgence (comme une pandémie), par seulement deux personnes sur place, avec du personnel de soutien hors site. Un µDC est conçu pour fonctionner sans être constamment maintenu par du personnel. Ses fonctions de surveillance intégrées envoient en permanence des données télémétriques à un centre central, qui pourrait théoriquement se trouver dans le cloud public. Tant qu’un µDC rencontre ses SLO, il n’est pas nécessaire de le suivre du point de vue de l’entretien.

C’est là que la viabilité du modèle edge computing doit encore être testée de manière approfondie. Dans le cadre d’un contrat type de fournisseur de centre de données, un SLO est souvent mesuré à la rapidité avec laquelle le personnel du fournisseur peut résoudre un problème en suspens. En général, les délais de résolution peuvent rester faibles lorsque le personnel n’a pas à se déplacer par la route. Si un modèle de déploiement de edge computing doit être compétitif par rapport à un modèle de déploiement en colocation, ses capacités de résolution automatisée ont intérêt à être très bonnes.

Le réseau réparti sur plusieurs niveaux

Les fournisseurs de stockage de données et les fournisseurs de services d’Internet des objets (IoT), les fabricants de serveurs et les fabricants de boîtiers de serveurs, pavent tous la voie entre leurs clients et le edge computing.

Ce qu’ils recherchent tous en réalité, c’est un avantage concurrentiel. L’idée d’un avantage fait renaître l’espoir dans les perspectives d’un service premium – une raison solide et justifiable pour proposer des tarifs différenciés. Si vous avez lu ou entendu dire ailleurs que le edge computing va avaler tout le cloud computing, vous comprenez peut-être maintenant que cela n’a pas beaucoup de sens. Si tout était premium, rien ne le serait.

“Le edge computing va être la solution technologique parfaite, et les investisseurs en capital-risque disent que ce sera un marché technologique de plusieurs milliards de dollars” fait remarquer Kevin Brown, directeur technique de Schneider Electric. “Mais personne ne sait vraiment ce que c’est”.

190227-schneider-edge-10-kevin-brown.jpg

Kevin Brown de Schneider Electric : le edge computing, “personne ne sait vraiment ce que c’est”.

Kevin Brown reconnaît que le edge computing a une filiation avec les CDN, tels qu’Akamai. Mais il ajoute : “Vous avez surtout des couches différentes – HPE a sa version, Cisco a la sienne… Cela n’a pas de sens. Notre vision du edge computing est vraiment très simplifiée. À l’avenir, il y aura trois types de centres de données dans le monde”.

Pour lui, le futur de l’internet dans une perspective edge computing possède trois niveaux. Dans le modèle traditionnel à deux niveaux, les nœuds de niveau 1 sont limités à l’échange de trafic avec d’autres nœuds de niveau 1, tandis que les nœuds de niveau 2 gèrent la distribution des données au niveau régional. Depuis les débuts de l’internet, il existe une désignation pour le niveau 3 – pour un accès à un niveau beaucoup plus local. (Comparez cela avec le schéma du RAN, dont la distribution du trafic est à un seul niveau).

“Le premier point que vous connectez au réseau, c’est vraiment ce que nous considérons comme le edge local” explique M. Brown. En se basant sur la technologie actuelle il dit que l’on peut trouver l’une des installations du edge computing dans n’importe quel serveur rangé dans un rack. “Pour nos besoins”, a-t-il poursuivi, “nous pensons que c’est là que se situe l’action”.

“Pendant des années, le edge était proposé par des opérateurs de niveau 1, comme Equinix et CoreSite. Ils connectaient leurs réseaux l’un à l’autre et considéraient cela comme du edge” explique Wen Temitim, directeur technique de StackPath, un fournisseur de services de edge computing. “Mais ce que nous voyons, avec tous les changements d’utilisation basés sur le comportement des consommateurs, et avec le COVID-19 et le travail à domicile, c’est une nouvelle frontière plus pertinente pour les fournisseurs de services”.

Mettre le edge computing sur une carte

Le edge computing peut être considéré comme un effort pour ramener la qualité de service (QoS) dans le débat sur l’architecture et les services des centres de données, car les entreprises décident non seulement qui fournira leurs services, mais aussi où.

L’avantage de la technologie opérationnelle pour le edge computing

Le fabricant d’équipements pour centres de données HPE – un investisseur majeur dans le edge computing – pense que le prochain pas de géant dans l’infrastructure sera coordonné et dirigé par des personnels de la DSI qui n’ont peut-être pas beaucoup, voire pas du tout de formation en matière de matériel et d’infrastructure. Des personnes qui, jusqu’à présent, ont été chargés de la maintenance, de l’entretien et du support logiciel. HPE appelle la compétence de cette catégorie de personnel technologie opérationnelle (OT). Contrairement à ceux qui perçoivent l’avenir de l’informatique de manière convergente via le DevOps, HPE perçoit trois classes de clients pour le edge computing. Non seulement chacune de ces classes maintiendra sa propre plateforme de edge computing, mais la géographie de ces plateformes sera aussi séparée les unes des autres, et non pas convergente, comme le montre ce diagramme de HPE.

 
La classe OT désigne ici les clients les plus susceptibles d’affecter au edge computing des responsables qui ont une expérience moins directe de l’informatique, principalement parce que leurs principaux produits ne sont pas l’information ou les communications elles-mêmes. Cette classe se voit attribuer un “edge OT”. Lorsqu’une entreprise a un investissement plus direct dans l’information en tant qu’industrie, ou dépend largement de l’information en tant que composante de son activité, HPE lui attribue un “avantage informatique”. Entre les deux, pour les entreprises qui sont géographiquement dispersées et qui dépendent de la logistique (où l’information a une composante plus logique) et donc de l’Internet des objets, HPE lui attribue un “avantage IoT”.

Le réseau tripartite de Dell

dell-edge-core-cloud-diagram.jpg

En 2017, Dell Technologies a proposé pour la première fois sa topologie à trois niveaux pour le marché informatique, en le divisant en “cœur”, “nuage” et “edge”. Comme l’indique cette diapositive tirée d’une des premières présentations de Dell, cette division semblait radicalement simple, du moins au début : Les actifs informatiques de tout client pourraient être divisés, respectivement, en 1) ce qu’il possède et entretient avec son propre personnel ; 2) ce qu’il délègue à un fournisseur de services ; et 3) ce qu’il distribue en dehors de ses installations sur le terrain, pour être entretenu par des professionnels des opérations (qui peuvent ou non être externalisés).

Dans une présentation de novembre 2018 pour la Linux Foundation’s Embedded Linux Conference Europe, le directeur technique de l’IdO et du edge computing Jason Shepherd a présenté ce cas simple : Comme de nombreux appareils et dispositifs sont prévus pour l’IdO, il sera technologiquement impossible de centraliser leur gestion, y compris si nous faisons appel au cloud public.

“Ma femme et moi avons trois chats”, a déclaré Shepherd à son auditoire. “Nous avons des capacités de stockage de plus en plus importantes sur nos téléphones, ce qui nous permet d’envoyer et de recevoir des vidéos de chats”.

 

“Les vidéos de chats expliquent la nécessité du edge computing”, a-t-il poursuivi. “Si je mets une de mes vidéos en ligne et qu’elle commence à être consultée, je dois la mettre en cache sur d’autres serveurs, dans le cloud. Si elle devient virale, alors je dois déplacer ce contenu le plus près possible des abonnés auxquels je peux l’envoyer. En tant qu’opérateur telco, ou en tant que Netflix ou autre, le mieux que je puisse faire est de me rapprocher du cloud, au bas de mes antennes de téléphonie mobile. C’est le concept de MEC, Multi-access Edge Computing : rapprocher le contenu des abonnés.

Advertisements

Leave a Reply