5 tendances technologiques qui affecteront les infrastructures numériques en 2021

Justin Dustzadeh
5 tendances technologiques qui affecteront les infrastructures numériques en 2021

Prévoir les tendances technologiques est un exercice difficile, surtout après une période marquée par une série de bouleversements imprévus au niveau mondial. En 2020, une année tout sauf habituelle, les événements ont permis d’effectuer l’équivalent de plusieurs années de transformation numérique en seulement quelques mois. Résultat, nos modes de vie et de travail ont été profondément et durablement affectés. Dans tous les secteurs d’activité, la COVID-19 a forcé les entreprises à passer au numérique sans délai. Elle a également mis en évidence le rôle essentiel que jouent l’infrastructure et la technologie numériques dans la réussite des entreprises.

Nos experts se sont récemment réunis pour déterminer quelles seront les principales tendances en matière de technologie et d’infrastructure numériques pour l’année à venir et au-delà. Voici ce que nous prévoyons :

L’infrastructure cloud-native s’imposera

Chacun sait que les infrastructures traditionnelles n’ont pas été conçues pour répondre aux exigences des entreprises numériques actuelles.

Les entreprises numériques reposent de plus en plus sur des piles logicielles modernes et sur l’utilisation intensive de technologies open source et cloud-native. Le terme « cloud-native » désigne une approche de développement logiciel qui encourage, d’une part, le recours aux technologies et principes du cloud computing, à savoir les microservices, l’approche centrée sur les API, les conteneurs et le DevOps, et d’autre part, les capacités associées, notamment l’orchestration des conteneurs (Kubernetes), le maillage des services (Istio) et l’infrastructure immuable.

Ensemble, ces technologies permettent aux entreprises de créer, d’exécuter et d’orchestrer rapidement des applications évolutives pouvant être distribuées et déployées dans le monde entier, le plus souvent au moyen d’une architecture multicloud hybride. Ces déploiements distribués, qui sont soumis à des exigences de plus en plus strictes en matière de temps de latence, de disponibilité, de performance et de flexibilité, reposent en grande partie sur une infrastructure proposant des fonctions d’auto-provisionnement, d’auto-dimensionnement et d’auto-réparation par voie logicielle.

Aujourd’hui, l’infrastructure numérique est plus importante que jamais. L’équivalent de plusieurs années de transformation numérique vient d’être effectué en seulement quelques mois, une tendance qui ne devrait cesser de se renforcer. IDC prévoit que « [d]’ici fin 2021, sur la base des leçons tirées, 80 % des entreprises feront le nécessaire pour passer à une infrastructure et à des applications centrées sur le cloud deux fois plus vite qu’avant la pandémie. »[i]

Cette évolution marque un tournant majeur vis-à-vis des infrastructures traditionnelles.

L’infrastructure numérique moderne (datacentres, réseau et matériel) doit être entièrement abstraite par le biais d’API et orchestrée par le biais de logiciels. Cette approche permet aux développeurs d’applications de déployer et de gérer une infrastructure distribuée à la vitesse du logiciel, afin de se concentrer sur l’essentiel, c’est-à-dire innover et créer des applications remarquables. De telles abstractions nécessitent de pouvoir suivre l’état de l’infrastructure en temps réel et de mettre au point des interfaces programmatiques permettant de spécifier l’état souhaité, pour tout composant ou tout ensemble de composants, de bout en bout, de l’edge au multicloud.

Avec un tel cadre en place, déployer et gérer une infrastructure distribuée revient à mettre en place un système distribué adaptatif en circuit fermé. Or, la seule façon d’y parvenir efficacement à grande échelle est de recourir à des logiciels et à des technologies open source.

Dans le domaine des infrastructures définies par logiciel, nous pensons que tout ce qui peut être automatisé doit l’être par voie logicielle. La capacité à virtualiser et/ou à conteneuriser et à abstraire les charges de travail des dispositifs physiques sous-jacents a donné naissance à de nouveaux paradigmes, notamment l’infrastructure en tant que code et l’infrastructure immuable. Ces modèles favorisent le déploiement rapide des ressources d’infrastructure et accélèrent les délais de mise en œuvre, en particulier dans les environnements multicloud hybrides.

L’année 2021 sera marquée par la multiplication et l’adoption accélérée des technologies cloud-native, aussi bien au niveau de la pile d’infrastructure numérique que de son orchestration entre l’edge et le multicloud.

Découvrir comment les leaders du numérique se préparent à l'avenir

GXI Vol. 4 rend compte des évolutions de l'économie numérique et de leurs impacts sur le commerce numérique. Découvrez comment les leaders tirent parti de leur infrastructure numérique pour stimuler la croissance et se positionner sur les zones géographiques les plus dynamiques. Optez pour l'interconnexion pour rester compétitif.

En savoir plus
Stunning aerial view at night of the very crowded Hong Kong island streets, Shot above the Sai Yin Pun district

Le paradigme orienté edge stimulera l’innovation

Selon les éminents vice-présidents et analystes Nick Jones et David Cearley de Gartner, « d’ici 2023, plus de 50 % des données générées par les entreprises seront créées et traitées en dehors des datacentres ou du cloud, contre moins de 10 % en 2019. » [ii]Dans un monde où les sphères personnelle et professionnelle sont de plus en plus orientées edge, l’infrastructure informatique continue de se déplacer à un rythme sans précédent, des datacentres centralisés vers des sites distribués et interconnectés à la périphérie du réseau, à proximité de là où les données sont créées et consommées.

Qu’il s’agisse de vidéoconférence, d’outils de collaboration, de streaming, de jeux ou encore de covoiturage, les applications modernes sont de plus en plus conçues de A à Z pour être déployées de manière automatisée et souple en mode edge. C’est à la périphérie que de grandes quantités de données provenant de nombreuses sources doivent être traitées rapidement. C’est également là qu’une multitude d’applications et de microservices doivent s’interconnecter avec un faible temps de latence afin d’offrir la meilleure expérience utilisateur possible. Déployer des applications distribuées sur plusieurs sites et niveaux d’infrastructure, de la périphérie au multicloud, nécessite une compréhension et une évaluation minutieuses des concessions qui s’imposent en matière d’architecture, notamment la conception des zones de disponibilité, les maillages de services distribués, la gestion du trafic, les pipelines de données, la sécurité, la mise en cache et la gestion des états (avec état vs sans état).

En outre, le déplacement de l’infrastructure informatique et des données vers la périphérie est appelé à susciter de nouvelles contraintes spécifiques. Parmi celles-ci, on peut citer les exigences de capacité et de disponibilité liées à la couverture, à l’alimentation, au réseau, et au matériel de calcul et de stockage, mais aussi les besoins en matière de modularité, d’extensibilité et de multi-hébergement, ou encore l’automatisation complète des opérations (NoOps) et les zones de disponibilité couvrant plusieurs datacentres. Ces éléments, et bien d’autres encore, devront être bien compris et optimisés simultanément.

En 2021, nous assisterons donc à une vague de déploiements orientés edge ainsi que d’innovations technologiques au niveau de la pile d’infrastructure, alors que les entreprises cherchent à dimensionner et à orchestrer leur infrastructure distribuée de manière simple et fiable à la périphérie du réseau.

La 5G sera alimentée par une infrastructure edge stratégique

La 5G constitue un tournant technologique majeur. Nous pensons qu’avec le temps, la 5G sera au sans fil ce que le haut débit était aux réseaux filaires.

En 2021, les entreprises n’auront d’autre choix que d’intégrer la 5G dans leurs projets de déploiement d’infrastructure. Or, pour en exploiter toute la puissance, elles devront disposer d’une infrastructure physique s’étendant de manière efficace jusqu’à la périphérie du réseau. Elles devront ainsi placer les applications et les environnements informatiques « fixes » à proximité des points d’accès 5G, mais aussi les fonctions de base au sein de datacentres fortement interconnectés à proximité du cloud. L’association de la nouvelle infrastructure numérique et des datacentres macro-edge existants constituera un puissant modèle architectural caractérisé par d’énormes quantités de données et des ressources informatiques distribuées assorties d’un temps de disponibilité record. Cela permettra de développer de nouveaux paradigmes informatiques afin de répondre à des besoins qui jusque-là étaient incapables de bénéficier de ces avancées.

En tant que technologie d’accès réseau, la 5G renforcera la couverture, la fiabilité, la bande passante et la sécurité. Elle offrira un service disponible partout et à tout moment, assorti de capacités et de performances nettement meilleures, notamment des débits 100 fois supérieurs (plusieurs Gbit/s), un temps de latence ultra faible (moins d’1 ms) au réseau d’accès radio et une densité d’appareils élevée. Ces capacités sont appelées à ouvrir de nouvelles perspectives et de nouvelles possibilités dans les domaines de la robotique, des drones, des véhicules autonomes, de la télémédecine et de l’Internet tactile notamment.

Cela dit, concrétiser les promesses de la 5G ne sera pas chose facile. Alors que le déploiement de la 5G se poursuit à travers le monde, son succès reposera de plus en plus sur la création d’un riche écosystème numérique de producteurs et de consommateurs, ainsi que sur l’optimisation de la fonction multivariable du socle infrastructurel sous-jacent (spectre, réseau d’accès radio, datacentres edge, réseaux de transport, matériel et interconnexion).

Aujourd’hui aux États-Unis, près de 80 % de la population urbaine/métropolitaine peut être raccordée aux datacentres Equinix avec un délai d’aller-retour inférieur à 10 millisecondes. Le fait que ces campus de datacentres macro-edge soient fortement interconnectés aux clouds publics, aux fournisseurs de services cloud, aux fournisseurs de contenu et aux entreprises permet non seulement de répartir le trafic 5G directement et localement, mais aussi à l’écosystème « côté fixe » de se connecter efficacement au réseau 5G.

Le découpage réseau est une fonction particulièrement intéressante de la 5G en ce qui concerne la prise en charge de nouveaux modèles économiques et cas d’utilisation. En effet, elle permet aux architectes d’établir et de gérer l’interconnexion entre différents composants sur un même réseau physique pour des besoins spécifiques (temps de latence, débit ou sécurité, par exemple). Les applications 5G devront s’interconnecter à des ressources réparties sur Internet, dans les clouds publics ou privés et les charges de travail edge, de préférence à proximité de la fonction UPF (User Plan Function).

Avant de pouvoir mettre en œuvre les cas d’utilisation avancées de la 5G à grande échelle, il faudra avant tout remanier profondément l’infrastructure sous-jacente. C’est pourquoi Equinix préconise de commencer par les points suivants : exploiter les capacités et la couverture de l’infrastructure existante, identifier les applications futures susceptibles de bénéficier d’un éventuel déploiement de l’infrastructure physique au sein de sites neutres et multi-tenant à la périphérie du réseau, et planifier leur mise à œuvre. Nous sommes convaincus que, dans le domaine de la 5G, les datacentres et l’infrastructure physique doivent être modernes, évolutifs, flexibles, interconnectés, neutres et multi-tenant.

L’IA sera distribuée et se déplacera vers l’edge

L’IA n’est certes pas un concept nouveau, mais grâce aux progrès réalisés en matière de machine learning et de deep learning, elle est sur le point de révolutionner pratiquement tous les secteurs d’activité, comme l’électricité l’a fait il y a une centaine d’années. Selon IDC d’ici 2022, 80 % des entreprises qui adopteront un modèle économique hybride dépenseront quatre fois plus dans les infrastructures edge sécurisées et optimisées par l’IA afin de gagner en flexibilité et d’obtenir des informations en temps réel.[iii]

La quantité de calculs utilisés dans les programmes d’entraînement d’IA les plus importants a augmenté de manière exponentielle ; à vrai dire, elle double presque tous les trois mois et demi, et l’efficacité des algorithmes double tous les 16 mois.[iv] Ces chiffres surclassent de loin le délai de doublement de deux ans établi par la loi de Moore. Une progression aussi rapide, tant en matière d’efficacité matérielle qu’algorithmique, permet d’exécuter davantage de tâches d’IA avec un matériel et des ressources de traitement réduits. Or, ce rythme d’évolution est appelé à s’intensifier à partir de 2021, l’IA se généralisant dans l’ensemble des secteurs et des entreprises.

En intelligence artificielle, la modélisation nécessite le plus souvent de recueillir et de prétraiter de grandes quantités de données. Les modèles d’entraînement sont ensuite utilisés à des fins de prédiction ou d’inférence et peuvent être affinés de manière itérative. Les systèmes d’IA sont généralement déployés dans des cloud publics, car les algorithmes et les entraînements sont plus efficaces en présence de grands volumes de données et de clusters de calcul auto-évolutifs. Toutefois, les besoins évoluent et il devient de plus en plus nécessaire de déployer l’IA de manière distribuée et à la périphérie.

Dans ces nouveaux cas de figure, des exigences strictes en matière de latence, de performance, de confidentialité et de sécurité imposent d’implanter certaines données et certains systèmes de traitement – tant pour l’inférence que pour l’entraînement – à proximité des utilisateurs, mais aussi des sources de création et de consommation des données.

L’entraînement des algorithmes d’IA à la périphérie nécessite de tenir compte de divers facteurs, notamment en matière d’alimentation, de performance, ainsi que de confidentialité, de sécurité, de gravité, d’agrégation et de simplicité des données. Il en va de même pour l’inférence, mais cette fois côté latence, disponibilité, ressources des appareils ainsi que confidentialité, sécurité et agrégation des données.

En 2021, nous assisterons à la multiplication des déploiements d’IA à la périphérie, tant à des fins d’entraînement que d’inférence, et à l’amélioration des capacités « as-a-service » en vue d’automatiser le déploiement des infrastructures et d’orchestrer les environnements IA multicloud hybrides.

Découvrir comment les leaders du numérique se préparent à l'avenir

GXI Vol. 4 rend compte des évolutions de l'économie numérique et de leurs impacts sur le commerce numérique. Découvrez comment les leaders tirent parti de leur infrastructure numérique pour stimuler la croissance et se positionner sur les zones géographiques les plus dynamiques. Optez pour l'interconnexion pour rester compétitif.

En savoir plus
Worldwide Interconnection Bandwitdth Growth CAGR 2019-2023

Les datacentres favoriseront les initiatives écologiques

Alors que la crise climatique mondiale s’aggrave, les grandes entreprises revoient leurs objectifs environnementaux afin de s’inscrire dans une démarche à impact positif plutôt que négatif. A minima, elles alignent leurs stratégies sur les objectifs de l’accord de Paris et reconnaissent l’urgence de décarboniser les économies mondiales.

IDC prévoit que « d’ici 2025, 90 % des entreprises du G2000 exigeront de leurs clients qu’ils réutilisent les matériaux entrant dans la composition du matériel informatique, disposent d’objectifs de neutralité carbone (pour les installations des fournisseurs de services) et réduisent leur consommation d’énergie. »[i]

À ce jour, de nombreux opérateurs de datacentres gèrent eux-mêmes leur consommation d’énergie et leurs émissions de carbone en concevant des installations au design innovant et en adoptant des mesures efficaces sur le plan énergétique. Plusieurs ont même été plus loin en s’engageant à utiliser 100 % d’énergie renouvelable et à atteindre la neutralité carbone à terme. Certains ont également adhéré au Pacte vert pour l’Europe, qui vise la neutralité carbone de tous les datacentres à l’horizon 2030.1 En 2021, la croissance de l’économie numérique devrait se poursuivre et s’accélérer, plaçant les datacentres dans une position charnière, avec pour obligation d’apporter une contribution positive à l’environnement.

Cette année, les opérateurs de datacentres se tourneront davantage vers les initiatives à impact positif sur l’environnement.

Les datacentres peuvent apporter une contribution positive à l’environnement de diverses manières. Ils peuvent influencer de manière indirecte le développement des plateformes d’hébergement pour qu’elles combinent avec précision prévisions météorologiques, tendances d’utilisation et demande, mais aussi des fonctionnalités telles que le délestage. Ils peuvent également faire l’objet d’initiatives plus spécifiques, notamment la mise en place de vastes systèmes de stockage d’énergie sur site afin de disposer d’une alimentation flexible et instantanée, ou encore la valorisation de la chaleur produite pour couvrir une partie de la demande énergétique locale.

Pour passer d’une approche neutre à impact positif, il faudra faire appel à la technologie, d’une part, et mettre en place des écosystèmes mondiaux et locaux d’acteurs hautement intéressés d’autre part. À long terme, la convergence de cette tendance et l’émergence d’applications nouvelle génération nécessitant des temps de latence aller-retour ultra-faibles entraîneront la délocalisation des datacentres. Les nouveaux datacentres seront en effet décentralisés et implantés au sein des communautés, et serviront d’écosystèmes résilients pour le traitement des données, la connectivité, l’alimentation et le chauffage.

Cet intérêt environnemental croissant implique de mettre en place des normes ouvertes dans le domaine des infrastructures de datacentre, depuis la conception et l’exploitation jusqu’à la gestion de l’énergie, en passant par les piles à combustible nouvelle génération et le refroidissement. Cette tendance accélérera l’innovation dans le secteur des datacentres tout en lui permettant de s’inscrire dans une démarche environnementale positive, et ce, en réduisant les obstacles considérables auxquels sont confrontés les fournisseurs d’équipements lorsqu’ils mettent au point des plateformes au service des installations de datacentre stratégiques.

La conjonction de plusieurs facteurs, notamment les progrès des technologies habilitantes (en partie grâce à des plateformes matérielles plus ouvertes et à une meilleure interopérabilité entre les fournisseurs), l’urgence croissante de la lutte contre le changement climatique grâce à la mise en place de sources d’énergie renouvelable et à leur recours dans les marchés de gros, les enjeux liés au stockage et aux nouvelles plateformes nécessitant un temps de latence de bout en bout toujours plus faible, ainsi que la nécessité de rapprocher les ressources informatiques et réseau de la périphérie, donnera naissance à une nouvelle génération de projets à impact positif dans le domaine des datacentres.

Façonner l’infrastructure numérique de demain

Même si l’on espère que 2021 nous réserve moins de surprises que 2020, il est clair qu’il est impossible de faire marche arrière. La croissance et l’accélération du numérique sont appelées à se poursuivre, obligeant les leaders du numérique à adopter les technologies et les tendances qui leur apporteront une avance significative sur la concurrence. Les chefs d’entreprise et les responsables techniques qui comprennent et adoptent ces macro-tendances seront ainsi mieux à même d’apporter leur contribution dans un monde en perpétuelle évolution.

Chez Equinix, nous aidons les leaders du numérique à mettre en place et à interconnecter leur infrastructure numérique en exploitant les technologies les plus novatrices à tous les niveaux de Platform Equinix® (datacentres, interconnexion et bare metal), et ce, de manière écoresponsable. Pour cela, nous orchestrons notamment ces capacités de bout en bout à la vitesse du logiciel, au moyen d’API, d’outils open source et de technologies cloud-native, de sorte que nos clients puissent garder une longueur d’avance aujourd’hui comme demain.

 

Pour en savoir plus sur les tendances qui stimulent la croissance numérique et sur les moyens de les exploiter, téléchargez dès maintenant l’Indice d’interconnexion mondial volume 4.

 

 

[i]. “IDC FutureScape: Worldwide IT Industry 2021 Predictions,” IDC, October 2020, Doc #US46942020.

[ii]. Nick Jones and David Cearley, “Top 10 Strategic Technology Trends for 2020: Empowered Edge,” Gartner, March 10, 2020, ID G00450640.

[iii]. “IDC FutureScape: Worldwide Future of Digital Infrastructure 2021 Predictions,” IDC, October 2020, Doc #US46470820.

[iv]. Raymond Perrault et al, “The AI Index 2019 Annual Report,” AI Index Steering Committee, Human-Centered AI Institute, Stanford University, Stanford, CA, December 2019.

Avatar photo
Justin Dustzadeh Chief Technology Officer
Subscribe to the Equinix Blog