Utilisateur:HieronymusFR/Brouillon 1

La gestion des incidents en centre de calcul est le processus utilisé pour répondre tout événement qui perturbe, ou pourrait perturber, un service informatique dans un centre regroupant des équipements constituants du système d’information. Ces processus sont pour la plupart issus d' ITIL (« Information Technology Infrastructure Library » pour « Bibliothèque pour l'infrastructure des technologies de l'information ») qui est un ensemble d'ouvrages recensant les bonnes pratiques (« best practices ») du management du système d'information.

L’enquête 2019 de l’Uptime Institute[1] indique que 34% des professionnels sondés lors de leur Annual Data Center Survey ont eu un problème ou une dégradation de service importante en 2018. Sur une période de 3 ans, ce chiffre s’élève à 50% [2].

Enjeux de la gestion des incidents en centre de calcul (Datacenter) modifier

La data étant l’un des principaux moteurs de l’activité des entreprises ; il est crucial de pouvoir y accéder à tout moment. Le Cloud fournit des ressources informatiques, logicielles ou matérielles accessibles à distance en tant que service[3]. Ces ressources sont hébergées dans des datacenters qui sont l’un des éléments nécessaires au traitement et stockage des données numériques. Concrètement, il s’agit d’un lieu physique contenant les serveurs informatiques qui stockent les données numériques, et dans lequel les entreprises peuvent notamment louer un espace de stockage et ainsi éviter la présence de serveurs dans leurs locaux [4]. La disponibilité de ces ressources se traduit par un contrat appelé Service Level Agrement (SLA) ou niveau de service. Il correspond au niveau de service garanti, c’est-à-dire aux engagements pris par le fournisseur [3]. La gestion des incidents a pour but de rétablir le service le plus rapidement possible et de réduire l’impact sur le business afin de répondre à l’accord sur les niveaux de services.

Les Data Centers concentrent de plus en plus de puissance de calcul et de stockage et deviennent critiques pour les services (au sens ITIL[5] du terme); en termes business, ce sont des (centaines) millions d’Euros qui transitent chaque jours dans ces centres.

Documents de références sur la gestion des incidents modifier

RFC 2350 modifier

En juin 1998 la publication de la RFC 2350 Expectation for Computer Security Incident Response[6] décrit pour la première fois de manière formelle l’organisation, la structure, les services et les modes opératoires d’une structure de réponse aux incidents[7].

National Institute of Standards and Technology modifier

Le NIST [8] détaille un modèle d’organisation et de traitement lui aussi basé sur le cycle de vie d’un incident dans le guide intitulé ‘Computer Security Incident Handling Guide’ initialement publié en 2004 et dont la dernière révision date de 2012[9]. Ce modèle, qui prend ses racines dans les travaux menés par l’US Navy puis par le SANS Institute [10], est semblable au modèle de l’ISO 27035:2011 au nombre de phases près, soit quatre phases sont identifiées au lieu de cinq, les deux phases post-incident de l’ISO étant regroupées en une seule :

  • la phase ‘Préparer’ (Preparation) organisée autour de deux volets : préparer et éviter les incidents ;
  • la phase ‘Détecter et Analyser’ (Detection and Analysis) contenant sept volets : les vecteurs d’attaque, les signes d’un incident, les sources d’information, l’analyse de l’incident, la documentation de l’incident, la gestion des priorités et la notification de l’incident ;
  • la phase ‘Contenir, Eradiquer et Restaurer’ (Containment, Eradication and Recovery) présentée en quatre volets : choisir une stratégie d’isolation, relever et gérer les éléments de preuve, identifier les systèmes attaquant, éradiquer et restaurer ;
  • la phase ‘Gérer l’après-incident’ (Post-Incident Activity) scindée en trois volets : les leçons acquises, l’utilisation des données collectées et la conservation des éléments de preuve. Il discerne l’existence d’un cycle entre les deux phases actives du traitement, les phases 2 et 3, lesquelles peuvent être déroulées alternativement pour affiner le traitement et ceci au fur et à mesure de la progression dans l’analyse et de la connaissance que l’on acquiert de l’incident, de ses atteintes et de ses conséquences[7].

European Union Agency for Cybersecurity modifier

Publié fin 2010 par l'ENISA [11] et en anglais uniquement, le guide ‘Good Practice Guide for Incident Management’ [12] traite de l’ensemble de la problématique de la mise en œuvre d’une structure de gestion des incidents. Il propose à ce titre, une organisation de la gestion des incidents autour des différents services susceptibles d’être offerts et dont le traitement d’un incident n’est qu’une composante. L’ENISA [11] s’inspire ici du modèle fondateur initié en 2004 par le CERT Carnegie Mellon[13] dans son document ‘Defining Incident Management Processes for CSIRTs : A Work in Progress’[14] avec une gestion en 4 phases :

  • la détection ;
  • le triage ;
  • l’analyse ;
  • la réponse.

ISO 27035 modifier

En 2016, la norme ISO/IEC 27035-1:2016 Information Security Incident Management[15] présente un modèle d’organisation de l’activité de réponse aux incidents s’appuyant sur le cycle de vie d’un incident. Celui-ci se décompose en cinq phases :

  • phase de planification et de préparation (‘Plan and prepare’) ;
  • phase de détection et de rapport (‘Detection and reporting’) ;
  • phase d’analyse et de décision (‘Assessment and decision’) ;
  • phase de réponses (‘Responses’) ;
  • phase de retour d’expérience (‘Lessons learnt’).

Information Technology Infrastructure Library modifier

Publié en 2019, la version 4 de l'Information Technology Infrastructure Library (ITIL) est un ensemble de livres présentant de nombreuses pratiques, procédures et méthodes utilisées dans la gestion des systèmes d’information. Le concept central est l’apport de valeur aux clients. La publication des premiers éléments par la CCTA[16]. date de la fin des années 1980. Depuis plusieurs versions ont été éditées : ITIL V2 (2001), ITIL V3 (2007 puis 2011), ITIL V4 (2019)[17]. Dans sa version la plus déployée (V3), la gestion des services ITIL supporte ces transformations à travers l’utilisation du cycle de vie des services qui comprend cinq étapes :

  • Stratégie des services
  • Conception des services
  • Transition des services
  • Exploitation des services
  • Amélioration continue des services

La gestion des incidents se situe au niveau de l’exploitation des services qui comprend également la gestion des événements, l'exécution des requêtes, la gestion des problèmes, la gestion des accès.

ITIL un modèle unique pour la gestion des incidents ? modifier

ITIL est largement utilisé pour la gestion des services informatiques. Mais l’évolution rapide des technologies basées sur le cloud, les nouvelles approches telles que DevOps et l’enracinement des méthodologies agiles ont remis en question bon nombre de méthodes, apparemment rigides et bureaucratiques, souvent associées à ITIL [18]. D’autres méthodes ont vu le jour comme VeriSM [19] ou existent depuis des années comme TOGAF [20]

Sur la partie gestion d’incident la version 4 d’ITIL adapte le processus aux nouveaux modèles opérationnels agiles dans lesquels les pratiques et processus ont été modifiés. La collaboration et les échanges sont fluidifiés, et les équipes disposent de plus d’autonomie sur leurs périmètres. Par exemple, lors d’un incident majeur, différentes parties prenantes sont mobilisées au sein d’une task force et collaborent ensemble, jusqu’à ce que l’entité la plus à même de résoudre l’incident soit identifiée. Pendant que les autres peuvent retourner à leurs tâches habituelles, celle-ci est autonome et dispose de tous les moyens nécessaires pour résoudre l’incident majeur. Elle possède également toute la légitimité de mobiliser différents acteurs de l’organisation au besoin[21].

Objectifs modifier

[[Voir si c'est le bon chapître pour ce texte ?]]

Les objectifs du processus de Gestion des incidents sont :

  • Veiller à ce que des méthodes et des procédures normalisées soient utilisées pour répondre, analyser, documenter, gérer et suivre efficacement les incidents.
  • Augmenter la visibilité et la communication des incidents à l'entreprise et aux groupes de soutien TI.
  • Améliorer la perception des utilisateurs par rapport aux TI via une approche professionnelle dans la communication et la résolution rapide des incidents lorsqu'ils se produisent.
  • Harmoniser les activités et les priorités de gestion des incidents avec ceux de l'entreprise.
  • Maintenir la satisfaction de l'utilisateur avec la qualité des services TI.

La déclinaison du processus de gestion des incidents chez Google modifier

Ce processus précise le déroulement des actions et les procédures de transmission, d'atténuation des risques, de résolution et de notification liées aux incidents potentiels qui affectent la confidentialité, l'intégrité ou la disponibilité des données client. Google définit un incident lié aux données comme une violation de la sécurité qui entraîne, de manière accidentelle ou illégale, la destruction, la perte, l'altération ou encore la divulgation non autorisée des données client sur des systèmes gérés ou contrôlés par Google, ou encore l'accès non autorisé à ces données.

Identification modifier

L'objectif de cette phase est de surveiller les événements liés à la sécurité afin de détecter et de signaler les éventuels incidents relatifs aux données. L'équipe de détection des incidents emploie des outils de détection avancés, ainsi que des signaux et des mécanismes d'alerte qui permettent d'identifier rapidement les incidents potentiels (Analyse automatique des journaux système et réseau, processus de détection des intrusions et d'examens de la sécurité logicielle, examens du code source, anomalies d'utilisation, alertes de sécurité relatives aux centres de données et leur infrastructure)[22].

Coordination modifier

L'incident est transmis à un chargé d'incidents qui en évalue la nature et met en œuvre une approche coordonnée de l'intervention requise. À ce stade, l'intervention se traduit par l'évaluation de la nature de l'incident, l'ajustement de sa gravité si nécessaire et le déploiement d'une équipe d'intervention adaptée. Un chef de produit et un responsable juridique sont chargés de prendre les décisions clés concernant la démarche à suivre. Le chargé d'incidents attribue les rôles pour l'enquête et les faits sont rassemblés[23].

Résolution modifier

Dans cette phase, l'accent est mis sur la recherche de la cause première, la limitation de l'impact de l'incident, la résolution des risques immédiats à la sécurité, la mise en œuvre des correctifs nécessaires dans le cadre de la résolution ainsi que la restauration des systèmes, données et services affectés. Un aspect important de la résolution consiste à informer les clients des incidents qui affectent leurs données[24].

Clôture modifier

Une fois qu'un incident lié aux données est résolu, l'équipe de gestion des incidents évalue les enseignements qu'elle a tirés de celui-ci. Lorsque l'incident soulève des problèmes critiques, le chargé d'incidents peut lancer une analyse post-mortem. Lors de ce processus, l'équipe de gestion des incidents examine les causes de l'incident ainsi que la réponse de Google, puis identifie les principaux points à améliorer[25].

Amélioration continue modifier

Les instrumentations (insights) exploitables obtenus lors de l'analyse des incidents permettent d'améliorer lesnos outils, les processus, les formations, le programme global de sécurité, les règles de sécurité et/ou les efforts de réponse. Ces enseignements facilitent également la hiérarchisation des démarches d'ingénierie à mener et la conception de meilleurs produits[26].

[[Reste à insérer le graphique]]

Domaines de responsabilité suivant le type de service cloud modifier

Suivant le type de service, les domaines de responsabilité pour la gestion d’incidents dépendent des offres souscrites auprès du Cloud Service Provider (CSP). La figure ci_dessous illustre le partage de la responsabilité entre le client et Google en fonction de l'étendue des services gérés exploités par le client. Lorsque le client passe de solutions sur site à des offres de cloud computing IaaS, PaaS et SaaS, Google gère une plus grande partie du service cloud global, déchargeant d'autant le client en matière de responsabilités de sécurité [27].

Incidents management and services

Amazon Web Services et la gestion des incidents dans le cloud modifier

Amazon Web Services (AWS) propose un large éventail de produits internationaux basés sur le cloud : calcul, stockage, bases de données, analyse, mise en réseau, services mobiles, outils de développement, outils de gestion, Internet des Objets, sécurité et applications d'entreprise [28].

AWS utilise l'infrastructure d'adoption du cloud (Cloud Adoption Framework / CAF) [29] qui propose des directives complètes pour établir, développer et exécuter des fonctionnalités informatiques basées sur le cloud. À l'instar de l'ITIL, la CAF organise et décrit les activités et processus impliqués dans la planification, la création, la gestion et la prise en charge des services informatiques modernes.

Schéma intégration CAF.

Avec l’API Amazon CloudWatch, AWS prend en charge l'instrumentation en fournissant des outils pour publier et interroger les évènements. L’API peut également envoyer des notifications ou modifier des ressources automatiquement en fonctions de règles définies par le client. Il est possible de superviser l’utilisation des processeurs, les écritures disques des instances (VM), des métriques venant d’applications métiers… etc etc[30]

La gestion des incidents s’effectue grâce à des évènements catégorisés comme avertissements ou exceptions qui peuvent déclencher des processus. Ces processus restaurent le fonctionnement normal des services aussi rapidement que possible et minimisent les impacts négatifs sur les opérations métier ou être orienté vers le centre de services de l’entreprise cliente [31].

En complément de CloudWatch, l’application Auto Scaling proposée par AWS peut permettre de contrôle vos applications et l’ajustement automatique de la capacité à maintenir des performances constantes et prévisibles [32].

Schéma CloudWatch.

Gérer les incidents pour assurer la haute disponibilité modifier

[[Déjà expliqué dans l'intro (brievement) voir si on souhaite le garder]]

Définition modifier

Utilité modifier

Moyens mis en œuvre modifier

Détecter

Localiser

Diagnostiquer

Les ressources nécessaires pour les Datacenter modifier

Localisation modifier

Bâtiment modifier

Alimentation électrique modifier

Hardware modifier

Software modifier

Réseau modifier

Les sources d'incidents en DataCenter modifier

L’Uptime Institute[33] a publié en mars 2019 son Publicly Reported Outages 2018-19 [34].

En 2018 lors de la sortie du 8th Annual Industry Survey[35], l’Uptime Institute avait indiqué qu’un tiers (30,8%) des opérateurs de datacenter interrogés avaient subis une coupure ou une sévère dégradation de service durant l’année 2017. Le rapport 2019[36] basé sur les incidents rendus publics dans des médias montre une tendance à la hausse avec près de 3 fois plus d’incidents en 2018 qu’en 2016. Ceci ne signifie pas nécessairement qu’il se soit produits plus d’incidents mais est plutôt le signe d’une visibilité accrue dans les médias ce qui a permis une amélioration de la collecte des données.

Publicly Reported Outages

L’enquête intitulée Systematic survey of public cloud service outage donne une volumétrie d’incidents sur le top 5 des providers de cloud public [37]

Outage distribution over providers and years.

Pour qualifier l’impact des incidents rendus publics, l’Uptime Institute a créé une échelle de criticité à 5 niveaux [36] :

Rating Service outage Impact of outage
Category 1 Negligible Recordable outage but little or no obvious impacto n service, no service disruptions
Category 2 Minimal Service disrupted. Minimal effecton users/customers/reputation
Category 3 Significant Customer/user service disruptio, mostly limited scope, duration or effect. Minimal of no financial effect. Some reputational or compliance impact(s).
Category 4 Serious Disruption of service and/or operation. Ramifications include some financial losses, compliance breaches, reputation damages, possibly safety concerns. Customer losses possible.
Category 5 Severe Major and damaging disruption of service and/or operations with ramifications including large financial losses, possible safety issues, compliance breaches, customer losses, reputational damage

En 2018, la plupart des incidents rendus publics sont d’une sévérité moyenne. En regardant sur les trois années on constate un changement significatif : La proportion des incidents de niveau 5 (sévère, incidents critique pour le business) chute alors que le nombre d’incidents moins critiques enregistrés augmente

Reported outages levels

Le résultat de l’étude montre que les systèmes informatiques sont la cause la plus courante des pannes. Suivent le réseau et l’alimentation électrique.

L’alimentation électrique, le refroidissement, les incendies et leur extinction cumulées restent une cause importante des pannes (32%). En plus, des coupures classées dans « systèmes informatiques (IT) » et réseau sont en fait causées par des problèmes d’alimentation au niveau d’un système ou d’une baie et ne sont pas classés comme des problèmes d’alimentation de l’ensemble du datacenter[38].

Causes of outages


1 - Pertes de données

- panne et incidence sur l'accès des données

- pertes de données

- récupération des données

- reconstruction des données perdues

2 - Pannes électriques & besoins énergétiques

3 - Pannes du réseau de transmission de données

4 - refroidissement des matériels

Les incidents dans les datacenter et leur conséquences modifier

[[Paragraphe à supprimer ou à mettre avec les autres incident]] Malgré toutes les précautions que les opérateurs de cloud prennent, ils ne sont jamais à l’abri d’incidents. L’impact des pannes est considérable quand on sait que des opérateurs de cloud comme Amazon Web Services ou Google servent plus d’un million de clients dans le monde. Le problème vient aussi de la concentration de l’infrastructure cloud avec des datacenters gigantesques, où le moindre incident a des effets énormes [39].


L'incident #19009 de Google cloud modifier

Le dimanche 2 juin 2019, une panne massive a frappé le Google Cloud. Les différents services du géant de Mountain View tels que la G Suite ou encore YouTube sont restés inaccessibles pour de nombreux utilisateurs jusqu’à 16h. La panne allant jusqu'à impacter les utilisateurs de thermostats connectés Nest qui sont restés durant plusieurs heures dans l’incapacité de contrôler la température de leurs logements [40]. La panne qui a touché principalement les côtes est des États-Unis [41] était visible sur le site downdetector.com [42].

Le lendemain, un communiqué de Google fait état d’une perturbation sur le réseau suite à une opération de modification de configuration sur plusieurs serveurs dans plusieurs régions voisines [43]. Le 6 juin une nouvelle communication venait détailler les raisons de l’incident #19009 qui a isolé plusieurs datacenter durant plus de 4h[44].

Google outage 6/02/2019

Incidents dans les datacenter : le top 7 des plus grosses pannes Cloud en 2019 modifier

[[Saisir le lien]] [[Titreremplacer "grosse" par "importantes"]]

Lien hypertexte à faire : https://www.lebigdata.fr/top-pannes-cloud-2019 date 17 décembre 2019

Le Cloud (nuage) a séduit ces dernières années, grâce à ses nombreux avantages en termes de flexibilité, de simplicité et même de coût, tant les entreprises que les particuliers. Le nuage permet ainsi d’accéder à ses fichiers et documents depuis n’importe quel appareil et depuis n’importe où, et les entreprises n’ont plus besoin de développer leurs propres infrastructures, alliant ainsi simplicité et réduction des charges.

Cependant, les utilisateurs de Cloud font aussi le choix de confier la sécurité et la sûreté de leurs données à leurs fournisseurs. En migrant leurs données et applications sur les serveurs d’un fournisseur, plutôt que sur leurs propres Data Centers, les entreprises acceptent de lui vouer une confiance aveugle. Or, de nombreuses pannes survenues en 2019 nous rappellent que le Cloud est loin d’être infaillible et d’être synonyme de sécurité, et que la dépendance à cette technologie comporte bien des risques, démontrant que le Cloud.

Quelles sont les 7 plus importantes pannes Cloud qui ont secoué l’année 2019 ?

Amazon Web Services modifier

En août 2019, un Data Center US-EAST-1 appartenant à AWS et situé en Virginie du Nord, a été frappé par une panne d’électricité. Les générateurs de backup du centre de données sont donc tombés en panne. 7,5% des instances EC2 et des volumes EBS sont restés temporairement indisponibles, d’une part, et d’autre part, après que le courant ait été restauré, Amazon a annoncé que certaines des données stockées sur le hardware endommagé ne pourraient pas être récupérées. Ainsi, des informations précieuses ont donc été définitivement perdues par certains clients.

Apple iCloud modifier

En juillet 2019, de nombreux utilisateurs de l’iCloud d’Apple sont restés dans l’incapacité d’accéder au service pendant plusieurs heures. Plusieurs services Apple tels que l’App Store, Apple Music, Apple TV, Apple Books et Apple ID ont été impactés. De même, des fonctionnalités telles que « Trouver mon iPhone » étaient indisponibles durant l’incident. Apple a associé cette panne à un problème de « BGP route flap » qui a provoqué d’importantes pertes de données pour un grand nombre d’utilisateurs.

Cloudflare modifier

En juillet 2019, les visiteurs de Cloudflare ont reçu des erreurs 502, erreurs causées par un pic d’utilisation de CPU sur le réseau, ce pic lui-même causé par un déploiement de logiciel raté. Durant 30 minutes, le service est resté en panne jusqu’à ce que le déploiement soit annulé.

Facebook et Instagram modifier

Bien qu’il ne s’agisse pas de services Cloud à proprement parler, Facebook et Instagram reposent fortement sur le nuage. En 2019, un changement de configuration de serveur a provoqué une panne de ces réseaux sociaux, pendant près de 14 heures (problèmes d’accès et fonctionnalités telles que la publication ou la messagerie Messenger inaccessibles).

Google Cloud modifier

Google Cloud a été victime de deux pannes majeures en 2019. En juillet, un problème avec le Cloud Networking et le Load Balancing a contraint Google à séparer les serveurs de la région US-east1 du reste du monde, causant des dommages physiques à de multiples bundles de fibre concurrents servant les ponts réseau de la région. En novembre 2019, plusieurs services de la Google Cloud Platform (Cloud Dataflow, stockage Cloud, et Compute Engine) ont été impactés par d’importants problèmes, affectant de nombreux produits à l’échelle mondiale.

Microsoft Azure modifier

En mai 2019, une délégation de nom de serveur incorrecte a affecté la résolution DNS et la connectivité réseau de Microsoft Azure. Pendant plus d’une heure, les services Microsoft Office 365, Microsoft Teams ou encore Xbox Live sont restés inaccessibles. Il reste cependant à noter que les enregistrements DNS des clients n’ont pas été impactés après la restauration des services.

Salesforce modifier

En mai 2019, le déploiement d’un script de base de données sur le service Pardot Marketing Cloud de Salesforce a provoqué un grave incident, accordant aux utilisateurs ordinaires des permissions d’un niveau supérieur. Afin d’éviter que les employés dérobent des données sensibles à leurs entreprises, Salesforce a dû bloquer de nombreux utilisateurs puis bloquer l’accès à d’autres services tels que Sales Cloud et Service Cloud. Ainsi, pendant plus de 20 heures, les clients étaient dans l’incapacité d’accéder à Pardot Marketing Cloud. Il aura fallu 12 jours pour que les autres services tels que Sales Cloud et Service Cloud soient déployés. L’intégralité de l’infrastructure Cloud de Salesforce a donc été impactée par un simple script…

Optimiser la gestion des incidents et en limiter l'impact : des solutions pour aujourd'hui et pour demain... modifier

Le Cloud n’est donc pas toujours synonyme de sécurité. Par ailleurs, les architectures informatiques traditionnelles ne sont plus du tout adaptées à la rigueur du temps réel et donc de l’économie numérique actuelle. Mais même les services cloud - initialement mis en place pour remplacer les anciennes technologies "onsite" par des équivalents en ligne - pourraient ne plus suffire.

Des innovations en cours et à venir se profilent, tant pour assurer la sécurité du stockage des donner, permettant d'optimiser la gestion des incidents et d'en limiter l'impact, mais également pour maximiser et perfectionner le fonctionnement même d'un datacenter.

La numérisation de notre vie quotidienne génère une masse de données inimaginables et il va sans dire que notre dépendance vis-à-vis des datacenters qui traitent et stockent ces données ne fera que croître, tout comme le temps nécessaire pour en assurer la gestion. Comment les entreprises peuvent-elles tirer parti de l’accroissement de ce volume de données et réduire le temps consacré à leur gestion sans pour autant perdre en efficacité ?

Vivement le datacenter autonome, parce que vous avez déjà assez de problèmes à gérer… modifier

| id = DATAUTONOM
| url              = https://www.usinenouvelle.com/article/vivement-le-datacenter-autonome-parce-que-vous-avez-deja-assez-de-problemes-a-gerer.N798315
| titre            = Vivement le datacenter autonome, parce que vous avez déjà assez de problèmes à gérer…    
| consulté le      = 26 janvier 2019

Le défi de la complexité Les organisations ont besoin de rationaliser le management de leurs datacenters et de s’attaquer aux manques d’efficacité qui peuvent exister en la matière. La gestion traditionnelle des datacenters implique beaucoup de travail pour les équipes d’exploitations, qui passent leurs journées – et parfois même leurs nuits – à bricoler manuellement l’infrastructure afin de pouvoir gérer au mieux les événements imprévus.

Tout ceci crée une perte colossale de temps et de ressources.

Avec la complexité croissante des technologies de stockage des données, cette situation présente un risque de plus en plus important et ne peut être efficacement traitée avec des outils classiques de gestion des datacenters. Les entreprises ont dorénavant besoin d’une nouvelle génération de solutions de management, d’outils d’automatisation et de traitement analytiques pour libérer les administrateurs de datacenters des travaux quotidiens fastidieux et leur permettre de se consacrer à des activités créatrices de valeur pour l’entreprise. En d’autres termes, les entreprises ont besoin d’un datacenter autonome.

Une nouvelle génération de stockage vient de naître Une infrastructure de datacenter dotée d’intelligence artificielle (IA) permettrait de dépasser les limites des approches traditionnelles, grâce à l’utilisation d’algorithmes intelligents qui traitent les données des capteurs installés sur les équipements et leur permettent de fonctionner de manière autonome. Avec l’IA, ce moteur intelligent pourra automatiquement détecter les mauvais fonctionnements, les goulets d’étranglement ou encore les configurations incorrectes, et potentiellement apporter automatiquement les actions correctives ; ce qui réduira le temps alloué aux interventions. L’IA est également capable de dresser une liste des problèmes déjà détectés, afin d’éviter les répétitions et d’empêcher les clients de se heurter à des problèmes déjà rencontrés.

L’utilisation de l’IA dans le datacenter peut non seulement détecter et résoudre les problèmes, mais peut proactivement apporter des suggestions d’amélioration. En tirant parti des données et de la valeur qu’elles recèlent, l’IA peut identifier des opportunités d’amélioration des systèmes et de leurs performances, ayant un impact positif sur les processus métiers, l’efficacité des équipes IT et finalement, sur l’expérience client.

Comment est-ce possible ? Pour faire simple, l'IA dans le datacenter offre une supervision simultanée de tous les systèmes existants. Elle permet au système de comprendre l'environnement de fonctionnement idéal pour chaque charge de travail et chaque application, puis d'identifier les comportements anormaux par rapport aux modèles réguliers des E/S sous-jacentes. Autrement dit, plus la richesse et le volume des données générés dans une entreprise augmentent, plus l'efficacité du système d'IA s’améliore en apprenant des modèles de données. La pérennité de l'IA s’en trouve à son tour prolongé car le système cherchera en permanence à améliorer l’infrastructure informatique, soit en corrigeant les nouveaux problèmes qui émergent, soit en suggérant de nouvelles méthodes pour optimiser et améliorer les processus.

Le système peut utiliser des données métrologiques détaillées pour constituer un socle de base de connaissances et d’expériences, concernant chaque système en relation avec le moteur d’IA. La technologie des algorithmes de recherche comportementale permet d’analyser et de prévoir si un autre équipement du datacenter est susceptible de rencontrer des problèmes similaires à ceux déjà traités. De plus, cette capacité permet de modéliser la performance des applications et de l’optimiser pour chaque nouvelle infrastructure d’accueil, en fonction de l’historique des configurations et des modèles de charge de travail, ce qui réduit les risques lors des déploiements sur de nouvelles configurations, et diminue significativement les coûts de mise en œuvre.

Plus vite, plus haut, plus fort En s’appuyant sur les outils d’analyse prédictive et la base de connaissances sur les moyens d’optimiser la performance des systèmes, l’IA peut suggérer des recommandations adaptées pour établir un environnement de travail idéal et appliquer de façon automatique les modifications en lieu et place des administrateurs IT. De plus, si l’automatisation des actions n’est pas souhaitée, des recommandations peuvent être proposées aux équipes d’exploitation par celle des dossiers de support. Cela libérera tout de même les équipes d’exploitation des multiples recherches manuelles nécessaires à l’identification des causes de dysfonctionnement, et leur éviter également des improvisations en matière de gestion de l’infrastructure.

L’utilisation d’un moteur d’analyse prédictive permet aux clients de résoudre 86 % des problèmes avant que ceux-ci n’impactent l’activité business. Dans les 14 % de cas restants, l’utilisateur possède un accès immédiat à des ingénieurs expérimentés pour trouver une solution le plus rapidement possible. De même, des études menées par le cabinet d’analystes ESG révèlent que 70 % des clients qui utilisent cette technologie peuvent résoudre des problèmes ou remédier à de mauvais fonctionnements en moins d’une heure, et que plus de 26 % d’entre eux l’ont fait en moins de 15 minutes.

Avec une approche traditionnelle de la gestion des datacenters, il faut en moyenne 84 minutes à un tiers (32 %) des utilisateurs pour qu’un problème rencontré soit remonté à un ingénieur disposant du niveau d’expertise requis pour le résoudre.

En plaçant l’IA au cœur des outils de gestion du datacenter, les organisations seront en mesure de prédire, d’éviter et de résoudre les incidents plus rapidement. Ceci peut amener des gains significatifs en termes d’efficacité et d’amélioration opérationnelle, tout en rendant l’infrastructure plus intelligente et plus résiliente. Plus important encore, les entreprises bénéficieront d’une réduction majeure des temps d’interruption de service et des délais de résolution des problèmes IT. Ainsi, les équipes IT pourront mieux se consacrer à des tâches qui apportent réellement de la valeur, et qui améliorent l’expérience client.

Le Cloud Hybride modifier

Lien à faire : https://www.lebigdata.fr/cloud-hybride-tout-savoir 29 novembre 2018

Une étude publiée par Nutanix en 2018 révèle que 91% des responsables IT d’entreprises considèrent que le modèle idéal est celui du Cloud hybride, qui marie les bienfaits du Cloud public avec ceux du Cloud privé.

Cloud hybride - Définition

Dans le cas d’un Cloud privé, les serveurs sont dédiés à une seule entreprise. Ces serveurs peuvent être sur site, ou hors-site. Dans le cas d’un Cloud public, les serveurs sont partagés entre les différents clients d’un fournisseur. Les serveurs sont toujours hors-site, puisqu’ils sont situés dans les Data Centers du fournisseur.

Selon Forrester Research, le Cloud hybride consiste à connecter un ou plusieurs Clouds publics à un Cloud privé ou à une infrastructure de Data Center sur site traditionnelle. Pour faire simple, il s’agit donc d’un savant mélange entre les ressources IT sur site et hors site.

De manière plus élaborée, le Cloud hybride est un environnement Cloud constitué de ressources de Cloud privé sur site combinées avec des ressources de Cloud public tiers connectées entre elles par un système d’orchestration.

Selon la définition "officielle" du National Institute of Standards and Technology, le Cloud hybride est "une infrastructure Cloud composée de deux infrastructures Cloud distinctes ou plus pouvant être privées ou publiques et qui restent des entités uniques, mais sont connectées par une technologie standard ou propriétaire permettant la portabilité des données et des applications".

Cloud hybride - Les avantages

  • Il permet de transférer les workloads et les données entre le Cloud public et le Cloud privé de façon flexible en fonction des besoins, de la demande et des coûts. Ainsi, les entreprises bénéficient d’une flexibilité accrue et d’options supplémentaires pour le déploiement et l’usage des données.
  • La flexibilité : dans le cas d’une infrastructure sur site, la gestion des ressources nécessite du temps et de l’argent. L’ajout de capacité requiert donc une planification en amont. Au contraire, le Cloud public est déjà prêt et les ressources peuvent être ajoutées instantanément pour répondre aux besoins de l’entreprise. Ainsi, en s’appuyant sur le Cloud hybride, une entreprise pourra exploiter des ressources du Cloud public lorsque ses besoins dépassent les ressources disponibles sur Cloud privé, par exemple lors de pics saisonniers. Le Cloud hybride permet donc de profiter d’une élasticité nécessaire pour faire face aux variations de la demande qui peuvent être liées à de multiples facteurs.
  • Accès rapide aux données les plus critiques ; il est donc possible de garder les données fréquemment utilisées sur site, et de transférer les données  » froides  » sur le Cloud.
  • Réduction des charges de l’entreprise grâce aux faibles coûts des ressources IT proposées sur le Cloud public. En effet, la plupart des fournisseurs de Cloud public proposent à leurs clients de payer uniquement pour les ressources qu’ils consomment. Les dépenses inutiles sont donc évitées.
  • Traitement de Big Data ; il est par exemple possible pour une entreprise d’utiliser le stockage Cloud hybride pour stocker ses données et d’effectuer des requêtes analytiques sur le Cloud public où les clusters Hadoop (ou autre) pourront être scalés pour s’adapter aux tâches de computing les plus exigeantes.

Cloud hybride : Les inconvénients

  • Le Cloud hybride n’est pas adapté à toutes les situations (ex : les petites entreprises disposant d’un budget IT limité, préfèreront s'en tenir au Cloud public, les coûts liés à l’installation et à la maintenance de serveurs privés du Cloud hybride pouvant être trop élevés).
  • Une application nécessitant une latence minimale n’est pas toujours adaptée au Cloud hybride ; il peut être préférable d’opter pour une infrastructure sur site.


La progression du "serverless" modifier

| id = CLOUCOMPSERVER
| url              = https://www.zdnet.fr/actualites/cloud-computing-la-lourde-tendance-2020-le-serverless-progresse-39896487.htm
| titre            = Cloud computing : la lourde tendance 2020, le "serverless" progresse   
| consulté le      = 27 décembre 2019

Le "serverless", suite logique du cloud-native, en est encore à ses débuts, mais son développement progresse, et les premiers à avoir franchi le pas en voient déjà les avantages.

Ne pas refléchir aux limites et capacités des serveurs

La prochaine étape serait le serverless, qui ne nécessite pas de rotation ou de provisionnement des serveurs. Bien sûr, le serverless repose toujours sur des serveurs, mais les développeurs et professionnels IT n’auront pas à réfléchir à leurs limites et capacités. Le serverless est « la suite logique du cloud-native », car il s’agit du modèle de calcul utilitaire le plus pur qui soit sur de nombreux points.

Une approche serverless est attrayante « en raison de la quantité limitée de personnel et de talents disponibles pour construire, gérer et maintenir la nouvelle génération de systèmes numériques ». L'attrait du serverless augmentera également avec l'ajout de dispositifs IoT.

Avec la maturité vient le progrès

Pour un certain nombre d’organisations, le serverless est toujours un travail en cours, et beaucoup n’en voient pas encore les avantages, d’après un récent sondage. Quatre entreprises sur dix ont adopté le serverless, mais n’en voient pas encore les impacts positifs, comme le montre l'enquête menée auprès de 1 500 cadres par O'Reilly. Cependant, pour ceux qui ont plus de trois ans d’expérience dans le domaine du serverless, 79 % estiment que leurs efforts sont « majoritairement fructueux » ou mieux, avec des avantages tels que la réduction des coûts d’exploitation et la mise à l'échelle automatique, ou encore la possibilité d'éviter les maintenances de serveur et la réduction des coûts de développement.

Les avantages du serverless :

  • réduction des coûts d'exploitation ;
  • mise à l’échelle automatique ;
  • absence de problèmes liés aux maintenances de serveur ;
  • réduction des coûts de développement ;

augmentation de la productivité des développeurs, et donc augmentation de la valeur de l'entreprise.

Les défis du serverless :

  • formation du personnel actuel (le serverless étant relativement récent, il est difficile de trouver une formation officielle, il faut produire une documentation spécifique et il est difficile de trouver des études de cas dont on peut tirer des leçons) ;
  • verrouillage des fournisseurs (écrire du code pour une plateforme de fournisseur ne la rend pas amovible ou simple à déplacer ailleurs ; parce que le serverless est un domaine naissant, il semble que le marché attend de voir ce qui va se passer en ce qui concerne la question de la portabilité entre les fournisseurs.) ;
  • difficulté des tests d'intégration/débogage (les tests sont plus complexes et demandent plus de travail pour les architectures serverless, avec plus de scénarios à traiter et différents types de dépendances - latence, démarrage, mocks - ce qui change le paysage de l'intégration) ;
  • coûts imprévisibles/variables (il semble que les coûts inattendus qui découlent de l’utilisation du serverless représentent un obstacle, au même niveau que la réduction des coûts représente un avantage. Ce paradoxe met en évidence les espoirs que peuvent porter le serverless, et justifier commercialement son adoption. Le risque survient plus tard, avec les coûts potentiels d’une fuite) ;
  • sécurité 21 %.


Vers de nouvelles solutions de stockage de données modifier

Le stockage de données est l’ensemble des méthodes et technologies permettant d’entreposer et de conserver les informations numériques. D’ici 2025, selon IDC, le volume de données généré par l’humanité sera multiplié par cinq et atteindra 163 zettabytes. En conséquence directe, nos besoins en espace de stockage vont augmenter de façon drastique. Il sera non seulement nécessaire d’augmenter la capacité des supports actuels, mais aussi d’en inventer de nouveaux.

Le projet Silica

| id = MICROSOFTPROJSILICA
| url              = https://www.usine-digitale.fr/article/project-silica-pour-microsoft-le-futur-du-stockage-de-donnees-est-un-morceau-de-verre.N900969
| titre            = Project Silica : Pour Microsoft, le futur du stockage de données est... un morceau de verre    
| consulté le      = 05 novembre 2019

Microsoft et Warner Bros ont collaboré pour stocker le premier film Superman, sorti en 1978, sur un morceau de "verre", qui est en réalité du quartz. Une technologie innovante qui permettrait de restituer des fichiers sans altérer leur qualité, mais également de stocker à moindre coût de grandes quantités de données. La première validation du concept du Project Silica, mené par Microsoft Research a été annoncée le 4 novembre 2019.

  • Principe : un laser femtoseconde encode les données dans le verre en créant des couches d'indentations et déformations tridimensionnelles, à différents angles et profondeurs, à l'échelle nanométrique. Des algorithmes de machine learning peuvent ensuite lire les données en décodant les images et motifs créés lorsque de la lumière polarisée passe à travers le verre. Cette surface de verre peut contenir jusqu’à 75,6 Go de données.
  • Principal bénéfice : le quartz, composé de silice (d'où le nom du projet), peut supporter d'être trempé dans l'eau bouillante, cuit dans un four, passé au micro-ondes, ou d'être frotté avec de la laine d'acier… et les autres menaces environnementales.
  • Réduction des coûts nécessaires au stockage de données, des coûts de stockage alimentés par la nécessité de transférer de manière répétée des données sur un nouveau support avant que les informations ne soient perdues.
  • Conservation des données plus longue : contrairement à un disque dur, qui a une durée de vie de trois à cinq ans, ou à une bande magnétique (cinq à sept ans), le stockage sur quartz "permet de conserver les données pendant des siècles" selon Microsoft.
  • Limitation de la dégradation des données : les données n’étant écrites qu'une seule fois sur le quartz, elles ne subissent pas de dégradation comme lors de migration de données classique.
  • Autre source de réduction des coûts et d’empreinte environnementale : le quartz n’a pas besoin, contrairement à des datacenters par exemple, de système de climatisation ou d’aération.
  • Point d'amélioration à étudier : la vitesse à laquelle les données doivent être écrites et lues.

Stockage de données à mémoires flash

| id = AG2RFLASH
| url              = https://www.usine-digitale.fr/article/ag2r-la-mondiale-se-convertit-au-stockage-de-donnees-a-memoires-flash.N428897
| titre            = AG2R La Mondiale se convertit au stockage de données à mémoires flash    
| consulté le      = 25 août 2016

Les entreprises sont de plus en plus nombreuses à troquer leurs équipements traditionnels de stockage magnétique de données sur disques durs avec des solutions de stockage électronique à mémoires flash. C’est le cas d’AG2R La Mondiale. Le stockage primaire dans l’un de ses trois datacenters s’appuie désormais exclusivement sur des puces électroniques flash. Une expérience considérée comme une étape avant la conversion de l’ensemble de son infrastructure de stockage primaire à cette technologie.


Les datacenter de proximité modifier

| id = DATAPKEMON
| url              = https://www.usine-digitale.fr/article/le-phenomene-pokemon-go-revele-nos-besoins-en-datacenters-de-proximite.N421992
| titre            = Le phénomène Pokémon GO révéle nos besoins en datacenters de proximité    
| consulté le      = 02 août 2016

La liste des objets connectés qui nous entourent est longue et en constante évolution : ordinateurs, téléphones, tablettes, bracelets, montres, casques, téléviseurs, mais aussi lunettes, valises, vélos, chaussures...

L’augmentation exponentielle des objets connectés soulève la question du traitement des informations et du stockage des données que ne pourra plus à terme assurer le réseau informatique tel que nous le connaissons aujourd’hui.

Il suffit de se tourner vers un phénomène mondial, et l’engouement suscité par Pokemon GO développé par Niantic Labs, pour en avoir une idée plus précise ; l'application téléchargée par 75 millions d'utilisateurs dans le monde a provoqué de nombreuses pannes des serveurs en 2016 (application en téléchargement permanent ou messages d’erreur). Cet écueil technique n'est nullement insoluble, mais difficile à régler dans l’urgence : l’incapacité des datacenters traditionnels à répondre à une demande inédite devenue trop forte.

Pokémon GO reproduit un environnement de l’internet des objets (IoT) où de nombreux appareils transmettent des données à un site central. Les exigences de performance soulignées par l’application phénomène sont ainsi très comparables aux enjeux plus sérieux, qui attendent, demain, les fabricants d’objets connectés et les nombreux autres acteurs de l’économie numérique.

La réponse la plus adaptée aux problèmes de latence (délai entre le moment où une information est envoyée et celui où elle est reçue) ou de saturation des réseaux, est apportée aujourd’hui par le Edge Computing, qui se définit comme la mise à disposition de "ressources informatiques proches de l’utilisateur final ou de la source de données ".

Un serveur près de chez vous : Plusieurs micro-datacenter installés dans le pays pourraient par exemple prendre en charge les messages transmis aux joueurs, les statistiques et les scores. Ce n’est que de manière ponctuelle qu’il leur faudrait envoyer des données à un datacenter "central", et uniquement des données choisies. Pareille configuration permettrait de réduire la latence mais également le besoin en bande passante, de chaque aller-retour de manière significative. Les données ne seraient plus transmises du téléphone de tel utilisateur à un datacenter situé à quelques centaines de kilomètres, mais à un micro datacenter situé à proximité.

Ainsi, plus de cloud en surcharge, plus de serveurs en panne ! Le Edge Computing va véritablement changer la donne en permettant de gérer le flux d’informations reçues et transmises aux utilisateurs. Il semble souhaitable que cette approche trouve rapidement un écho auprès des décideurs pour que soient implémentées les infrastructures "micro-dc" permettant aux quelques 20 milliards d’objets connectés en 2020 (source Gartner), de mieux fonctionner, afin que les applications innovantes portées par le développement des technologies puissent susciter plus d’engouement que de frustration dans les années à venir.


Vers des datacenter moins énergivores modifier

Les data centers font aujourd’hui partie des bâtiments les plus énergivores dans le monde. En 2016, ces derniers ont représenté 5 % de la consommation mondiale d’électricité et exploité pas moins de 626 milliards de litres d’eau. L’un dans l’autre, ils ont été tenus responsables pour environ 3 % des émissions de gaz à effet de serre. A l’heure où les données se font de plus en plus nombreuses, comment permettre de faire rimer technologie avec écologie ?

Les clés du refroidissement des datacenters confiées à des algorithmes

| id = IAGOOGREFROID
| url              = https://www.numerama.com/tech/409036-ia-google-confie-les-cles-du-refroidissement-de-ses-data-centers-a-ses-algorithmes.html
| titre            = IA : Google confie les clés du refroidissement de ses datacenters à ses algorithmes 
| consulté le      = 20 août 2018

Google profite des avancées de Deepmind dans l'intelligence artificielle pour gérer très finement la consommation électrique et le refroidissement de ses centres de données, et piloter automatiquement la dissipation thermique des immenses fermes de serveurs qu'il exploite, ceci de façon autonome, sans assistance humaine. Le principe est de faire travailler l'outil sur des instantanés périodiques du système de refroidissement du centre de données. Toutes les cinq minutes, un « cliché » du système est pris, à partir de milliers de capteurs, puis envoyé dans le cloud de l’entreprise. De là, il est traité par des algorithmes qui reposent sur des réseaux neuronaux profonds, la grande spécialité de DeepMind, qui ont été au cœur de ses multiples percées. Google dit ainsi avoir obtenu des économies d’énergie de 30 % après seulement quelques mois d'exploitation du mécanisme.

Refroidissement d'un datacenter, façon "Vingt milles lieues sous les mers"

| id = MICROSOUMARDAT2
| url              = https://www.usine-digitale.fr/article/en-images-microsoft-poursuit-son-projet-fou-de-data-center-sous-marin-avec-naval-group.N703359
| titre            = Microsoft poursuit son projet fou de data center sous-marin avec Naval Group     
| consulté le      = 06 juin 2018

Le français Naval Group apporte son savoir-faire de marinier à Microsoft pour développer et déployer un datacenter sous-marin de présérie ; Microsoft Research poursuit son projet Natick en partenariat avec Naval Group pour tester les performances d'un centre de données placé sous l'eau. Objectifs de ce datacenter immergé : diminuer drastiquement les besoins en refroidissement, qui représentent les principaux coûts énergétiques, permettre une construction plus rapide, et bénéficier d'un accès privilégié aux énergies renouvelables et des durées de latence réduites, la moitié de la population mondiale vivant à moins de 200 kilomètres d'une côte.

Immersion dans des cuves remplies d'un fluide ICE (Immersion Coolant for Electronics)

| id = STARTUPIMMERSION
| url              = https://www.usine-digitale.fr/article/viva-tech-la-start-up-immersion-4-rafraichit-les-data-centers-et-veut-reutiliser-l-energie-qu-ils-degagent.N844650
| titre            = La start-up Immersion 4 rafraîchit les data centers… et veut réutiliser l’énergie qu’ils dégagent    
| consulté le      = 17 mai 2019

À l’occasion du salon Viva Technology en mai 2019, la start-up Immersion 4 a présenté sa solution visant à placer les data center dans un système DTM (Dynamic Thermal Management). Dans les faits, ces cuves remplies d'un fluide ICE (Immersion Coolant for Electronics) sont capables de réduire drastiquement leur empreinte énergétique. "Il s’agit d’une nouvelle génération d'huile diélectrique 100 % synthétique, qui circule grâce a un dispositif que nous avons spécialement développé, baptisé FlowHT et qui facilite la récupération calorifique. Les systèmes DTM permettent a l’électronique immergée de fonctionner en permanence au maximum de la puissance, voire d'augmenter la vitesse d’horloge [aussi appelée overclocking] sans pour autant avoir la dépense énergétique normalement associée lorsqu’elle est refroidie par l'air.


La technologie des datacenter repensée, pour plus d'efficacité et de sécurité, aux forts enjeux économiques... modifier

Forum Teratec - Juin 2019 : quatre innovations pour accélérer sur le calcul à haute performance (HPC)

| id = 4INNOVAHPC
| url              = https://www.usine-digitale.fr/article/teratec-4-projets-dans-le-calcul-a-haute-performance.N854230
| titre            = Quatre innovations pour accélérer sur le calcul à haute performance (HPC)     
| consulté le      = 13 juin 2019

Avec des données en augmentation constante — on parle "d'explosion de la donnée" —, l'enjeu est désormais de bien savoir gérer ce flot d'informations. Pour répondre à cette problématique, Aldwin-Aneo, Atos, Activeeon et Ucit ont présenté leurs projets dans le domaine du HPC.

  • Tester des milliers de molécules : Aldwin-Aneo permet d'accélérer le développement d’un nouveau médicament, particulièrement au moment du docking. Ce processus consiste à tester la compatibilité des molécules en fonction des combinaisons spatiales de celles-ci. L’entreprise serait capable de faire passer la durée d'un docking de 68 ans à une heure seulement grâce à la modélisation 3D, qui permet d'observer en temps réel la dynamique de la molécule, ainsi qu'au cloud computing. Cette méthode permet de réduire significativement le temps d'acquisition des résultats tout en améliorant l'expérience utilisateur.
  • Un chef d'orchestre pour la donnée : Activeeon, société spécialisée dans la planification de tâches et l'orchestration pour toutes les infrastructures, prend aussi en charge la gestion et l'automatisation d'applications comme de services complexes, multi-VM et multi-clouds. En partenariat avec l’Inria, la société a annoncé en mars 2019 une accélération conséquente de l'analyse métagénomique. En effet la société permet de traiter simultanément un nombre d’échantillons pouvant atteindre et même dépasser plusieurs milliers d’unités en repartissant la donnée entre 1 000 CPU (Central Processing Unit).
  • Comprendre l'utilisation des clusters : Ucit a pour ambition de démocratiser et de simplifier le calcul à haute performance. À l'occasion du Forum Teratec, la société a dévoilé en avant-première le logiciel Analyze-IT, qui analyse les logs des clusters. Ces données sont relatives à leur utilisation afin de comprendre les usages, les comportements des utilisateurs et faire évoluer les structures en conséquence. Une fois les indicateurs analysés, les équipes accompagnent les clients pour optimiser leur utilisation en identifiant les ressources et capacités nécessaires dans le futur, par exemple pour le passage vers l'hybride HPC et le cloud.
  • Simulation des programmes quantiques : Atos a présenté le programme myQLM, lancé le 16 mai 2019. Ce projet permet de démocratiser la programmation quantique en fournissant un écosystème de simulation. Il serait alors possible de simuler des programmes sur le poste de travail personnel, sans ordinateurs quantiques, permettant ainsi aux professionnels mais aussi aux étudiants de se familiariser avec cette technologie. L'environnement Python permettra d’utiliser les langages AQASM (Atos Quantum Assembler) et pyAQASM pour tester les développements. Atos assure également l'interopérabilité avec d'autres solutions de calcul quantique en fournissant des traducteurs open source de myQLM vers d'autres environnements de programmation quantique.


Le développement de processeurs plus performants

| id = AWSARMVINGT
| url              = https://www.usine-digitale.fr/article/aws-developperait-un-nouveau-processeur-arm-20-plus-performant-pour-ses-data-centers.N908389
| titre            = AWS développerait un nouveau processeur ARM 20% plus performant pour ses datacenters   
| consulté le      = 28 novembre 2019

Amazon Web Services (AWS) aurait développé en 2019, une seconde génération de processeurs pour ses datacenters. Toujours basée sur l’architecture ARM, elle serait 20% plus performante que le premier modèle, Graviton, la première génération de puce spécialisé sortie en 2018. Cette nouvelle génération permettrait aussi aux puces de s'interconnecter pour accélérer le traitement de certaines tâches comme la reconnaissance d’images. Les processeurs basés sur l'architecture ARM sont moins puissants que ceux d'Intel et AMD, qui utilisent l'architecture x86, mais ils sont aussi moins gourmands en énergie et beaucoup moins chers à produire. Cela représente au bas mot une différence de plusieurs milliers d'euros par serveur. L'enjeu pour le géant du cloud serait de réduire sa dépendance vis-à-vis d'Intel.

Intel se muscle dans l'intelligence artificielle en s'emparant d'Habana Labs pour 2 milliards de dollars

| id = INTELHABANA
| url              = https://www.usine-digitale.fr/article/intel-se-muscle-dans-l-intelligence-artificielle-en-s-emparant-d-habana-labs-pour-2-milliards-de-dollars.N914084
| titre            = Intel se muscle dans l'intelligence artificielle en s'emparant d'Habana Labs pour 2 milliards de dollars   
| consulté le      = 17 décembre 2019

Fin 2019, Intel s'empare de la start-up israélienne Habana Labs, spécialisée dans les accélérateurs d'apprentissage profond programmable destinés aux datacenters, pour 2 milliards de dollars. Habana commercialise Goya, un processeur d'interférence qui propose un débit et des temps de latence en temps réel, et qui est très compétitif au niveau de l'énergie, selon Intel. L'Israélien développe aussi Gaudi, un processeur programmable destiné à l'IA pour les datacenters. Habana espère que ce processeur Gaudi, qui est doté d'un grand nombre de nœuds, augmente jusqu'à 4 fois le débit d'entrée et de sortie par rapport aux systèmes ayant un nombre équivalent de GPU.


Les ambitions de Lenovo

| id = CLOUDHPCLENOVO
| url              = https://www.usine-digitale.fr/article/cloud-hpc-intelligence-artificielle-lenovo-fait-une-demonstration-de-force-dans-les-serveurs.N556653
| titre            = Cloud, HPC, intelligence artificielle... Lenovo fait une démonstration de force dans les serveurs    
| consulté le      = 22 juin 2017

L’ambition du géant chinois dans ce monde qui change est de devenir l’acteur numéro un du monde des datacenters, et sa stratégie est simple : combiner son héritage d'excellence venu d'IBM avec son héritage chinois qui lui permet de mieux réduire les coûts. L’activité serveurs x86 d’IBM a été créée il y a 25 ans, Lenovo est donc déjà très bien implanté. L'entreprise possède aussi 7 centres de recherche sur les datacenters, et 5 usines de fabrication à travers le monde ; elle déclare fabriquer plus de 100 serveurs par heure à Shenzhen. Pour répondre aux exigences de ces clients très particuliers, Lenovo lance deux nouvelles marques : ThinkAgile et ThinkSystem. ThinkSystem est une architecture matérielle personnalisée, des serveurs complètement customisés suivant les besoins de ses clients. Lenovo peut se charger de l’installation sur site, soit directement soit via des partenaires. Une solution aux besoins de plus en plus spécifiques des Google et autres Facebook, qui conçoivent leur matériel eux-mêmes.

Incident : Pourquoi le terme "Bug" ? modifier

L'origine du terme "bug" est faussement attribué à Grace Hopper[45].

Journal conservé au Smithsonian Institution.

Les ingénieurs en mécanique et électricité utilisaient ce terme pour expliquer les difficultés rencontrées dans l'équipement, et ceci longtemps avant que Grace Hopper ait entendu parler de ce mot. Grace Hopper ne trouva pas le bogue, comme elle le reconnaissait volontiers. Les opérateurs qui l'ont trouvé plus tard, y compris William "Bill" Burke, du laboratoire d'armes naval étaient familiers avec le terme d'ingénierie et amusés ont gardé l'insecte avec l’annotation « premier cas réel de bogue trouvé ». (Journal conservé au Smithsonian Institution.)

Vibroplex "Original Bug" model

La recherche approfondie sur l’origine du mot "bug"[46] nous emmène au XIXe siècle. Il semble que l'origine du mot remonte aux débuts du télégraphe électrique. L’inventeur et le fabricant Horace G. Martin, connu pour son invention du Vibroplex le bug[47], un télégraphe amélioré qui comporte une clef semi-automatique, révolutionne en 1903 la manière dont le code Morse est transmis. Ses inventions ont affecté les carrières des milliers des télégraphes et de la radio. Un des appareils d'émission en morse le Vibroplex le bug (photo ci-contre) avait un scarabée dessiné dessus et était d'un maniement délicat. Les débutants utilisant "l'insecte" avaient tendance à introduire des perturbations sur la ligne. D'ailleurs, Thomas Edison utilisait déjà le mot "bug" dans ses notes[48] ; preuve que ce terme était apparu avant les années 1870.




Articles connexes modifier

Références modifier

  1. Uptime Institute 2019.
  2. Annual Data Center Survey Results 2019, p. 4.
  3. a et b La Disponibilité : Un critère déterminant dans le choix d'un hébergement Cloud.
  4. Data center : bienvenue dans les usines à données.
  5. ITIL FRANCE.
  6. IETF RFC 2350.
  7. a et b CERT France 2019.
  8. National Institute of Standards and Technology.
  9. Computer SecurityIncident Handling Guide.
  10. SANS Institute.
  11. a et b ENSI.
  12. Good Practice Guide for Incident Management.
  13. Carnegie Mellon University.
  14. Defining Incident Management Processes for CSIRTs.
  15. ISO 27035.
  16. Central Computer and Telecommunications Agency
  17. ITIL France.
  18. ITIL : Renaissance ou dernier soupir.
  19. Service Management for the digital edge.
  20. TOGAF The Open Group Architecture Framework.
  21. ITIL : Agile et ITIL 4 : l’avènement de l’IT Service Management Agile.
  22. Google Cloud Whitepaper Data incident response process, p. 8.
  23. Google Cloud Whitepaper Data incident response process, p. 9.
  24. Google Cloud Whitepaper Data incident response process, p. 10.
  25. Google Cloud Whitepaper Data incident response process, p. 11.
  26. Google Cloud Whitepaper Data incident response process, p. 12.
  27. Processus de gestion des incidents liés aux données.
  28. Amazon Web Services.
  29. Cloud Adoption Framework, p. 5.
  30. AWS CloudWatch, p. 9.
  31. AWS CloudWatch, p. 12.
  32. AWS Auto Scaling.
  33. Uptime Institute.
  34. Publicly Reported Outages 2018-19.
  35. 8th annual Data Center Survey.
  36. a et b Publicly Reported Outages 2018-19, p. 3.
  37. A systematic survey of public lcoud outage.
  38. Publicly Reported Outages 2018-19, p. 5.
  39. Une panne du cloud d’Amazon met en panique tout l’internet mondial.
  40. Les faiblesses du cloud mises en lumière.
  41. Google recovers from outage that took down YouTube, Gmail, and Snapchat.
  42. Downdetector.
  43. Inside Google Cloud.
  44. Google Cloud Networking Incident #19009.
  45. Grace Hopper.
  46. L'origine du terme Bug.
  47. Télégraphe Vibroplex.
  48. Thomas Edison.
  49. Energie consommée par les data centers.

Bibliographie modifier

  • (en) J. Andreeva, P. Beche, S. Belov, I. Dzhunov et I. Kadochnikov, « Processing of the WLCG monitoring data using NoSQL », Journal of Physics, vol. 513,‎ , p. 36-43 (ISSN 1742-6588, DOI 10.1088/1742-6596/513/3/032048)
  • (en) K. Dahbur, B. Mohammad, A. Tarakji et A. Bisher, « A survey of risks, threats and vulnerabilities in cloud computing », ACM Press,‎ , p. 1-6 (DOI 10.1145/1980822.1980834)
  • (en) J. Molina-Perez, D. Bonacorsi, O. Gutsche, A. Sciabà et J. Flix, « Monitoring techniques and alarm procedures for CMS Services and Sites in WLCG », Journal of Physics: Conference Series, vol. 396, no 4,‎ , p. 042041 (ISSN 1742-6588, DOI 10.1088/1742-6596/396/4/042041)
  • (en) P. Saiz, A. Aimar, J. Andreeva, M. Babik et L. Cons, « WLCG Monitoring Consolidation and further evolution », Journal of Physics: Conference Series, vol. 664, no 6,‎ , p. 062054 (ISSN 1742-6588, DOI 10.1088/1742-6596/664/6/062054)
  • (en) B. Campana, A. Brown, D. Bonacorsi, V. Capone et D De. Girolamo, « Deployment of a WLCG network monitoring infrastructure based on the perfSONAR-PS technology », Journal of Physics: Conference Series, vol. 512, no 6,‎ , p. 062008 (ISSN 1742-6588, DOI 10.1088/1742-6596/513/6/062008)
  • (en) Z. Toteva, R Alvarez. Alonso, E Alvarez. Granda, M-E. Cheimariou et I. Fedorko, « Service management at CERN with Service-Now », Journal of Physics: Conference Series, vol. 396, no 6,‎ , p. 062022 (ISSN 1742-6588, DOI 10.1088/1742-6596/396/6/062022)
  • (en) C. Magherusan-Stanciu, A. Sebestyen-Pal, E. Cebuc, G. Sebestyen-Pal et V. Dadarlat, « Grid System Installation, Management and Monitoring Application », 2011 10th International Symposium on Parallel and Distributed Computing,‎ , p. 25-32 (DOI 10.1109/ISPDC.2011.14)
  • M. Fairouz, « Le calcul scientifique des expériences LHC - Une grille de production mondiale », Reflets de la physique,‎ , p. 11-15 (ISSN 1953-793X, DOI 10.1051/refdp/2010016)
  • (en) Rafael de Jesus. Martins, Luis Augusto Dias. Knob, Eduardo Germano. da Silva, Juliano Araujo. Wickboldt, Alberto. Schaeffer-Filho et Lisandro Zambenedetti. Granville, « Specialized CSIRT for Incident Response Management in Smart Grids », Journal of Network and Systems Management,‎ , p. 269-285 (ISSN 1064-7570, DOI 10.1007/s10922-018-9458-z)
  • (en) R. Trifonov, S. Yoshinov, S. Manolov, G. Tsochev et G. Pavlova, « Artificial Intelligence methods suitable for Incident Handling Automation », MATEC Web of Conferences, vol. 292,‎ , p. 01044 (ISSN 2261-236X, DOI 10.1051/matecconf/201929201044)
  • M. Hubert, « L'informatique en France de la seconde Guerre Mondiale au Plan Calcul. », Revue d'anthropologie des connaissances, vol. 5, 1, no 1,‎ , p. 155 (ISSN 1760-5393, DOI 10.3917/rac.012.0155)
  • (en) J. Andreeva, D. Dieguez Arias, S. Campana, J. Flix et O. Keeble, « Providing global WLCG transfer monitoring », Journal of Physics: Conference Series, vol. 396, no 3,‎ , p. 032005 (ISSN 1742-6588, DOI 10.1088/1742-6596/396/3/032005)
  • (en) J. Sigarch, D. Dieguez Arias, S. Campana, J. Flix et O. Keeble, « High Performance Computing, Networking, Storage and Analysis (SC) », Institute of Electrical and Electronics Engineers,‎ (ISBN 9781450307710)
  • (en) N. Simakov, J. White, R. DeLeon, A. Ghadersohi et T. Furlani, « Application kernels: HPC resources performance monitoring and variance analysis », Concurrency and Computation: Practice and Experience, vol. 27, no 17,‎ , p. 5238-5260 (DOI 10.1002/cpe.3564)
  • (en) J. Palmer, S. Gallo, T. Furlani, M. Jones et R. DeLeon, « Open XDMoD: A Tool for the Comprehensive Management of High-Performance Computing Resources », Computing in Science & Engineering, vol. 17, no 4,‎ , p. 52-62 (ISSN 1521-9615, DOI 10.1109/MCSE.2015.68)
  • (en) T. Furlani, M. Jones, S. Gallo, A. Bruno et CD. Lu, « Performance metrics and auditing framework using application kernels for high-performance computer systems », Concurrency and Computation: Practice and Experience, vol. 25, no 7,‎ , p. 918-931 (DOI 10.1002/cpe.2871)
  • (en) M. Wiboonrat, « Data center infrastructure management WLAN networks for monitoring and controlling systems », The International Conference on Information Networking 2014,‎ , p. 226-231 (DOI 10.1109/ICOIN.2014.6799696)
  • (en) Z. Li, M. Liang, L. O'Brien et H. Zhang, « The Cloud's Cloudy Moment: A Systematic Survey of Public Cloud Service Outage », International Journal of Cloud Computing and Services Science,‎ (DOI 10.11591/closer.v2i5.5125)
  • (en) K. Dahbur, B. Mohammad et A. Tarakji, « A survey of risks, threats and vulnerabilities in cloud computing », International Conference on Intelligent Semantic Web-Services and Applications,‎ , p. 1-6 (ISBN 9781450304740, DOI 10.1145/1980822.1980834)
  • (en) JG. Lou, Q. Lin, R. Ding, Q. Fu, D. Zhang et T. Xie, « Software analytics for incident management of online services: An experience report », IEEE/ACM International Conference on Automated Software,‎ , p. 475-485 (DOI 10.1109/ASE.2013.6693105)
  • (en) V. Munteanu, A. Edmonds, T. Bohnert et T. Fortiş, « Cloud incident management, challenges, research directions, and architectural approach », IEEE/ACM 7th International Conference on Utility and Cloud Computing,‎ , p. 786-791 (ISBN 9781479978816, DOI 10.1109/UCC.2014.128)
  • (en) E. Karakoc et F. Dikbiyik, « Rapid migration of VMs on a datacenter under cyber attack over optical infrastructure », International Symposium on Smart MicroGrids,‎ , p. 54-58 (ISBN 9781509037841, DOI 10.1109/HONET.2016.7753450)
  • (en) A. Herrera et L. Janczewski, « Cloud supply chain resilience », Information Security for South Africa - Proceedings of the ISSA 2015 Conference,‎ , p. 54-58 (ISBN 9781479977550, DOI 10.1109/ISSA.2015.7335076)
  • (en) H. Liu, X. Wu, M. Zhang, L. Yuan, R. Wattenhofer et D. Maltz, « zUpdate: Updating data center networks with zero loss », SIGCOMM 2013 - Proceedings of the ACM,‎ , p. 411-422 (ISBN 9781450320566, DOI 10.1145/2486001.2486005)
  • (en) G. Carnino et C. Marquet, « Les datacenters enfoncent le cloud  : enjeux politiques et impacts environnementaux d’internet », Zilsel, vol. 3, no 1,‎ , p. 19 (ISSN 2551-8313, DOI 10.3917/zil.003.0019)
  • (en) N. Shelly, B. Tschaen, KT. Forster, M. Chang, T. Benson et L. Vanbever, « Destroying networks for fun (and profit) », ACM Press,‎ , p. 1-7 (ISBN 9781450340472, DOI 10.1145/2834050.2834099)
  • (en) A. TaherMonfared et MG. TurnerJaatun, « Handling compromised components in an IaaS cloud installation », Journal of Cloud Computing, vol. 1, no 1,‎ , p. 16 (ISSN 2192-113X, DOI 10.1186/2192-113X-1-16)
  • (en) V. Munteanu, A. EDmonds, TM. Bohnert et TF. Fortis, « Cloud Incident Management, Challenges, Research Directions, and Architectural Approach », ACM International Conference on Utility and Cloud Computing,‎ , p. 786-791 (ISBN 978-1-4799-7881-6, DOI 10.1109/UCC.2014.128)
  • (en) D. Perez-Palacin et J. Merseguer, « Performance Evaluation of Self-reconfigurable Service-oriented Software With Stochastic Petri Nets », Electronic Notes in Theoretical Computer Science, vol. 261,‎ , p. 181-201 (DOI 10.1016/j.entcs.2010.01.012)
  • (en) A. Fox, E. Kiciman et D. Patterson, « Combining statistical monitoring and predictable recovery for self-management », ACM Press,‎ , p. 49-53 (ISBN 1581139896, DOI 10.1145/1075405.1075415)
  • (en) H. Gunawi, M. Hao, RO. Suminto, A. Aksono, AD. Satria, J. Adityatame et KJ. Eliazar, « Why Does the Cloud Stop Computing? », ACM Symposium on Cloud Computing,‎ , p. 1-16 (ISBN 9781450345255, DOI 10.1145/2987550.2987583)
  • (en) X. Wu, D. Turner, CC. Chen, D. Maltz, X. Yang, L. Yuan et M. Zhang, « Power attack defense », ACM Press, vol. 44, no 3,‎ , p. 493-505 (DOI 10.1145/3007787.3001189)
  • (en) P. Huang, C. Guo, L. Zhou, JR. Lorch, y. Dang, M. Chintalapati et R. Yao, « Gray Failure - The Achilles' Heel of Cloud-Scale Systems », ACM Digital Library, vol. 292,‎ , p. 150-155 (ISBN 9781450350686, DOI 10.1145/3102980.3103005)
  • (en) HS. Gunawi, C. McCaffrey, D. Srinivasan, B. Panda, A. Baptist, G. Grider, PM. Fields, K. Harms, RB. Ross et A. Jacobson, « Fail-Slow at Scale », ACM Transactions on Storage, vol. 14, no 3,‎ , p. 1-26 (DOI 10.1145/3242086)
  • (en) P. Cichonski, T. Millar, T. Grance, M. Chang et K. Scarfone, « Computer SecurityIncident Handling Guide », National Institute of Standards and Technology Special Publication,‎ , p. 1-79 (DOI 10.6028/NIST.SP.800-61r2)
  • (en) J. Cusick et G. Ma, « Creating an ITIL inspired Incident Management approach: Roots, response, and results », IEEE / IFIP,‎ , p. 142-148 (DOI 10.1109/NOMSW.2010.5486589)
  • (en) A. Greenberg, J. Hamilton, D. Maltz et P. Patel, « The cost of a cloud », ACM, vol. 39, no 1,‎ , p. 68 (DOI 10.1145/1496091.1496103)
  • (en) C. Cao et Z. Zhan, « Incident management process for the cloud computing environments », IEEE,‎ , p. 225-229 (DOI 10.1109/CCIS.2011.6045064)
  • Pascal Grosjean et Médéric Morel, « Performance des architectures IT Ressource électronique : Comprendre, résoudre et anticiper », Dunod,‎ (DOI 978-2-10-056252-7)

(en) « Uptime Institute » (consulté le )

(en) « 2019 Annual Data Center Survey Results », sur Uptime Institute, (consulté le )

(en) « NASA's Ames Research Cente » (consulté le )

(en) « Swiss National Supercomputing Centre » (consulté le )

(en) « Centre Calcul IN2P3 » (consulté le )

(en) « CNRS IN2P3 » (consulté le )

(en) « Worldwide LHC Computing Grid » (consulté le )

(en) « WLCG Service Incident Reports » (consulté le )

(en) « Institut du developpement et des ressources en informatique scientifique » (consulté le )

(en) « European Advanced Computing Services for Research » (consulté le )

(en) « European Technology Platform for HPC » (consulté le )

(en) « Journal of grid computing. », sur Springer Science+Business Media. (consulté le )

(en) « TOP500 Supercomputer Sites » (consulté le )

(en) « ANSSI Agence Nationale de la Sécurité des Système d'Information » (consulté le )

(en) « NIST National Institute of Standards and Technology » (consulté le )

(en) « Bulletin d’actualité CERTFR-2016-ACT-014 » (consulté le )

(en) « IETF RFC 2350 Expectations for Computer Security Incident Response » (consulté le )

(en) « ISO 27035 Information security incident management » (consulté le )

(en) « SANS Institute » (consulté le )

(en) « ENISA European Union Agency for cybersecurity » (consulté le )

(en) « Good Practice Guide for Incident Management » (consulté le )

(en) « Carnegie Mellon University » (consulté le )

(en) « Defining Incident Management Processes for CSIRTs » (consulté le )

(en) « Publicly Reported Outages 2018-19 » (consulté le )

(en) « 8th annual Data Center Survey » (consulté le )

« ITIL France » (consulté le )

« La Disponibilité : Un critère déterminant dans le choix d'un hébergement Cloud » (consulté le )

« Data center : bienvenue dans les usines à données » (consulté le )

« ITIL : Renaissance ou dernier soupir » (consulté le )

« Service Management for the digital edge » (consulté le )

« TOGAF The Open Group Architecture Framework » (consulté le )

« Agile et ITIL 4 : l’avènement de l’IT Service Management Agile » (consulté le )

« AWS Auto Scaling » (consulté le )

« ITIL et DATA CENTERS » (consulté le )

« APL : Avis d'expert » (consulté le )

« Gestion des incidents : Processus ITIL » (consulté le )

« Un datacenter Google frappé par la foudre » (consulté le )

« Panne de Google Cloud : le géant du web relativise l’incident » (consulté le )

« Panne de Google Cloud : les faiblesses du Cloud mises en lumière » (consulté le )

« Vérifier l'état actuel d'un service G Suite » (consulté le )

« Carte des pannes de Google » (consulté le )

« Processus de gestion des incidents liés aux données » (consulté le )

« IA : Google confie les clés du refroidissement de ses data centers à ses algorithmes » (consulté le )

« Incendie dans le datacenter : histoires vraies de PRA qui s'envolent en fumée » (consulté le )

« Guide sur le CloudComputing et les dataCenters à l’attention des collectivités locales » (consulté le )

« Comment OVH évite le coup de chaud à ses datacenters » (consulté le )

« Energie consommée par les data centers » (consulté le )

« Incidents et Google Cloud Status Dashboard » (consulté le )

« Supervision d’un data center : Organisation et méthodologie (© 2012 Amadeus IT Group SA) » (consulté le )

« Solution d'interconnexion de data centers » (consulté le )

« Google donne plus de détails sur l'incident de mise en réseau de ses services cloud » (consulté le )

« Google Cloud Status Dashboard » (consulté le )

« Pics de canicule : pourquoi les datacenters français tiennent le coup » (consulté le )

« Arrêt de Chorus : les raisons de la panne du datacenter de Bull » (consulté le )

« Pourquoi Google construit 12 nouveaux datacenters dans le monde ? » (consulté le )

« Plan de continuité informatique - Principes de base » (consulté le )

« Failure Diagnosis for Datacenter Applications » (consulté le )

« Les géants d’internet et du cloud disposent de 300 datacenters dans le monde » (consulté le )

« Gestion des évènements ITIL dans le cloud » (consulté le )

« AMS exploite l’infrastructure AWS en faveur de clients d’entreprises et de partenaires » (consulté le )

« AWS développerait un nouveau processeur ARM 20% plus performant pour ses data centers » (consulté le )

« Le calcul scientifique des expériences LHC - Résumé » (consulté le )

« Le calcul scientifique des expériences LHC - Une grille de production mondiale » (consulté le )

« Amazon passe à la vitesse supérieure dans la création des puces de son cloud » (consulté le )

« Cloud computing : la lourde tendance 2020, le "serverless" progresse » (consulté le )

« L’impact spatial et énergétique des data center sur les territoires » (consulté le )

« Orange - Construction d'un data center Val de Reuil » (consulté le )

« Evaluation of Incident Detection Methodologies » (consulté le )

« L’intelligence artificielle est "dans l’impasse" » (consulté le )

« Livre blanc : Approches contemporaines en hébergement et gestion de données » (consulté le )

« Software analytics for incident management of online services : an experience report » (consulté le )

« Microsoft Cloud Infrastructure » (consulté le )

« Inside a Google data center » (consulté le )

« Intel se muscle dans l'intelligence artificielle en s'emparant d'Habana Labs pour 2 milliards de dollars » (consulté le )

« Project Silica : Pour Microsoft, le futur du stockage de données est... un morceau de verre » (consulté le )

« Plus de 500 méga datacenters opérés par les géants d’internet et du cloud » (consulté le )

« Avec 3 milliards d’euros investis dans ses data centers européens, Google se pose en champion de la greentech » (consulté le )

« Quatre innovations pour accélérer sur le calcul à haute performance (HPC) » (consulté le )

« La start-up Immersion 4 rafraîchit les data centers… et veut réutiliser l’énergie qu’ils dégagent » (consulté le )

« Vivement le datacenter autonome, parce que vous avez déjà assez de problèmes à gérer… » (consulté le )

« Comment Naval Group aide Microsoft à créer et déployer un datacenter sous-marin » (consulté le )

« Microsoft poursuit son projet fou de data center sous-marin avec Naval Group » (consulté le )

« Cloud, HPC, intelligence artificielle... Lenovo fait une démonstration de force dans les serveurs » (consulté le )

« AG2R La Mondiale se convertit au stockage de données à mémoires flash » (consulté le )

« Le phénomène Pokémon GO révéle nos besoins en datacenters de proximité » (consulté le )

« Data Center Research : actualités des data center » (consulté le )

« L'origine du terme Bug » (consulté le )

« Google Cloud Networking Incident #19009 » (consulté le )

Grace Hopper

Télégraphe Vibroplex

« Une panne du cloud d’Amazon met en panique tout l’internet mondial » (consulté le )

« Top 7 pannes 2019 » (consulté le )

« Thomas Edison » (consulté le )