Pingouin, virtualisation et 23 milliards de dollars: comment et pourquoi la technologie cloud a changé à jamais le monde informatique



Toutes les quelques années, une nouvelle technologie ou un nouveau paradigme apparaît sur le marché informatique qui change radicalement les modèles commerciaux de la plupart des entreprises.

Par exemple, il y a 25 ans, ce paradigme était le boom massif des PC, dont Microsoft a bénéficié. Il y a 15 ans - la propagation massive de l'Internet haut débit, qui a transformé Google et Yandex en entreprises avec des milliards de chiffre d'affaires. Il y a 10 ans - une explosion d'intérêt pour le développement mobile et le début de l'ère étoilée d'Apple. Maintenant, peut-être, l'ère des nuages ​​bat son plein. Sous la coupe, nous disons comment et pourquoi cette ère est venue.

Il est important de le souligner: dans tous ces cas, nous parlons de produits de masse autour desquels une entreprise se construit, et non d'une technologie qui s'est avérée être au centre du battage médiatique. Par exemple, de nombreux développeurs travaillent avec la blockchain ou la réalité virtuelle, mais ces technologies n'ont pas encore généré de produits que des millions de consommateurs utilisent quotidiennement.

A titre de comparaison: le marché mondial des services cloud, selon les prévisions de Gartner, atteindra 23,6 milliards de dollars cette année, et triplera pour atteindre 63 milliards d'ici 2021! Sur quoi est basé ce scénario optimiste? Et pourquoi les nuages ​​attirent-ils autant les consommateurs de masse et les leaders du marché?

Multicœur et large bande


Officiellement, l'ère de la technologie cloud a commencé en 2006, lorsque Amazon a été le premier à introduire sa plateforme cloud. Cependant, le concept de cloud en lui-même n'est pas nouveau: l'idée de fournir des services aux utilisateurs sur le réseau a été exprimée en 1993 par le directeur technologique encore peu connu de Sun Microsystems, Eric Schmidt (oui, celui-là!).

C'est Sun qui a d'abord proclamé: "Le réseau est un ordinateur!"

Les avantages de cette approche sont évidents. L'utilisateur n'a pas besoin d'installer quoi que ce soit (ou pratiquement rien). Il suffit de se connecter via le navigateur au nœud souhaité et d'obtenir le service nécessaire. En fait, des services cloud modernes - Yandex. Drive ", Google Doc, DropBox - et ça marche. Cependant, il y a 25 ans, un tel service n'était disponible que dans des fantasmes audacieux. Cela ne pouvait devenir réalité que parce que deux tendances importantes coïncidaient.

Premièrement, Internet est devenu vraiment massif. En 2010, le nombre d'utilisateurs ayant un accès à large bande au réseau en Russie, en Chine, aux États-Unis et dans l'UE était déjà de plusieurs centaines de millions. La construction massive de réseaux 3G et 4G a finalement consolidé la connexion de milliards d'utilisateurs avec le monde virtuel.

Deuxièmement, depuis plusieurs années, les équipementiers ont pu réaliser une baisse importante de prix pour celui-ci tout en augmentant la productivité. Par exemple, 2004-2005. est devenu l'aube de l'ère des processeurs multicœurs. Au cours de l'année, leurs solutions dual-core ont été présentées par IBM, Sun Microsystems, Intel et AMD. Ces processeurs sont capables de traiter simultanément plusieurs flux d'informations à la fois, de sorte que leurs performances sont supérieures à celles des modèles à cœur unique.

Pour obtenir la quantité de puissance de processeur nécessaire, moins d'équipement était nécessaire, tandis que la consommation d'électricité n'a pas beaucoup augmenté, ce qui signifie qu'en général, les dépenses ont diminué. Étant donné que le principal élément de coût pour les centres de données est le paiement de l'électricité, ils ont la possibilité d'augmenter l'efficacité énergétique. Et grâce au fait de ne payer que pour les ressources réellement consommées, au lieu d'acheter du matériel, d'avoir vos propres salles de serveurs, du personnel hautement qualifié et de les former, comme dans la version traditionnelle, les technologies cloud sont devenues une incitation sérieuse pour les consommateurs professionnels à `` se déplacer '' vers les centres de données.

En conséquence, de nombreux consommateurs, en particulier les petites et moyennes entreprises, ont perdu l’incitation à construire leurs propres centres de données et à se lancer dans des activités inhabituelles. Pourquoi faire quelque chose vous-même si vous pouvez acheter le service à un prix avantageux auprès d'un fournisseur professionnel?

Pingouin aux multiples visages


Bien que le prix, bien sûr, soit l'un des principaux problèmes lors du choix d'un produit, le passage aux nuages ​​n'est pas uniquement lié à cela. Les services cloud ont un autre avantage pour lequel les développeurs et les consommateurs professionnels les aiment tant.

C'est ça la flexibilité. Les nuages ​​sont conçus de manière à permettre aux développeurs d'accéder à une quantité presque illimitée de ressources informatiques et de mémoire. Grâce à cela, le processus de mise à l'échelle et d'administration des «nuages» devient une tâche facile.

Le secret de la flexibilité réside dans l'utilisation de la technologie de virtualisation, qui vous permet d'abstraire un logiciel du matériel sur lequel il fonctionne. Le boom des solutions de virtualisation est lié au système d'exploitation Linux, qui a été développé par le programmeur finlandais Linus Torvalds sur la base du système d'exploitation Unix pour son ordinateur. Il a publié ses résultats dans un référentiel public et, sans le soupçonner, a lancé la naissance d'un produit clé pour l'industrie du cloud.

La première version officielle de Linux 1.0 est sortie en 1994. La marque Linux a été enregistrée un an plus tard, en 1995. L'emblème Linux était Tux, un pingouin dessiné en 1996 par le programmeur et designer Larry Ewing. Maintenant, Teckel est un symbole non seulement de Linux, mais du logiciel libre en général.

En raison du fait que le code du noyau Linux était à l'origine ouvert, des milliers de développeurs du monde entier ont commencé à l'affiner à leurs besoins et à proposer constamment de nouvelles fonctionnalités. En conséquence, Linux a de nombreuses distributions - des systèmes d'exploitation qui utilisent le noyau Linux, mais diffèrent considérablement dans l'ensemble des utilitaires et des applications. Il existe désormais plus de 600 distributions Linux, dont la moitié sont constamment développées et mises à jour. Les plus célèbres d'entre eux sont Ubuntu, Debian Manjaro.



Linux est également activement utilisé dans Sberbank et Sbertech. Sbertech utilise principalement trois distributions: RedHat Enterprise Linux, Centos et Ubuntu.

En plus de l'ouverture du système sous Linux, il y avait de nombreuses solutions architecturales réussies. Par exemple, contrairement à Windows, ce système d'exploitation a été initialement conçu avec la prise en charge de nombreux processus. Dans un tel modèle, pratiquement chaque tâche devient un processus distinct qui peut être «lancé» vers l'un des cœurs de processeur et ainsi augmenter à la fois l'utilitarisme de l'équipement et la vitesse de l'application elle-même.

Bien que Linux n'ait jamais réussi à vaincre Windows dans la bataille pour les ordinateurs personnels, il a remporté la guerre dans un autre domaine. Linux est gratuit, il est donc le plus souvent utilisé comme système d'exploitation pour les serveurs. Cela a prédéterminé sa distribution de masse et sa popularité parmi les développeurs. Il existe différentes options de distribution: certaines d'entre elles se caractérisent par une grande stabilité, d'autres - la prise en charge des dernières versions des programmes et des bibliothèques. RadHat Enterprise Linux est l'une des références des distributions stables pour le secteur des entreprises. Il est célèbre pour sa grande fiabilité et est activement utilisé à Sberbank. Mais en même temps, il contient des versions plus anciennes de logiciels et de bibliothèques.

Capturant le marché des OS de serveurs, l'écosystème Linux a commencé à se développer rapidement. La variété des distributions Linux vient de définir l'un des vecteurs de développement du système d'exploitation. En raison du fait que différentes versions du système d'exploitation pouvaient être installées sur différents serveurs, et également en raison du manque d'analogues de certaines applications écrites pour Windows, de nombreux hyperviseurs sont apparus dans l'écosystème Linux.

Les hyperviseurs sont des programmes spéciaux qui vous permettent d'installer un autre virtuel sur un système d'exploitation. Avec leur aide, les applications installées dans ce système virtuel ne savent pas qu'elles ne sont «pas basiques» et avec quel matériel elles fonctionnent. De ce fait apparemment simple et même drôle, un grand nombre d'opportunités prometteuses inattendues s'ensuivent.

Effet de virtualisation


La virtualisation vous permet d'abstraire l'application du matériel et de son système d'exploitation principal. Grâce à cela, il devient possible de combiner des ressources informatiques physiques en blocs logiques uniques qui ne sont pas liés au composant matériel et en même temps logiquement isolés les uns des autres.

En fait, les services cloud fournissent à l'utilisateur une machine virtuelle, sur la base de laquelle il peut créer et déployer pratiquement n'importe quelle application, sans penser à leur réalisme compatible avec le matériel sur lequel ils travaillent.



Si nous exécutons l'application sur un cluster régulier de plusieurs serveurs, l'administrateur doit surveiller en permanence son travail. Dans le cas où la charge augmente sur l'application et les serveurs ne peuvent pas faire face, il devrait y avoir un autre serveur de fer avec le système d'exploitation configuré et l'application prête. Ainsi, afin de modifier dynamiquement la demande d'énergie, nous avons besoin de temps, ce qui peut ne pas être dû à la criticité de la tâche, explique l'expert.

L'utilisation de la virtualisation vous permet de monter d'un niveau. Grâce à cela, le développeur et l'administrateur système ont une énorme échelle d'expériences.
Le développement d'applications pour les plateformes cloud peut être appelé un art distinct, que chaque programmeur est désormais obligé de maîtriser. Contrairement à l'architecture classique, les applications cloud doivent évoluer de manière linéaire. Vous pouvez obtenir ce résultat à l'aide d'une conception réfléchie de l'interaction entre les principaux éléments de l'application. En utilisant n'importe quel nombre de serveurs avec différents systèmes d'exploitation, vous pouvez les combiner avec un système de gestion (par exemple Kubernetes), et toutes les machines deviendront un cluster unique. Du point de vue du consommateur, un «superordinateur» apparaît, qui a la capacité totale de RAM et de processeur des serveurs qui le composent.

Par exemple, basé sur un cluster fonctionnel, vous pouvez créer des machines avec de nouvelles fonctionnalités. Dans le même temps, il ne sera pas nécessaire d'engager des ingénieurs supplémentaires pour contrôler le travail et le support des nouvelles machines virtuelles.

Vous pouvez également obtenir non seulement de la flexibilité, mais également augmenter l'utilisation de l'équipement - les capacités du processeur et la mémoire commencent à être utilisées de manière dynamique et ne restent pas inactives.

L'argent dans les nuages


La combinaison de prix bas et d'options de personnalisation flexibles pour les besoins des clients grâce à la technologie de virtualisation a fait des nuages ​​le format le plus prometteur pour la fourniture de services informatiques.

L'une des premières utilisations des clouds publics et hybrides dans un environnement d'entreprise a été leur utilisation comme environnements de test. La demande d'équipement, par exemple pour l'organisation des tests de charge, est toujours spasmodique. Une fois la nouvelle version de l'application prête, un banc d'essai est nécessaire de toute urgence. Mais une fois les tests terminés, il peut rester inactif sans travail. C'est là que les technologies cloud viennent à la rescousse: avec leur aide, vous pouvez rapidement créer l'environnement de test nécessaire exactement au moment pour lequel il est nécessaire et ne pas surpayer pour un équipement simple ultérieur.

La deuxième application des nuages ​​est de les utiliser pendant les heures de pointe de croissance. Les serveurs connectés en temps opportun garantissent un traitement stable des demandes des utilisateurs et un service de haute qualité.

La troisième application cloud organise le travail distribué des équipes de développement. Pour une collaboration productive entre programmeurs situés dans différentes parties du pays ou du monde, chacun d'eux doit avoir accès à un système de développement unique, qui est fourni par des plates-formes cloud modernes.

Dans le même temps, les nuages ​​privés sont utilisés dans l'environnement d'entreprise presque à partir du moment où la définition de «cloud computing» du National Institute of Standards and Technologies des États-Unis est apparue, étant un développement logique des technologies de virtualisation.

Désormais, chaque grande entreprise de haute technologie a ses propres services cloud dans son portefeuille. Par exemple, Microsoft développe sa plateforme Azure, Google - Cloud Platform, Amazon a une direction distincte, qui s'appelle - Web Services. En général, les principaux modèles économiques des entreprises industrielles peuvent être divisés en trois catégories selon le service fourni aux consommateurs.

La première option consiste à fournir l'infrastructure en tant que service (IaaS, Infrastructureas aService). Dans ce cas, le client conçoit et gère indépendamment son infrastructure informatique dans le cloud - crée des réseaux virtuels, ajoute des équipements virtuels (serveurs, stockage, bases de données), installe les logiciels d'application et les systèmes d'exploitation nécessaires, etc. Les solutions IaaS les plus connues: Amazon CloudFormation , GoogleComputeEngine, Windows Azure.

Le deuxième format commun pour l'interaction entre un fournisseur et un consommateur est la fourniture d'une plate-forme en tant que service. PaaS, Platformas aService). Dans ce cas, le fournisseur de services cloud fournit à l'utilisateur un accès aux systèmes d'exploitation, aux systèmes de gestion de base de données, aux outils de développement et de test. Le consommateur de services cloud a l'opportunité et les moyens de créer, tester et exploiter indépendamment des logiciels. De plus, l'ensemble de l'infrastructure d'information (réseaux informatiques, serveurs et systèmes de stockage) est géré par le prestataire.

La troisième forme d'interaction entre un service cloud et un consommateur est le logiciel en tant que service (SaaS, softwareas aservice). Dans ce cas, le fournisseur fournit aux utilisateurs un logiciel prêt à l'emploi. Toutes les données sont stockées dans le cloud et pour y accéder, l'utilisateur n'a besoin que d'un navigateur Web. Ce format d'interaction ne nécessite pas de coûts supplémentaires pour l'installation et la configuration du logiciel, car il est nécessaire pour utiliser IaaS et PaaS. Les frais facturés à l'utilisateur dans ce cas sont liés au nombre de licences louées. L'exemple le plus frappant est que dans ce format, Microsoft vend des abonnements à son package Office365.

Bien que le cloud computing ait déjà attiré l'attention des utilisateurs privés et des entreprises, il faut garder à l'esprit qu'ils ont leurs propres inconvénients et risques. L'un d'eux est la confidentialité des données. Des scandales périodiques causés par le dumping ou le piratage de bases de données situées dans le cloud font que de nombreux consommateurs se méfient des services cloud.

Le deuxième risque est la perte de communication avec le centre de données cloud. Peu importe à quel point les algorithmes sont intelligents sur les serveurs, ils sont toujours impuissants face au "coup de pelle accidentel sur le câble".

Pour les banques, ces deux risques sont particulièrement importants, car la confiance des clients est la base de leur activité. Dans cette situation, les plus grandes banques et sociétés financières préfèrent construire leurs propres systèmes cloud avec un très haut niveau de SLA.

Les centres de données construits par eux rappellent davantage les bunkers secrets - plusieurs routes indépendantes avec des câbles pour accéder au réseau sont posées au bâtiment, un système d'alimentation électrique ininterrompu est en cours de construction. Des systèmes de ventilation spécialisés sont installés dans le bâtiment, capables de maintenir une température et une humidité de l'air données à l'intérieur, même dans le contexte de surtensions et de surtensions.

Sberbank possède son propre cloud privé. Le centre de données du port sud et le centre de données de Skolkovo, ouverts il y a un an, en sont la base en fer. La conception de ce centre de données correspond au niveau de fiabilité Tier 3. La banque prévoit de construire un troisième centre de données, ce qui garantit que la Banque sera toujours en contact avec les clients.

Source: https://habr.com/ru/post/fr436542/


All Articles