Plan du site  
pixel
pixel

Articles - Étudiants SUPINFO

Une première approche à la virtualisation

Par Samuel RENGASSAMY Publié le 26/05/2018 à 00:55:27 Noter cet article:
(0 votes)
Avis favorable du comité de lecture

Introduction

La virtualisation est une technologie qui a fait son apparition il y a quelques décennies, de plus en plus de personnes n’hésitent pas à se tourner vers cette technologie qui est en constante évolution et qui prends de plus en plus d’ampleur dans le domaine informatique.

Entre virtualisation de postes de travail, bureaux virtuels et streaming, la virtualisation offre un panel de services différents pour diverses utilisations.

Dans cet article, je vous expliquerai ce qu’est la virtualisation, ses avantages et les différentes technologies qui y sont liées et ce dans les presque moindre de détails !

Alors relaxez-vous, si aujourd’hui vous n’y connaissez pas grand-chose à ce sujet, à la fin de cet article vous en saurez plus !

La virtualisation en général

L’objectif principal de la virtualisation est de permettre à des utilisateurs d’exécuter un ou plusieurs systèmes d’exploitation au sein d’environnements isolés mais la virtualisation possède de nombreux autres avantages ! On parle d’évolutivité, de réductions de coûts, d’optimisation de ressources etc.

Ne vous êtes vous jamais demandés quelles pouvaient être les répercussions d’une machine qui tombe en panne ? Ou encore les conséquences d’une mise à jour qui aurait échoué ! Dans le deuxième cas, vous me direz qu’il y avait moyen d’effectuer des tests sur une autre machine avant tout migration !

Vous savez quoi ? Vous avez raison ! Mais le risque zéro n’existe pas, il suffit d’une petite exception et hop la migration réussie sur l’autre ordinateur échoue sur votre machine de production. Si jamais une machine venait à s’éteindre brusquement en cas de coupure d’électricité ou pour tout autre raison, le risque qu’elle ne redémarre plus est toujours présent, et si jamais vous voulez revenir en arrière il se pourrait que vous soyez victime d’un très long périple pour y arriver !

Et puis même si jamais vous voulez essayer la haute disponibilité, la virtualisation s’avère toujours plus utile, en effet elle vous permettra d’économiser sur vos dépenses car la facture pourrait monter très vite. Tout d’abord parce que le temps accordé à la maintenance de vos différentes machines a un coût et l’acquisition de matériel nécessaire possède également un coût. Avec la virtualisation le temps consacré à la maintenance sera relativement moins élevé et permettra également aux administrateurs de se consacrer à des tâches beaucoup plus importantes.

Virtualisation et gestion des ressources

Avec les avancées technologiques, qu’il s’agisse d’un smartphone, d’un ordinateur, d’une box et bien d’autres, il est rare de nos jours qu’une machine soit utilisée à 100% de ses capacités.

Une machine tournant sous un système d’exploitation a pour objectif principal de faire tourner de nombreuses applications allant de la simple prise de note à l’utilisation de logiciels puissants, les technologies d’aujourd’hui font que l’utilisation de ces applications ne nécessitera que très peu de ressources.

Imaginons que vous soyez en possession d’une machine avec de la mémoire vive atteignant les 16 Go, un processeur milieu voire haut de gamme et un disque dur avec une certaine capacité de stockage de 1To, si vous veniez à avoir à y installer un système d’exploitation ne consommant que 2Go de mémoire (comme Windows), une faible quantité d’espace disque sur les 1To, il serait dommage d’avoir autant de ressources disponibles inutilisées !

Particulièrement si toute la capacité de la mémoire vive se trouvait sur une seule barrette mémoire, en cas de haute disponibilité, faire l’acquisition de matériel supplémentaire pourrait revenir plus cher alors que de nombreuses ressources restent disponibles.

Grâce à la virtualisation vous aurez l’occasion d’étendre la capacité de stockage de façon simple sur vos machines ce qui induit une meilleure flexibilité au niveau de la sélection des composants. 

Comment fonctionne la virtualisation ?

Les présentations maintenant faites, si vous êtes convaincus, je propose maintenant de rentrer plus en détail dans cette technologie.

Un schéma simple d’ordinateur serait le suivant :

  • Une couche matérielle contenant vos ressources matérielles (Processeur, RAM, Disque dur etc.)

  • Une couche système d’exploitation hébergeant le système et les applications

  • Et une couche applications et logiciels tournant sur la couche système

En utilisant la technologie de la virtualisation, vous avez la possibilité de pouvoir utiliser votre machine afin de lui permettre de réaliser le travail de plusieurs machines différentes tout en se partageant toutes les ressources disponibles au niveau de la couche matériel, pour y arriver on dispose de plusieurs techniques qui différeront selon votre approche et vos préférences en la matière.

La virtualisation classique

La virtualisation classique consiste en le fait de pouvoir faire tourner un ou plusieurs postes de travail sur un même système d’exploitation à partir de ce que l’on pourrait appeler des « isolateurs ». Cette technique repose sur l’utilisation de logiciels tels que VMWare, VirtualBox, Hyper-V etc., en effet chaque machine virtuelle tournera de façon isolée dans ce que l’on peut appeler « conteneurs ».

Juste au-dessus de la couche système, on peut trouver une petite couche qui s’appelle un « hyperviseur » ou « Virtual Machine Monitor (VMM) ».

L’hyperviseur qu’on distinguera en deux catégories « bare metal » et « hébergé » a pour but de s’occuper de la communication entre la couche matérielle, système et les différents conteneurs afin de leur fournir les ressources nécessaires à l’exécution des différentes machines virtuelles, les ressources matérielles seront donc partagées entre plusieurs systèmes d’exploitation.

Dans le cas de la virtualisation basique, le type d’hyperviseur utilisé est de type « hébergé », car comme son nom l’indique il ne tourne pas nativement au niveau de la couche la matérielle. Bien que les performances puissent être au rendez-vous, ce genre d’architecture n’est utilisé le plus souvent que lors de tests car les VM ne bénéficient pas d’une isolation complète étant donné que les applications tournant sur le système d’exploitation peuvent impacter ces VM particulièrement au niveau de la consommation des ressources qui ne sera pas gérée par l’hyperviseur et dégrader les performances tant au niveau des machines virtuelles qu’au niveau du système hôte.

Les hyperviseurs de type « hosted » ou «  hébergés  », sont compatibles avec n’importe quel système d’exploitation, l’inconvénient de ce type d’hyperviseur est qu’il requiert au préalable l’installation d’un système d’exploitation suivi de l’application compatible avec ce même système d’exploitation.

La raison de cette interopérabilité est due au fait qu’en tant qu’hyperviseur « invité » du fait de son hébergement sur le système d’exploitation, les pilotes d’installation des différents périphériques matériels sont automatiquement fournis à l’hyperviseur par le système hôte car il s’occupe déjà de la liaison avec le matériel physique, l’accès au matériel ne se faisant pas de façon directe mais à travers le système donc. Les performances seront bien entendu moins importantes que lors de l’utilisation d’hyperviseur « bare metal » car souvent l’architecture sur laquelle repose les VM est émulée et donc différente de celle de la machine phyisque.

Niveaux de virtualisation

Il faut savoir qu’il existe plusieurs niveaux de virtualisation :

  • Stockage

    • L’utilisation de « pool de stockages », vSAN et autres permettent de mutualiser les ressources d’une machine et de fixer des paramètres de gestion des machines virtuelles comme des limites de stockage

    • Ces pools peuvent également être séparés en plusieurs sous pools de stockage avec des capacités différentes selon l’objectif voulu

  • Réseau

    • L’objectif principal est de pouvoir séparer un réseau en plusieurs sous réseaux voire en créer un à partir d’une carte réseau, augmentant ainsi sécurité, performance et flexibilité. Ces sous réseaux sont appelés vLAN ou en encore vSwitch.

  • Session/Application

    • Le principal atout de la virtualisation d’application est de permettre de faire du « streaming » d’applications afin qu’elles ne soient plus lancées directement via un logiciel installé mais via une machine hôte hébergeant l’application. Ces solutions sont particulièrement utiles si l’on veut lancer une application gourmande en ressource depuis une machine plus faible. On peut retrouver des solutions comme App-V / Applidis, VMWare ThinApp etc.

    • Le principal atout de la virtualisation d’application réside dans le fait que les mises à jour par exemple sont faites uniquement sur le serveur. Cela ne nécessite alors pas ou peu d’interventions de la part de l’administrateur, cela peut s’avérer utile particulièrement dans le cas de grand parcs informatique.

  • Système

    • Hyperviseurs “bare metal”. VMWare ESX, Hyper-V sont les plus connus.

    • Virtualisation de poste de travail : Tout comme pour la virtualisation d’applications, il s’agit de permettre à l’utilisateur de pouvoir bénéficier d’une certaine mobilité grâce à l’utilisation de « bureaux virtuels ». Cette fois-ci ce n’est pas l’application seulement qui est « streamée » mais tout un environnement de travail qui est accessible depuis presque n’importe quel périphérique compatible avec le protocole requis, les éditeurs de logiciels de virtualisation de bureaux fournissent en général également des outils permettant de monitorer les utilisateurs et leurs bureaux. En contrepartie, cela requiert une bonne configuration du serveur de virtualisation.

    • Parmis ces éditeurs on retrouve bien évidemment VMWare, Systancia, Citrix Xen Desktop et bien d’autres.

  • Utilisateur

    • Pouvoir virtualiser l’utilisateur, c’est lui permettre d’accéder à plusieurs environnements différents à partir d’un même compte. Celui-ci aura la possibilité de retrouver ses données et paramètres personnels depuis n’importe quelle plateforme, qu’il s’agisse de différentes versions de Windows, Linux etc.

  • Environnement d’exécution

    • Docker

Chacun de ces niveaux apporte son lot d’avantages en utilisant les solutions appropriées. Cependant il faut garder à l’esprit que la mise en place de ces solutions nécessite une ou plusieurs machines de base présentant des capacités importantes. Nul besoin d’indiquer que le matériel doit être choisi et mis à jour en fonction des besoins.

La paravirtualisation

Virtualiser à partir de logiciels amène son lot d’inconvénients comme on l’a-t-on cité plus haut, l’un de ces inconvénients majeurs est vous l’aurez deviné, l’accès aux ressources matérielles par l’hyperviseur communiquant avec le système d’exploitation et non pas directement avec le matériel physique, ce qui peut engendrer une baisse notable de performances au niveau de la machine virtuelle.

Pour pallier ce problème, il faut faire appel à la paravirtualisation. Ce modèle permet de diminuer le temps d’accès et la consommation de ressources afin de fournir un meilleur rendement des machines virtualisées.

Afin de rendre la paravirtualisation possible, il faudra modifier le système d’exploitation à virtualiser jusqu’à parfois son noyaux - « kernel » - afin que celui-ci puisse informer la couche hyperviseur des appels à lancer au système d’exploitation.

Pour plus d’informations sur la paravirtualisation je vous invite à consulter cet article :

https://www.itpro.fr/para-virtualisation/

La virtualisation assistée par le matériel

Si jamais vous avez déjà accédé au BIOS de votre ordinateur, il se peut que vous ayez remarqué une option VT-x, VT-d ou même AMD-V pouvant être activée/désactivée selon le processeur équipé par votre ordinateur.

La virtualisation assistée par le matériel fait partie de la toute dernière technologie de virtualisation en la matière, les machines virtuelles concernées par ce type de virtualisation voient leurs performances complètement améliorées par rapport aux techniques de virtualisation classiques.

La particularité de la virtualisation assistée par le matériel réside dans le fait qu’auparavant comme énoncé plus haut, pour virtualiser une machine, la seule solution viable sans passer par la paravirtualisation (qui est venue par la suite) était l’émulation logicielle de matériel physique qui ne proposait de réel avantage à cause des faibles performances proposées par cette solution.

La virtualisation assistée par le matériel elle consiste en la présence d’une « extension » au niveau du processeur permettant à celui-ci de communiquer à la fois avec le système d’exploitation de la machine physique et d’autres systèmes d’exploitation par l’intermédiaire d’une puce dédiée aux tâches de virtualisation. Cette option peut être activée dans le bios

  • Certaines cartes et puces graphiques embarquent également une extension au niveau du processeur graphique offrant la possibilité d’affecter totalement ou partiellement de façon partagée les ressources de celles-ci. Par ailleurs si jamais vous vous lancez dans la virtualisation de système Android x86, sachez que ce système requiert par défaut l’accélération matérielle graphique même s’il est possible de ne pas l’utiliser, le cas échéant nécessitera le rajout ou modification d’un « drapeau ».

    • Contrairement à la paravirtualisation, celle-ci ne nécessite pas d’une modification du kernel des systèmes d’exploitation virtualisés car ceux-ci ne nécessitent pas d’être conscients qu’ils sont en train de se faire virtualiser. Les accès matériels sont donc beaucoup plus rapides car ils ne nécessitent plus l’obligation de passer par le système pour lancer leurs appels au niveau des ressources et plus faciles car il n’y a plus besoin de modifier le kernel.

  • Bien que la plupart des processeurs récents embarquent la virtualisation assistée par le matériel, certains systèmes d’exploitation et/ou hyperviseurs nécessitent d’être modifiés pour permettre la virtualisation de leur système même s’il ne s’agit pas techniquement de « paravirtualisation ». En effet il n’est par exemple pas possible de virtualiser un système d’exploitation OS X (Apple) sur d’autres machines que celles exploitant le système du fabricant pour des raisons diverses notamment de propriété intellectuelle. Ainsi si vous veniez à vouloir faire tourner une machine virtuelle OS X sur votre ordinateur exécutant Windows, vous recevriez une erreur. Chez VMWare cela se traduit par une erreur « kernel panic ».

    • Les raisons de ces erreurs proviennent de la présence des différents « drapeaux », de l’anglais « flags » qui permettent au système d’exploitation de savoir s’il est exécuté sur du matériel certifié par exemple ou si le matériel dispose des caractéristiques nécessaires à l’exécution du système. De ce fait, on peut dire qu’il est quasiment impossible de virtualiser OS X sur des machines s’exécutant sur des processeurs fabriqués par AMD tout d’abord parce que le système OS X n’est conçu que pour s’exécuter sur des processeurs fabriqués par Intel. Plus encore, le jeu d’instruction, différent de celui utilisé par Intel peut ne pas comporter les mêmes drapeaux ni la même façon de fonctionner ce qui nécessite un nombre de modifications élevées tant au niveau du système d’exploitation qu’au niveau de l’hyperviseur.

  • Les hyperviseurs logiciels les plus connus sont VirtualBox, Xen, VMWare Workstation et Hyper-V. On peut rajouter à cette liste le logiciel BlueStacks qui permet la virtualisation d’un système Android qui propose la technique de l’émulation mais aussi celle de la virtualisation assistée selon le support processeur.

    La plupart de ces hyperviseurs proposent également un support limité de la « paravirtualisation » bien que devenue obsolète.

A retenir

Toutefois gardez à l’esprit que réussir à virtualiser un système d’exploitation n’implique pas forcément une compatibilité totale ou partielle de celui-ci avec votre matériel physique. Si vous vous en rappelez, passer par un hyperviseur vous octroie la possibilité de simuler du faux matériel physique bien que vous ayez la possibilité d’utiliser votre propre matériel physique. Généralement, les hyperviseurs se chargent de simuler un faux matériel compatible avec le système d’exploitation à installer sur la machine virtuelle cible lorsque vous lui indiquez celui-ci ainsi le risque ne pas pouvoir utiliser votre carte réseau par exemple est donc limité. Vous comprendrez alors pourquoi il est important de vous renseigner au préalable sur la compatibilité de votre matériel avec un système d’exploitation cible lors de l’installation d’une machine non virtualisée.

Pour l’exemple, la solution de virtualisation pour serveurs vSphere contient un hyperviseur « bare metal » appelé ESXi, suivant la version, il n’est pas possible de l’installer sur n’importe quelle machine bien que celui-ci soit facilement virtualisable depuis n’importe quel « hyperviseur logiciel » ou « hyperviseur hébergé ». Pour un autre exemple, si vous parvenez à installer le système OS X d’Apple sur une machine « non mac » notamment grâce à une modification des « flags », il se peut que votre carte Wi-Fi ne fonctionne pas bien que détectée, la raison étant que le système d’exploitation ne prend pas en charge nativement certaines carte Wi-Fi et les pilotes peuvent ne pas être disponibles pour cet OS.

Alors vous me direz que ESXi est censé être un hyperviseur et donc il y a moyen de simuler du faux matériel ! Vous n’avez ni tort ni raison car l’hyperviseur certes permets de simuler du faux matériel mais uniquement à partir de matériel physique et il faut au préalable que l’hyperviseur puisse communiquer avec ce matériel avant de le partager avec les futures machines virtuelles, car comme je le rappelle, un hyperviseur de type « bare metal », reste un système d’exploitation à part entière. Vous trouverez à cette adresse un outil permettant de savoir si ESXi est compatible en tant qu’installation principale sur votre machine : https://www.vmware.com/resources/compatibility/search.php

Hyperviseur de type « bare metal » ou natif et anneaux de protection

On y arrive enfin ! Ne vous endormez pas !

Plus haut je vous avais indiqué qu’il existait deux types d’hyperviseurs. L’un de type « hébergé » ou « logiciel » et l’autre de type « bare metal » ou « natif », la différence entre les deux types d’hyperviseurs réside particulièrement dans le fait que le premier nécessite un système d’exploitation sur lequel il sera installé sous la forme de logiciel et l’autre qui est un système d’exploitation moins lourd que ses comparses et optimisé pour la gestion des ressources matérielles.

Les accès au matériel sont alors beaucoup plus rapides et les performances sont améliorées.

L’avantage principal de l’hyperviseur natif est le fait qu’il n’est plus obligatoire pour celui-ci d’émuler ce qu’on appelle des anneaux de protection allant du plus sécurisé et privilégié au moins sécurisé afin de séparer l’environnement virtualisé de l’environnement non virtualisé car le système d’exploitation hôte n’est autre que l’hyperviseur lui-même dans ce cas-là.

Ne confondez pas virtualisation assistée et hyperviseur natif. Les deux peuvent être utilisés ensemble, l’hyperviseur natif reste un système d’exploitation alors que la première s'exécute au "ring -1"  !.

Le niveau 0, communément appelé « ring0 » interagit directement avec les ressources matérielles. Si une simple application de traitement de texte se trouvant dans la zone 3 (applications) veut utiliser la carte réseau pour une quelque conque raison, celle dernière sera dans l’obligation d’envoyer directement une demande d’accès afin d’obtenir l’autorisation de la part du processeur d’utiliser la carte pour la simple et bonne raison que les pilotes périphériques sont dans un anneau plus sécurisé, se trouvant dans un anneau 1 ou 2.

Dans le cas de la virtualisation assistée, les hyperviseurs réalisent des opérations directement au niveau 0, car la virtualisation assistée s'exécute au niveau -1 contrairement à la virtualisation classique (émulation) qui comme on le rappelle réalise des appels système.

N’étant pas le but de cet article, je ne détaillerai pas plus le fonctionnement des anneaux de protection.

La principale différence entre les hyperviseurs hébergés et les hyperviseurs natifs est que les hyperviseurs natifs sont beaucoup plus complets et offrent différents outils comme des outils de gestions des ressources mais aussi des outils de gestion des machines beaucoup plus évolué et plus sécurisé, par ailleurs les machines virtuelles n’ont pas directement accès au matériel physique car il n’y a plus à y avoir recours pour améliorer les performances et l’environnement en ressort plus sécurisé.

Le cloud

Avez vous déjà entendu parlé de ce qu'on appelle "le cloud" ?

Et non ! Ce qu'on pourrait traduire par "le nuage" en français n'a absolument rien à voir avec la météo !

Le cloud est un ou plusieurs ensemble de systèmes informatique offrant une puissance de calcul énorme situés à distance dont l'accès se fait majoritairement à l'aide d'une connexion Internet.

On a souvent tendance à faire l'analogie avec une "ferme de serveur" car bien que celui-ci propose en général l'accès à distance à de multiples services en fonctions des besoins, ce dernier repose dans la plupart des cas sur une ferme de serveurs et machines en tout genre fournissant une puissance de calcul relativement élevée permettant aux clients finaux d'accéder simultanément à leurs services dans de moindres délais.

Vous vous demandez actuellement ce que cela peut avoir à faire avec la virtualisation ? C'est très simple, pour rester compétitif et fournir des services sécurisés et hautement disponibles, les technologies de cloud computing reposent sur d'autres technologies comme la virtualisation. Cela permet entre autres aux administrateurs de réagir à une panne de façon très rapide et organisée.

Il serait dommage de perdre des données fraichement saisies à cause d'une simple panne alors que la virtualisation permet d'éviter ce problème ! C'est pourquoi toutes les données saisies sur le cloud sont répliquées sur d'autres serveurs !

Les services proposés par le cloud sont aussi variés que les besoins des utilisateurs.

On peut noter par exemple les services de :

  • Streaming de jeux vidéos (Gamestream, PlayStation Now, NViDIA Shadowplay, etc.)

    • Une instance d'un jeu tournent alors sur des machines à hautes performances et le client peut profiter du jeu comme s'il jouait chez lui ! Cependant le streaming de jeux vidéos requiert une bande passante correcte.

  • Stockage de fichiers (Google drive, OneDrive, DropBox, Amazon etc.)

  • Hébergement de sites web (Hostinger, OVH etc)

  • Hébergement de machines virtuelles (VMWare, OVH, Microsoft Azure, SalesForces, etc)

  • Hébergement de logiciels (Microsoft Azure, Office 365, Google Docs, SalesForces, etc)

  • Etc.

C'est pourquoi on note différents modèles de cloud computing, dont les plus connus sont IaaS, PaaS, SaaS.

  • IaaS : Infrastructure as a Service

    • L'utilisateur a à sa disposition les accès au système d'exploitation, il peut donc choisir son système d'exploitation et tout ce qui en découle. Ce service est général privilégié lorsque l'on veut avoir le contrôle sur une machine. Bien qu'elle soit virtualisée par la plateforme, l'entreprise proposant l'offre de cette solution s'occupe de tout ce qui touche de la maintenance de la machine physique aux couches de virtualisation. Ce qui diminue relativement le temps et le capital consacré aux tâches de maintenance par une entreprise possédant dans ses locaux une machine.

  • PaaS : Platform as a Service

    • Tout est géré par l'entreprise sauf la partie applications et données. L'utilisateur a à sa disposition des logiciels et outils déjà préinstallés de base et n'a absolument aucun contrôle sur les systèmes sous-jacents. En revanche il peut toujours y rajouter des applications dans certains cas et en activer/désactiver certains déjà installés de base.

    • On retrouve particulièrement ce type de service dans les cas d'hébergement web où l'utilisateur dispose d'outils lui permettant de gérer ses données, modifier celles-ci etc. Par exemple si un système de gestion de base de données est déjà préinstallé comme MySQL, l'utilisateur aura accès à un outil lui permettant de gérer sa base de données pour l'exemple on prendra phpMyAdmin

  • SaaS : Software as a Service

    • Vous vous en doutez, ici, tout est géré par l'entreprise proposant le service, seul l'accès à certaines données est possible à l'utilisateur.

    • On retrouve ce service lors d'utilisation de Google Docs, Office365, etc. qui proposent l'utilisation de logiciels de traitement de texte, tableurs et autres mais uniquement. Ici l'utilisateur n'aura accès qu'aux applications installées et comprises dans l'offre de celui-ci.

La tarification a souvent lieu sous la forme d'abonnement mensuel. Selon les services et les capacités demandées, les prix varient. Certains fournisseurs proposent l'allocation de mémoire, d'espace de stockage personnalisable en fonction des besoins des utilisateurs.

Avec son lot d'avantages, le cloud computing a malgré tout quelques inconvénients majeurs :

  • L'externalisation

    • Même si vous avez accès à vos données, il ne faut pas oublier qu'elles sont accessibles uniquement à distance et qu'une copie de vos données existe également à distance. Il faut être attentif lors du choix d'une solution.

    • Si le service venait à disparaître ou tomber en panne momentanément, vous ne pourrez pas accéder à celui-ci.

    • L'accès à certains services demande plus ou moins une connexion plus que correcte.

    • Attention à la garantie.

  • La juridiction

    • Soyez attentifs quant à la localisation du fournisseur de service et la localisation de la ferme de serveurs. En effet en cas de problème il serait toujours plus efficace et plus facile de pouvoir régler un litige avec un fournisseur s'inscrivant dans votre législation car les règles diffèrent. Par exemple, si votre fournisseur se trouve dans un état où l'exploitation de données tierces est autorisée, vous risquez d'avoir des soucis quant à la protection de vos données.

  • L'impact écologique

    • Les services cloud nécessitent comme cité plus haut énormément de puissance de calcul pour pouvoir répondre aux besoins de chacun et rester compétitifs et cela induit une consommation d'électricité plus qu'élevée et un système de refroidissement tel qu'il induit une autre consommation d'énergie importante.

  • Le coût

    • Si aux premiers abords, le cloud semble être une très bonne solution pour les entreprises, il faut savoir qu'au bout d'un certain temps, le coût de l'utilisation de services hébergés peut se révéler plus élevé que s'ils avaient été déployés directement dans vos locaux.

    • Nécessitant un abonnement, vous aurez l'obligation de débourser chaque année ou chaque mois selon votre formule une certaine somme en fonction des nombreuses options ajoutées à votre installation. Et généralement, un abonnement implique un engagement sur une certaine durée. Si certains services proposent des abonnement sans engagement, ceux-ci sont en général plus chers.

Conclusion

Tout d'abord j’espère que cet article vous aura aidé à y voir plus clair dans ce qu’est la virtualisation, ce à quoi elle sert et comment tout cela fonctionne. La virtualisation est une technologie impressionnante et très performante vous permettant de réaliser à peu près tout à partir d’un environnement isolé. Le principal avantage de la virtualisation est sa mobilité mais aussi sa sécurité Dans une époque où tout est connecté, la virtualisation est présente partout autour de nous car elle offre pour les professionnels des avantages au niveau technique, capital mais également elle permet de diminuer le temps accordé à certaines tâches.

Il s’agit d’un vaste domaine offrant de nombreux services selon l’objectif voulu et elle permet également aux consommateurs de trouver une solution sécurisée et mobile.

Toutefois retenez que de passer au « tout virtualisé » demande un investissement préalable, rentable sur la durée même si de nombreuses offres font leur apparition notamment les « cloud » qui mettent à disposition ces technologies sans avoir de connaissance dans ce domaine.

A propos de SUPINFO | Contacts & adresses | Enseigner à SUPINFO | Presse | Conditions d'utilisation & Copyright | Respect de la vie privée | Investir
Logo de la société Cisco, partenaire pédagogique de SUPINFO, la Grande École de l'informatique, du numérique et du management Logo de la société IBM, partenaire pédagogique de SUPINFO, la Grande École de l'informatique, du numérique et du management Logo de la société Sun-Oracle, partenaire pédagogique de SUPINFO, la Grande École de l'informatique, du numérique et du management Logo de la société Apple, partenaire pédagogique de SUPINFO, la Grande École de l'informatique, du numérique et du management Logo de la société Sybase, partenaire pédagogique de SUPINFO, la Grande École de l'informatique, du numérique et du management Logo de la société Novell, partenaire pédagogique de SUPINFO, la Grande École de l'informatique, du numérique et du management Logo de la société Intel, partenaire pédagogique de SUPINFO, la Grande École de l'informatique, du numérique et du management Logo de la société Accenture, partenaire pédagogique de SUPINFO, la Grande École de l'informatique, du numérique et du management Logo de la société SAP, partenaire pédagogique de SUPINFO, la Grande École de l'informatique, du numérique et du management Logo de la société Prometric, partenaire pédagogique de SUPINFO, la Grande École de l'informatique, du numérique et du management Logo de la société Toeic, partenaire pédagogique de SUPINFO, la Grande École de l'informatique, du numérique et du management Logo du IT Academy Program par Microsoft, partenaire pédagogique de SUPINFO, la Grande École de l'informatique, du numérique et du management

SUPINFO International University
Ecole d'Informatique - IT School
École Supérieure d'Informatique de Paris, leader en France
La Grande Ecole de l'informatique, du numérique et du management
Fondée en 1965, reconnue par l'État. Titre Bac+5 certifié au niveau I.
SUPINFO International University is globally operated by EDUCINVEST Belgium - Avenue Louise, 534 - 1050 Brussels