L’edge computing est une architecture de technologie d'information
distribuée (IT) dans laquelle les données client sont traitées à la
périphérie du réseau, aussi près que possible de la source générant les
données. L'évolution vers l’informatique distribuée est guidée par
l'informatique mobile, le coût décroissant des composants informatiques et
le nombre total d’objets connectés (IoT). Selon l'implémentation, les
données sensibles à la latence dans une architecture edge computing
peuvent être traitées au point d'origine par un dispositif intelligent ou
envoyées à un serveur intermédiaire situé à proximité immédiate du client.
Les données moins sensibles sont envoyées vers le cloud pour l'analyse
d'historique, big data et le stockage à long terme.
Transmettre des quantités massives de données brutes sur un réseau
met énormément de charge sur les ressources réseau. Dans certains cas, il
est beaucoup plus efficace de traiter des données à la source et d'envoyer
uniquement les données qui ont une valeur sur le réseau vers un centre de
données distant. Par exemple, au lieu de diffuser continuellement des
données sur le niveau d'huile dans le moteur d'une voiture, un capteur
automobile peut simplement envoyer des données récapitulatives sur un
serveur distant sur une base périodique. Ou un thermostat intelligent ne
peut transmettre que des données si la température augmente ou est hors
des limites acceptables. Un autre exemple est celui d'une caméra de
sécurité Wi-Fi intelligente destinée à une porte d'ascenseur pouvant
utiliser des analyses de bord et transmettre uniquement des données
lorsqu'un certain pourcentage de pixels change significativement entre
deux images consécutives, ce qui indique un mouvement.
Les environnements et d'organisations disposant d'une base
d'utilisateurs géographiquement dispersée, utilisant les bureaux à
distances peuvent également bénéficier de l’edge computing. Dans un tel
scénario, des centres de données micro intermédiaires ou des serveurs
haute performance peuvent être installés à des endroits distants pour
répliquer localement les services au cloud, améliorer les performances et
la capacité d'un dispositif à agir sur des données périssables en fraction
de seconde. Selon le fournisseur et la mise en œuvre technique,
l'intermédiaire peut être désigné par l'un des nombreux noms, y compris la
passerelle Edge, Base, Hub. Une des offres les plus récentes dans ce
domaine est celle de Red Hat baptisée Red Hat Hyperconverged
Infrastructure. Cette solution regroupe Red Hat Virtualization pour
l’exécution de machines virtuelles, Red Hat Openshift pour l’orchestration
de conteneurs et Red Hat Gluster Storage pour du Software-Defined
Storage.
Un avantage majeur de l’edge computing est qu'il améliore le temps
d'action et réduit le temps de réponse en millisecondes, tout en
préservant les ressources réseau. On ne s'attend pas à ce que le concept
de l’edge computing remplace le cloud computing.
Challenges liés à l’edge computing
Malgré sa capacité à réduire la latence et les goulets
d'étranglement des réseaux, l’edge computing peut poser d'importants
problèmes de sécurité, de licences et de configuration.
L'architecture distribuée en Edge Computer augmente le nombre de
vecteurs d'attaque. Plus les ressources sont distribuées, plus le
système d'information devient vulnérable aux infections de logiciels
malveillants et aux failles de sécurité.
Des coûts de licence cachés peuvent faire surface. Bien que la
version de base d'un client Edge puisse initialement avoir un faible
prix, des fonctionnalités supplémentaires peuvent être autorisées
séparément et générer le prix.
A moins que la gestion des périphériques soit centralisée et
robuste, les administrateurs peuvent créer des failles de sécurité par
inadvertance en ne modifiant pas le mot de passe par défaut sur chaque
périphérique de bord ou en négligeant de mettre à jour les programmes et
packages de manière cohérente, entraînant une dérive de
configuration.
Le nom « edge », (Bord en français) en edge computing est dérivé des
diagrammes de réseau; Généralement, le bord d'un diagramme de réseau
signifie le point auquel le trafic entre ou sort du réseau. Le bord est
également le point où le protocole sous-jacent pour le transport des
données peut changer. Par exemple, un capteur intelligent peut utiliser un
protocole à faible latence comme MQTT pour transmettre des données à un
message broker situé sur le « bord » du réseau et le message broker
utiliserait le protocole de transfert hypertexte (HTTP) pour transmettre
des données précieuses du capteur vers un serveur sur Internet.
Le consortium OpenFog utilise le terme «Fog» pour décrire l’edge
computing. Le mot «Fog» (Brouillard en français) est destiné à transmettre
l'idée que les avantages du cloud computing devraient être rapprochés à la
source de données. (En météorologie, le brouillard n'est qu'un nuage
proche du sol.). Les membres du consortium incluent Cisco, ARM, Microsoft,
Dell, Intel et Princeton University.