Glossaire du Cloud Computing
- Date: 29 October, 2019
Quel que soit votre rôle dans une organisation, ce glossaire des termes utilisés dans le Cloud Computing a été compilé pour tous.
Vous trouverez ici la définition des termes couramment utilisés dans un environnement Cloud Computing. Découvrez les domaines de connaissance où vous excellez ou ceux dans lesquels vous souhaitez vous développer.
A B C D E F G H I J K L M N O P Q R S T U V W X Y Z
AIOps (intelligence artificielle dédiée aux opérations informatiques) - est un terme générique qui fait référence à l'utilisation d'outils comme l'analytique des Big Data, l'apprentissage automatique et d'autres technologies d'intelligence artificielle (IA, AI) pour automatiser l'identification et la résolution de problèmes informatiques courants. Dans une grande entreprise, les systèmes, services et applications génèrent un volume colossal de journaux et de données de performance. L'AIOps exploite ces données pour surveiller les ressources et mieux suivre les dépendances sans avoir recours aux systèmes informatiques.
API - Les "Application Programmable Interface" sont des outils permettant d'accéder à diverses fonctionnalités par le biais d'un langage de programmation. Les API permettent de simplifier le travail de l'utilisateur en substituant toutes les spécificités techniques du système par des fonctionnalités reconnues.
Batch processing - Le Batch processing de données ne date pas d’hier. Cependant, le Big Data a donné à ce concept une nouvelle ampleur. Le batch processing permet de traiter de larges volumes de données. Le Framework Hadoop est focalisé sur batch processing de données.
C.A.A.S. - Code As A Service, se dit des services cloud autorisant l’exécution d’applicatifs en mode ServerLess
Cartographie des données - La cartographie des données est un processus permettant de recenser, puis de visualiser, les points d’entrée et de traitement de la data.
Chatbot - Un chatbot (à prononcer « tchate-botte »), appelé parfois assistant virtuel, est un programme informatique qui simule une conversation (« chat » en anglais) avec une personne, à l'écrit ou à l'oral. Quand un utilisateur lui pose une question ou formule une commande, le chatbot lui répondra ou exécutera l'action demandée. Ce sont en quelque sorte les porte-parole de l'intelligence artificielle (IA). Cette forme accessible d'IA est souvent mise en oeuvre par les entreprises dans leurs services SAV et d'assistance. On les trouve également dans les secteurs des appareils et des applications grand public.
Clonage - Cloner une machine virtuelle revient à la copier en changeant un minimum de paramètres comme l’adresse IP par exemple. Cela peut, par exemple, permettre la livraison d’un produit pré-installé et pré-configuré.
Cloud Privé - Utilisation de ressources matérielles et logicielles via des serveurs exclusivement dédiés à un client. L’infrastructure Cloud fonctionne pour une organisation unique. Elle peut être gérée par l’organisation elle-même (Cloud Privé interne) ou par un tiers (Cloud Privé externe). Dans ce dernier cas, l’infrastructure est entièrement dédiée à l’entreprise et accessible via des réseaux sécurisés de type VPN.
Cloud Hybride - Utilisation de ressources matérielles et logicielles via les deux systèmes privé et public qui sont liés par une technologie normalisée ou propriétaire, permettant la portabilité des données ou des applications.
Compréhension du langage naturel (CLN ou NLU) - La compréhension du langage naturel (CLN, ou NLU en anglais) est une branche de l'intelligence artificielle (IA) qui utilise un programme informatique pour comprendre une entrée sous la forme de phrases au format texte ou discours. La compréhension du langage naturel permet les interactions directes entre l'homme et la machine. Cette technologie de compréhension du langage humain naturel permet aux ordinateurs de comprendre des commandes sans la syntaxe formelle des langages informatiques et de communiquer en retour avec les humains dans leurs propres langues.
Datacenter - Un datacenter (ou centre de données) – parfois écrit data center - est un référentiel centralisé, physique ou virtuel, destiné au stockage, à la gestion et à la diffusion de données et d'informations axées sur un domaine de connaissance particulier ou concernant une activité particulière.
Data Cleansing - Ce terme signifie “nettoyage des données”. Cette étape consiste à supprimer des données incohérentes, corriger des erreurs comme des doublons ou des données mal saisies.
E
ETL - Les initiales ETL désignent les termes Extraire, Transformer et Load (charger). Cet acronyme fait référence au processus d’extraction de données brutes, à la transformation par le nettoyage et l’enrichissement des données pour les rendre utilisables, et au chargement de ces données au sein du répertoire approprié pour l’utilisation du système. L’ETL est initialement lié au data warehouses, mais l’ETL est désormais utilisé pour l’ingestion et l’absorption de données en provenance de sources externes dans les systèmes Big Data.
GREEN IT - Green IT ou Green Computing ou aussi informatique écologique est une tendance technologique visant à tenir compte des contraintes et coûts en énergie des matériels informatiques.
H
Hadoop - Le Framework logiciel open source Hadoop est inextricablement lié au Big Data. Ce framewok repose sur le système de fichiers distribué Hadoop (HDFS) et permet le stockage et l’analyse de larges ensembles de données par le biais de hardware distribué. Apache Foundation, qui a créé Hadoop, est également à l’origine de Pig, Hive et Spark.
Hyperviseur - L’hyperviseur joue un rôle clé dans le cadre de la virtualisation. C’est la plateforme logiciel qui permet le fonctionnement simultané de plusieurs systèmes d’exploitations sur un seul hôte physique. Véritable outil de gestion au cœur des infrastructures Cloud, l’hyperviseur permet d’allouer vos ressources matérielles aux différentes machines virtuelles.
Informatique cognitive - L'informatique cognitive, ou cognitique, ou encore Cognitive Computing, consiste en la simulation de processus de pensée humaine dans un modèle informatisé. L'informatique cognitive fait intervenir des systèmes d'auto-apprentissage qui utilisent l'exploration de données (data mining), la reconnaissance de schémas et le traitement du langage naturel, pour tenter de reproduire le mode de fonctionnement du cerveau humain. L'objectif consiste à créer des systèmes automatisés capables de résoudre des problèmes sans nécessiter d'intervention humaine.
Infrastructure Cloud - L'infrastructure Cloud désigne les composants matériels et logiciels tels que les serveurs, le stockage, les logiciels de réseau et de virtualisation, nécessaires à la prise en charge des besoins informatiques d'un modèle d'informatique en Cloud. Elle comprend une couche d'abstraction logicielle qui virtualise les ressources et les présente logiquement aux utilisateurs par l'intermédiaire de programmes.
In-memory Computing - Le computing in-memory est une technique permettant de transférer des ensembles de données complets vers la mémoire collective d’un cluster et d’éviter d’écrire des calculs intermédiaires sur le disque. Apache Spark est un système de computing in-memory offrant une vitesse nettement supérieure à Hadoop MapReduce.
IoT - Ce terme désigne “l’internet des objets”. De plus en plus d’objets peuvent se connecter les uns aux autres (véhicules connectés, montres connectées, meubles connectés,etc.), formant un réseau de connexion, l’internet des objets.
Intelligence artificielle (IA, AI) - L'intelligence artificielle ou IA (Artificial Intelligence -AI- en anglais) vise à permettre à des machines, et plus particulièrement à des systèmes informatiques, de simuler les processus cognitifs humains.
Ces processus comprennent l'apprentissage (acquisition d'informations et de règles liées à leur utilisation), le raisonnement (application des règles pour parvenir à des conclusions approximatives ou précises) et l'autocorrection. Les applications spécifiques de l'IA sont notamment les systèmes experts, la reconnaissance vocale et la vision artificielle.
Machine Learning - Grâce à l’intelligence artificielle, le Machine Learning (apprentissage automatique) se traduit par un apprentissage spécifique d’algorithmes qui se développent grâce à des données. Ce développement est automatique.
Machine Virtuelle (VM) - Une machine virtuelle, ou VM (Virtual Machine), est un environnement d'application ou de système d'exploitation (OS, Operating System) installé sur un logiciel qui imite un matériel dédié. Elle exécute des programmes, accède à des données et exécute des opérations informatiques. Plusieurs machines virtuelles peuvent s'exécuter simultanément sur un même hôte cloud physique. Côté utilisateur final, l'interaction avec une machine virtuelle est la même qu'avec un matériel dédié.
MapReduce - MapReduce est un modèle de programmation constitué de Map et de Reduce. Avec Map, le modèle sépare les ensembles de données en plusieurs parties afin qu’ils puissent être distribués sur différents ordinateurs à différents endroits. Par la suite, Reduce collecte les résultats et les réduit en un rapport. Le modèle de traitement de données de MapReduce est directement lié au système de fichiers distribué d’Hadoop.
Metadata Management - La gestion des métadonnées consiste à administrer les informations des données disponibles, pour les comprendre en leur conférant leur contexte.
Métadonnées - Les métadonnées synthétisent des informations élémentaires sur les données, elles facilitent la recherche et la manipulation d’instances de données particulières.
Modèle de données - Un modèle de base de données illustre une structure logique pour une base de données, comme les relations et les contraintes qui déterminent la façon dont les données sont stockées et accessibles.
Multitenant - Dans une architecture multitenant, une même instance d'une application logicielle est utilisée par plusieurs clients, ces derniers étant des « tenants ». Un tenant peut se voir autoriser à personnaliser certaines parties de l'application, comme la couleur de l'interface utilisateur ou les règles métier, mais il ne peut pas en modifier le code.
NoSQL - NoSQL, ou « Not only SQL » (Pas seulement SQL) est une catégorie de base de données non relationnelle, généralement déployée lorsque des volumes de données extrêmement importants doivent être stockés et extraits au moyen d'une base de données SQL.
OAuth2 - Un protocole de délégation d’autorisation. Permet à une application d’accéder à des ressources au nom d’un utilisateur, sans en connaître les informations d’identification grâce à un jeton émis par un serveur d’authentification.
ON DEMAND - Les solutions sont hébergées en dehors des locaux de la société et sont accessibles "à la demande". Le mode SaaS est « on demand ».
PAY PER USE=PAY AS YOU GO - C'est un modèle de paiement où le client est facturé uniquement en fonction de l'utilisation du service.
PRA - Un plan de reprise d’activité (PRA) également appelé disaster recovery plan (DRP) en anglais, permet d’assurer, lors d’un sinistre informatique la remise en route de votre infrastructure et de vos applications hébergées. Lorsque votre système informatique fait face à une panne et que vos services ne sont plus accessibles, le PRA vous permet de basculer sur une infrastructure de secours, capable de prendre en charge temporairement l’essentiel des besoins informatiques.
Q
R - R est un langage de programmation très utilisé pour le computing statistique. Les data scientists doivent impérativement maîtriser ce langage, très utilisé dans le domaine de la data science.
Réalité virtuelle immersive - Univers virtuel, reconstitué par un ordinateur, dans lequel est plongé l'utilisateur grâce à différents capteurs ou objets (lunettes, combinaison sensorielle, etc.). L'immersion dans la réalité virtuelle peut concerner le joueur d'un jeu vidéo ou un pilote d'avion dans le cadre de sa formation.
Représentation sémantique des connaissances - Algorithmes* permettant de formaliser une phrase écrite dans une langue quelconque (exemple : « Paul prend le bus pour Berlin ») sous forme logique et ainsi de la rendre interprétable par un ordinateur. La machine peut alors réaliser des inférences logiques (comme une déduction), qui lui permettent de classer les mots dans différentes catégories et d'analyser les phrases qu'on lui soumet.
Salle Blanche - Une salle blanche est un ensemble de pièces protégées contre tous types d'attaques (virus informatiques, intrusions physiques ou catastrophes naturelles). On trouve les salles blanches informatiques dans les data center.
Scale-up - En informatique, l'approche "scale-up" consiste à améliorer une unité de manière "verticale" en lui ajoutant des ressources. Par exemple, d'ajouter plus de mémoire vive ou de puissance à un serveur, ou plus disques de stockages pour augmenter la mémoire d'un NAS. L'autre approche de dimensionnement (ou scalabilité) est l'approche "scale-out" qui consiste, elle, à ajouter une unité entière à l'ensemble de ressources pour en augmenter la capacité.
Service de cache - Mise à disposition d’un espace mémoire (éventuellement redondant et persistant) au sein du cloud permettant aux applications d’externaliser leurs données volatiles et de les voir survivre aux défaillances de l’application. Azure Redis Cache est un service de cache.
Ils recouvrent une vaste gamme d'offres, allant de l'hébergement Web aux postes de travail virtuels en passant par la sauvegarde hors site. Les services cloud entrent aussi dans cette catégorie, bien que tous les services hébergés ne résident pas dans le cloud. Ainsi, un client pourra accéder à une application à partir du serveur dédié d'un hébergeur.
SLA - Le Service Level Agreement ou en français : contrat de niveau de services, spécifie les niveaux de disponibilité, de performances, d’opérations et des autres attributs du service, tels que la facturation et les pénalités éventuelles en cas de manquement à ces garanties. Dans le domaine du Cloud Computing, le SLA formalise donc le niveau de performances et le taux de disponibilité des services hébergés. Généralement situé aux alentours de 99%, ce dernier vous assure donc une disponibilité quasi maximale, avec une marge d’inaccessibilité de services de seulement 1%.
Serverless - Exécution d’applications ou de fragments de code dans une infrastructure entièrement gérée par le fournisseur du Cloud. Pas de provisionnement de machines, pas de configuration de la mise à l’échelle.
Solution clé en main - Une solution Cloud dite « clé en main » correspond à une plateforme qui a été pré configurée, de manière à ce qu’elle soit utilisable dès sa livraison par l’utilisateur final. Concrètement, les solutions livrées clé en main permettent aux entreprises de gagner du temps dans le déploiement de leurs infrastructures en évitant certaines opérations de configuration ou d’installation.
Solution self-service - Une solution Cloud dite « self-service » correspond à une plateforme dont la mise en place, l’allocation de ressources et la livraison sont automatisées. Les solutions livrées en self-service permettent aux entreprises de gagner un temps précieux dans le déploiement de leurs infrastructures en limitant les interactions avec leur hébergeur : après la commande et le paiement, votre solution est utilisable au bout de quelques minutes/heures.
SOA (Service-Oriented Architecture, Architecture orientée services)
L'architecture orientée services (Service-Oriented Architecture, SOA) est un modèle de développement logiciel à base de composants applicatifs distribués et doté de fonctions de découverte, de contrôle d'accès, de mappage de données et de sécurité.
L'architecture SOA a deux grandes fonctions. Tout d'abord, il s'agit de créer un ample modèle d'architecture qui définit les objectifs des applications et les approches pour les atteindre ; ensuite, de définir des caractéristiques de mise en oeuvre précises, souvent liées à celles du langage de description de services WSDL (Web Services Description Language) et du protocole SOAP (Simple Object Access Protocol).
Test de Turing - Élaboré par le célèbre mathématicien britannique Alan Turing, le Test de Turing a pour objectif de tester la capacité d’une Intelligence Artificielle à se faire passer pour un humain. Concrètement, le test se déroule à travers une conversation en langage naturel. Un humain « opérateur » pose des questions, transmises ensuite à un ordinateur et à un autre humain, qui devront y répondre séparément de manière anonyme. A l’opérateur ensuite, à travers ces échanges textuels, de déterminer les réponses écrites par l’ordinateur et celles données par son homologue. S’il n’arrive pas à les discerner, alors on peut considérer que l’Intelligence Artificielle a passé le test avec succès.
Traitement du langage naturel (TLN ou NLP) - Le traitement du langage naturel (TLN, ou NLP en anglais) est la capacité pour un programme informatique de comprendre le langage humain tel qu'il est parlé. Il fait partie des technologies d'intelligence artificielle.
Le développement d'applications TLN est difficile parce que traditionnellement les ordinateurs sont conçus pour que les humains leur « parlent » dans un langage de programmation précis, sans ambiguïté et extrêmement structuré, ou à l'aide d'un nombre limité de commandes vocales clairement énoncées. Or le discours humain n'est pas toujours précis, il est souvent ambigu et sa structure linguistique peut dépendre d'un grand nombre de variables complexes, notamment l'argot, les dialectes régionaux et le contexte social.
Traitement Automatique du Langage Naturel (ou NLP) - Le Traitement Automatique du Langage Naturel, dit également TALN ou NLP (Natural Langage Processing), est une discipline à la croisée de l’Intelligence Artificielle, la linguistique et l’informatique. Elle s’appuie sur des connaissances en phonétique, morphologie, syntaxe et sémantique notamment pour approfondir l’analyse de contenu linguistique. En pratique, elle consiste en l’exploitation automatique de textes pour la recherche d’information, l’analyse, la production, l’explication…
Virtualisation - La virtualisation consiste en la création d'une version virtuelle (par opposition à réelle) d'un ou de plusieurs éléments, tel qu'un système d'exploitation, un serveur, un dispositif de stockage ou des ressources réseau. En informatique, la virtualisation fait d'énormes progrès dans trois domaines : le réseau, le stockage et les serveurs.