Skip to main Content
Article

Glossaire du Cloud Computing

Global Knowledge
  • Date: 29 October, 2019

Quel que soit votre rôle dans une organisation, ce glossaire des termes utilisés dans le Cloud Computing a été compilé pour tous.
Vous trouverez ici la définition des termes couramment utilisés dans un environnement Cloud Computing. Découvrez les domaines de connaissance où vous excellez ou ceux dans lesquels vous souhaitez vous développer.

A B C D E F G H I J K L M N O P Q R S T U V W X Y Z

A

 

 

AIOps (intelligence artificielle dédiée aux opérations informatiques) - est un terme générique qui fait référence à l'utilisation d'outils comme l'analytique des Big Data, l'apprentissage automatique et d'autres technologies d'intelligence artificielle (IA, AI)  pour automatiser l'identification et la résolution de problèmes informatiques courants. Dans une grande entreprise, les systèmes, services et applications génèrent un volume colossal de journaux et de données de performance. L'AIOps exploite ces données pour surveiller les ressources et mieux suivre les dépendances sans avoir recours aux systèmes informatiques.

Algorithme - Un algorithme est une formule mathématique ou un traitement statistique utilisé pour effectuer une analyse de données. Les algorithmes sont utilisés dans de nombreux autres domaines, mais ont une importance capitale dans le secteur du Big Data.
ATAWAD - Any Time Anywhere Any device : c'est-à-dire n’importe quand, n’importe où et sur n’importe quel écran !
Analyse - L’analyse de données consiste à étudier des données pour essayer d’en dégager des informations pour prendre des décisions. Par exemple, si vous étudiez votre relevé de compte en décortiquant les différents postes de dépenses pour décider comment gérer votre argent pour les mois à venir, vous faites de l’analyse de données. L’analyse Big Data consiste quant à elle à étudier des ensembles de données massifs, comme par exemple les publications Facebook de tous les habitants d’une ville. Il existe en réalité trois types différents d’analyses.
Analyse descriptive - L’analyse descriptive consiste tout simplement à décrire le contenu d’un ensemble de données. Pour reprendre l’exemple du relevé de compte, une analyse descriptive consiste par exemple à dissocier les dépenses en différents postes. Par exemple, si vous déterminez que vous avez dépensé 25% dans la nourriture, 35% dans les vêtements, 20% dans les sorties, et le reste dans des objets décoratifs, il s’agit d’une analyse descriptive.
Analyse prédictive - Si vous analysez votre historique de carte bancaire pour les 5 précédentes années, et que la répartition des dépenses semble constante, vous pouvez prédire avec une forte probabilité que l’année prochaine sera similaire aux années précédentes. Il ne s’agit pas de prédire le futur, mais de prévoir les probabilités de ce qui peut survenir. Dans le domaine du Big Data, les data scientists utilisent des techniques avancées comme le Machine Learning et les traitements statistiques avancés pour faire des prédictions importantes comme les changements économiques ou les prévisions météorologiques.
Analyse prescriptive - L’analyse prescriptive permet de prédire les décisions à prendre pour un impact maximal. Par exemple, toujours dans l’exemple du relevé de compte, il peut s’agir de déterminer quels sont les postes de dépense à cibler pour réduire efficacement les dépenses. Les analyses prescriptives reprennent le principe des analyses prédictives en y ajoutant la notion d’action. L’analyse des résultats permet de déterminer des cibles sur lesquelles agir. Dans le domaine du Big Data, les entreprises prennent des décisions en observant l’impact potentiel des actions qu’ils peuvent effectuer.
Ansible - Ansible est une plateforme informatique open source de gestion des configurations (CM, Configuration Management) et d'automatisation, fournie par Red Hat. Elle utilise des modèles YAML directement lisibles qui permettent aux utilisateurs de programmer l'exécution automatique de tâches répétitives sans avoir à apprendre un langage évolué.
Apprentissage Automatique (Machine Learning) - Selon Stéphan Clémençon, « le machine learning c’est l’idée d’apprendre à des machines à prendre des décisions efficaces dans un cadre prédéfini, via des algorithmes nourris par des exemples (les données de l’apprentissage). Le programme d’apprentissage permet à la machine d’élaborer un système de décision généralisant ce qu’elle aura « appris » de ces exemples ». La Machine Learning permet donc aux ordinateurs de s’améliorer par cet apprentissage.
Apprentissage Profond (Deep Learning) - Le Deep Learning est une branche particulière du Machine Learning qui utilise des couches de neurones pour effectuer un apprentissage hiérarchique.  Autrement dit, elles cherchent d’abord à traiter les éléments les plus simples de l’information avant de passer aux plus complexes. Une application typique est la distinction d’objets sur une image : pour distinguer un chat d’un chien, le système apprend à reconnaître des narines avant de s’attaquer aux nez. Après plusieurs de ces étapes, un système peut discriminer efficacement chien et chat à partir de concepts complexes qui n’ont pas été programmés à la main.
Automatisation du cloud - Appliqué au cloud, le terme d'automatisation (en anglais « cloud automation ») recouvre les processus et outils utilisés par l'entreprise pour réduire les tâches manuelles liées au provisioning et à la gestion des charges de travail du cloud computing. Les équipes informatiques peuvent mettre en œuvre l'automatisation dans des environnements de cloud privé, public et hybride.

API - Les "Application Programmable Interface" sont des outils permettant d'accéder à diverses fonctionnalités par le biais d'un langage de programmation. Les API permettent de simplifier le travail de l'utilisateur en substituant toutes les spécificités techniques du système par des fonctionnalités reconnues.

   

Back to top

B

 

 

Batch processing - Le Batch processing de données ne date pas d’hier. Cependant, le Big Data a donné à ce concept une nouvelle ampleur. Le batch processing permet de traiter de larges volumes de données.  Le Framework Hadoop est focalisé sur  batch processing de données.

Business Intelligence - L’ensemble des technologies permettant aux entreprises l’analyse de leurs données pour une meilleure prise de décision.
 

Back to top

C

 

C.A.A.S. - Code As A Service, se dit des services cloud autorisant l’exécution d’applicatifs en mode ServerLess

Cartographie des données - La cartographie des données est un processus permettant de recenser, puis de visualiser, les points d’entrée et de traitement de la data.

Chatbot - Un chatbot (à prononcer « tchate-botte »), appelé parfois assistant virtuel, est un programme informatique qui simule une conversation (« chat » en anglais) avec une personne, à l'écrit ou à l'oral. Quand un utilisateur lui pose une question ou formule une commande, le chatbot lui répondra ou exécutera l'action demandée. Ce sont en quelque sorte les porte-parole de l'intelligence artificielle (IA). Cette forme accessible d'IA est souvent mise en oeuvre par les entreprises dans leurs services SAV et d'assistance. On les trouve également dans les secteurs des appareils et des applications grand public.

Chief Data Officer - Le CDO assure un contrôle globale de la gouvernance des données. Il est garant de la qualité des données collectées et de la conformité des métadonnées.

Clonage - Cloner une machine virtuelle revient à la copier en changeant un minimum de paramètres comme l’adresse IP par exemple. Cela peut, par exemple, permettre la livraison d’un produit pré-installé et pré-configuré.

Cloud Public -Utilisation de ressources matérielles et logicielles via des serveurs informatiques partagés qui appartiennent à un fournisseur de « Cloud services ». Ce type d’infrastructure est accessible à un large public.

Cloud PrivéUtilisation de ressources matérielles et logicielles via des serveurs exclusivement dédiés à un client. L’infrastructure Cloud fonctionne pour une organisation unique. Elle peut être gérée par l’organisation elle-même (Cloud Privé interne) ou par un tiers (Cloud Privé externe). Dans ce dernier cas, l’infrastructure est entièrement dédiée à l’entreprise et accessible via des réseaux sécurisés de type VPN.

Cloud Hybride Utilisation de ressources matérielles et logicielles via les deux systèmes privé et public qui sont liés par une technologie normalisée ou propriétaire, permettant la portabilité des données ou des applications.

Compréhension du langage naturel (CLN ou NLU) - La compréhension du langage naturel (CLN, ou NLU en anglais) est une branche de l'intelligence artificielle (IA) qui utilise un programme informatique pour comprendre une entrée sous la forme de phrases au format texte ou discours. La compréhension du langage naturel permet les interactions directes entre l'homme et la machine. Cette technologie de compréhension du langage humain naturel permet aux ordinateurs de comprendre des commandes sans la syntaxe formelle des langages informatiques et de communiquer en retour avec les humains dans leurs propres langues.

Container - Hébergement d’une application et de son runtime au sein d’un process exposant une configuration virtuelle du système d’exploitation. Plusieurs container exposant des configurations de système d’exploitation différentes peuvent voisiner sur un même O.S. de base. Le serveur de base exploite un moteur de container comme Docker. On obtient ainsi une virtualisation du système d’exploitation.

 

Back to top

D

 

 

Datacenter - Un datacenter (ou centre de données) – parfois écrit data center - est un référentiel centralisé, physique ou virtuel, destiné au stockage, à la gestion et à la diffusion de données et d'informations axées sur un domaine de connaissance particulier ou concernant une activité particulière.

Data Cleansing - Ce terme signifie “nettoyage des données”. Cette étape consiste à supprimer des données incohérentes, corriger des erreurs comme des doublons ou des données mal saisies.

Data Governance - La gouvernance des données correspond à l’ensemble des actions et organisations mises en place au sein d’une entreprise pour encadrer la collecte des données.
Data Lake - Un Data Lake est un répertoire où sont stockées de nombreuses données d’entreprises au format brut. Le Data Lake se différencie des Data Warehouses, qui servent à stocker les données structurées après qu’elles aient été nettoyées et intégrées avec d’autres sources. Un Data Lake permet de faciliter l’accès aux données.
Dark Data - Le terme Dark Data désigne toutes les données rassemblées et traitées par les entreprises qui ne sont pas utilisées par la suite dans un but précis. Ces données ne seront probablement jamais analysées. Il peut s’agir de flux en provenance de réseaux sociaux, d’historiques d’appels de call centers, de notes de meeting et bien plus encore. Selon différents analystes, environ 60% à 90% des données d’entreprises sont des dark data.
Data Mining - Le Data Mining permet de trouver des patterns et d’extraire des informations pertinentes en provenance de larges ensembles de données en utilisant des techniques de reconnaissance de patterns sophistiquées. Ce terme est étroitement lié à la notion d’analyse de données. Pour extraire des patterns, les data miners utilisent des statistiques, des algorithmes de machine Learning, et l’intelligence artificielle.
Data Scientist - Le Data Scientist est la personne qui se charge de donner un sens au Big Data en extrayant les données brutes du Data Lake, en les traitant, et en en tirant des insights. Parmi les compétences requises pour le data scientist, on compte les compétences en analyse, en statistiques, en science informatique, de la créativité, un talent pour la narration et une compréhension du contexte de l’entreprise. Il s’aigt donc d’un métier exigeant, ce qui explique les salaires très élevés des data scientists.
Data Warehouse - Les Data Warehouses sont généralement utilisées pour le stockage de données conventionnelles, structurées et déjà formatées.
Dictionnaire de données - Un ensemble de métadonnées et de données de référence nécessaire à la conception d’une base de données relationnelle.
Disponibilité - L’essence du Cloud Computing est de mettre à disposition des utilisateurs des services ou applications, accessibles en ligne, depuis n’importe où. La disponibilité, définit le taux garanti d’accessibilité de ces services Cloud. Souvent situés aux alentours de 99,9%, ces taux de disponibilité assurent donc à vos services des interruptions de services minimales et un accès quasi constant.
Données structurées ou non structurées - Les données structurées sont les données pouvant être intégrées aux bases de données relationnelles et organisées de façon à pouvoir être associées à d’autres données par l’intermédiaire de tableaux. Les données son structurées sont toutes les autres données : messages email, publications de réseaux sociaux, discours enregistrés, vidéos…

Back to top

E

 

 

ETL - Les initiales ETL désignent les termes Extraire, Transformer et Load (charger). Cet acronyme fait référence au processus d’extraction de données brutes, à la transformation par le nettoyage et l’enrichissement des données pour les rendre utilisables, et au chargement de ces données au sein du répertoire approprié pour l’utilisation du système. L’ETL est initialement lié au data warehouses, mais l’ETL est désormais utilisé pour l’ingestion et l’absorption de données en provenance de sources externes dans les systèmes Big Data.

 
 

Back to top

F

 

 

 

Back to top

G

 

GREEN IT - Green IT ou Green Computing ou aussi informatique écologique est une tendance technologique visant à tenir compte des contraintes et coûts en énergie des matériels informatiques.

 

 

 

Back to top

H

 

 

Hadoop - Le Framework logiciel open source Hadoop est inextricablement lié au Big Data. Ce framewok repose sur le système de fichiers distribué Hadoop (HDFS) et permet le stockage et l’analyse de larges ensembles de données par le biais de hardware distribué. Apache Foundation, qui a créé Hadoop, est également à l’origine de Pig, Hive et Spark.

Hyperviseur - L’hyperviseur joue un rôle clé dans le cadre de la virtualisation. C’est la plateforme logiciel qui permet le fonctionnement simultané de plusieurs systèmes d’exploitations sur un seul hôte physique. Véritable outil de gestion au cœur des infrastructures Cloud, l’hyperviseur permet d’allouer vos ressources matérielles aux différentes machines virtuelles.

 
 

 

 

Back to top

I

 

 

Informatique cognitive - L'informatique cognitive, ou cognitique, ou encore Cognitive Computing, consiste en la simulation de processus de pensée humaine dans un modèle informatisé. L'informatique cognitive fait intervenir des systèmes d'auto-apprentissage qui utilisent l'exploration de données (data mining), la reconnaissance de schémas et le traitement du langage naturel, pour tenter de reproduire le mode de fonctionnement du cerveau humain. L'objectif consiste à créer des systèmes automatisés capables de résoudre des problèmes sans nécessiter d'intervention humaine.

Infrastructure as a Service ou IaaS – est la première brique du cloud computing. Comme son nom l’indique, un service IaaS permet de mettre à disposition en self-service des ressources d’infrastructure (serveur, stockage, réseau). Ces ressources peuvent être virtuelles ou physiques. Leur provisioning doit être 100% automatisé pour garantir l’immédiateté de leur livraison. Le IaaS peut être délivré dans un cloud privé, dans un cloud hosté ou dans un cloud public. Des solutions IaaS clé-en-main comme le HP CloudSystem contiennent les éléments matériels et logiciels pré-intégrés pour démarrer rapidement un service IaaS. 

Infrastructure Cloud - L'infrastructure Cloud désigne les composants matériels et logiciels tels que les serveurs, le stockage, les logiciels de réseau et de virtualisation, nécessaires à la prise en charge des besoins informatiques d'un modèle d'informatique en Cloud. Elle comprend une couche d'abstraction logicielle qui virtualise les ressources et les présente logiquement aux utilisateurs par l'intermédiaire de programmes.

In-memory Computing - Le computing in-memory est une technique permettant de transférer des ensembles de données complets vers la mémoire collective d’un cluster et d’éviter d’écrire des calculs intermédiaires sur le disque. Apache Spark est un système de computing in-memory offrant une vitesse nettement supérieure à Hadoop MapReduce.

IoT - Ce terme désigne “l’internet des objets”. De plus en plus d’objets peuvent se connecter les uns aux autres (véhicules connectés, montres connectées, meubles connectés,etc.), formant un réseau de connexion, l’internet des objets.

Intelligence artificielle (IA, AI) - L'intelligence artificielle ou IA (Artificial Intelligence -AI- en anglais) vise à permettre à des machines, et plus particulièrement à des systèmes informatiques, de simuler les processus cognitifs humains.
Ces processus comprennent l'apprentissage (acquisition d'informations et de règles liées à leur utilisation), le raisonnement (application des règles pour parvenir à des conclusions approximatives ou précises) et l'autocorrection. Les applications spécifiques de l'IA sont notamment les systèmes experts, la reconnaissance vocale et la vision artificielle.

Intelligence Artificielle faible - Se dit d’une Intelligence Artificielle qui ne fait que reproduire un comportement spécifique. Une IA faible ne comprend pas son propre fonctionnement, elle ne fait que simuler un comportement humain prévu sur un domaine ou une tâche précise.
Intelligence Artificielle forte - En comparaison d’une IA dite faible, une IA forte pourrait non seulement reproduire des comportements « intelligents » humains (analyse, raisonnement, dialogue), mais également avoir une compréhension de ses propres raisonnements. La machine serait donc apte à prendre un certain recul sur ce qu’elle fait et pourrait développer des sentiments, une conscience… Il n’existe, aujourd’hui, aucune Intelligence Artificielle forte.
Interconnexion de datacenters (DCI) L'interconnexion de datacenters, ou DCI (Data Center Interconnect), est un segment du marché des réseaux qui cible la technologie utilisée pour relier plusieurs datacenters et permettre ainsi le partage des ressources des infrastructures. Il est essentiel de choisir l'option d'interconnexion appropriée parmi les nombreuses possibilités. Ce choix dépend d'une multitude de variables, telles que l'emplacement des datacenters, la distance qui les sépare, la bande passante, les conditions de disponibilité requises, les capacités des fournisseurs de services locaux et les questions de sécurité.

  Back to top

K

 

 


Back to top

L

 

 


Back to top

M

 

Machine Learning - Grâce à l’intelligence artificielle, le Machine Learning (apprentissage automatique) se traduit par un apprentissage spécifique d’algorithmes qui se développent grâce à des données. Ce développement est automatique.

Machine Virtuelle (VM) - Une machine virtuelle, ou VM (Virtual Machine), est un environnement d'application ou de système d'exploitation (OS, Operating System) installé sur un logiciel qui imite un matériel dédié. Elle exécute des programmes, accède à des données et exécute des opérations informatiques. Plusieurs machines virtuelles peuvent s'exécuter simultanément sur un même hôte cloud physique. Côté utilisateur final, l'interaction avec une machine virtuelle est la même qu'avec un matériel dédié. 

MapReduce - MapReduce est un modèle de programmation constitué de Map et de Reduce. Avec Map, le modèle sépare les ensembles de données en plusieurs parties afin qu’ils puissent être distribués sur différents ordinateurs à différents endroits. Par la suite, Reduce collecte les résultats et les réduit en un rapport. Le modèle de traitement  de données de MapReduce est directement lié au système de fichiers distribué d’Hadoop.

Metadata Management - La gestion des métadonnées consiste à administrer les informations des données disponibles, pour les comprendre en leur conférant leur contexte.

Métadonnées - Les métadonnées synthétisent des informations élémentaires sur les données, elles facilitent la recherche et la manipulation d’instances de données particulières.

Modèle de données - Un modèle de base de données illustre une structure logique pour une base de données, comme les relations et les contraintes qui déterminent la façon dont les données sont stockées et accessibles.


Multitenant
- Dans une architecture multitenant, une même instance d'une application logicielle est utilisée par plusieurs clients, ces derniers étant des « tenants ». Un tenant peut se voir autoriser à personnaliser certaines parties de l'application, comme la couleur de l'interface utilisateur ou les règles métier, mais il ne peut pas en modifier le code.

Back to top

N

 

NoSQL - NoSQL, ou « Not only SQL » (Pas seulement SQL) est une catégorie de base de données non relationnelle, généralement déployée lorsque des volumes de données extrêmement importants doivent être stockés et extraits au moyen d'une base de données SQL.

Back to top

O

 

 

OAuth2 - Un protocole de délégation d’autorisation. Permet à une application d’accéder à des ressources au nom d’un utilisateur, sans en connaître les informations d’identification grâce à un jeton émis par un serveur d’authentification.

ON DEMAND - Les solutions sont hébergées en dehors des locaux de la société et sont accessibles "à la demande". Le  mode SaaS est « on demand ».

On premise - Les solutions dites « On premise », contrairement à celles déployées en mode SaaS, nécessitent d’être installées localement, sur les serveurs de l’entreprise. Leur acquisition se fait par l’achat de licences utilisateurs et la maintenance sera généralement assurée par l’entreprise elle même, dans ses locaux ou par un prestataire infogérant.
OpenData - la “donnée ouverte” est une donnée numérique dont l’accès et l’utilisation sont en libre accès aux usagers. Cette donnée peut soit venir de sources publiques ou privées, que ce soit par une collectivité, un service publique ou une entreprise.
Orchestration - L’orchestration décrit l’automatisation des processus informatiques au sein de systèmes complexes, incluant hardware, middleware et services. L’orchestration est largement employée dans le cadre de la virtualisation, de la fourniture de services et de la gestion de centres de données dynamiques. Il s'agit de relier des tâches automatisées en un workflow homogène pour réaliser un objectif, en supervisant les autorisations et en appliquant des règles. L’automatisation des processus par un système d’orchestration garantit leur fiabilité d’exécution et permet une prise en compte immédiate des demandes de services.
 

Back to top

P

 

PAY PER USE=PAY AS YOU GO - C'est un modèle de paiement où le client est facturé uniquement en fonction de l'utilisation du service.

PCA - Un plan de continuité d’activité (PCA) également appelé business continuity plan (BCP) en anglais, établit un ensemble de procédures, d’architectures et de moyens nécessaires pour se prémunir des éventuelles interruptions de services. Le PCA assure donc la disponibilité en continu des réseaux, des serveurs, des stockages et des centres de données afin de délivrer aux utilisateurs un service sans interruption
Platform as a Services (Paas) - est une catégorie de services cloud qui propose une plateforme de traitement et une couche logicielle en tant que service. Dans le mode PaaS, c’est l’utilisateur qui créé son propre logiciel à l’aide des librairies et des outils proposés par le fournisseur. L’utilisateur contrôle également le déploiement et la configuration de son logiciel. De son côté, le fournisseur garde la maîtrise des serveurs, du stockage, du réseau, et des suites logicielles qu’il propose. Le mode PaaS permet simplement de bâtir des applications sans devoir investir à priori dans le matériel et les logiciels nécessaires. Les offres PaaS peuvent également inclure des outils avancés de conception, de développement, de test et de déploiement des applications, sans oublier des services collaboratifs, des bases de données, des outils de versioning applicatif.

PRA - Un plan de reprise d’activité (PRA) également appelé disaster recovery plan (DRP) en anglais, permet d’assurer, lors d’un sinistre informatique la remise en route de votre infrastructure et de vos applications hébergées. Lorsque votre système informatique fait face à une panne et que vos services ne sont plus accessibles, le PRA vous permet de basculer sur une infrastructure de secours, capable de prendre en charge temporairement l’essentiel des besoins informatiques.

 

 

Back to top

Q

 

Qualité des données - Afin de ne pas se reposer sur des données erronées, il est nécessaire de s’appuyer sur des données fiables. Voilà pourquoi la mise en place d’une stratégie de gouvernance des données est conseillée.
 

 

Back to top

R

 

R - R est un langage de programmation très utilisé pour le computing statistique. Les data scientists doivent impérativement maîtriser ce langage, très utilisé dans le domaine de la data science.

Redondance - En informatique, la redondance consiste à doubler à minima les équipements nécessaires au fonctionnement des infrastructures déployées. En pratique, une infrastructure redondée assurera la continuité du service en cas de défaillance matérielle, en basculant sur l’équipement de secours. La redondance matérielle est utilisée pour augmenter la tolérance de panne d’une infrastructure et de garantir la résilience du système.
Réversibilité En Cloud Computing, la réversibilité représente pour les clients, la possibilité de récupérer, à tout moment, l’intégralité de leurs données et services hébergés. Il est primordial lors du choix d’un hébergeur Cloud de s’assurer que vous restez bien propriétaire de vos données et qu’elles sont récupérables/réversibles à tout moment.
Réalité augmentée - Superposition de la réalité et d'éléments virtuels, calculés par un système informatique en temps réel (sons, images 2D, 3D, vidéos, etc.). Cette technique est utilisée dans les jeux vidéos et le cinéma (où le spectateur interagit avec des objets virtuels au moyen de capteurs), mais aussi pour la géolocalisation ou encore le patrimoine (l'abbaye de Cluny en France dispose par exemple de bornes montrant l'état de la ville au XVe siècle).

Réalité virtuelle immersive - Univers virtuel, reconstitué par un ordinateur, dans lequel est plongé l'utilisateur grâce à différents capteurs ou objets (lunettes, combinaison sensorielle, etc.). L'immersion dans la réalité virtuelle peut concerner le joueur d'un jeu vidéo ou un pilote d'avion dans le cadre de sa formation.

Représentation sémantique des connaissances - Algorithmes* permettant de formaliser une phrase écrite dans une langue quelconque (exemple : « Paul prend le bus pour Berlin ») sous forme logique et ainsi de la rendre interprétable par un ordinateur. La machine peut alors réaliser des inférences logiques (comme une déduction), qui lui permettent de classer les mots dans différentes catégories et d'analyser les phrases qu'on lui soumet.
Réseaux neuronaux - Un réseau de neurones est une technique de calcul analogue au modèle du fonctionnement d’un cerveau humain. Un neurone réalise un calcul simple, et est connecté à d’autres neurones pour former un réseau. Ces connexions sont ajustables, et on parle d’apprentissage lorsqu’on les ajuste pour mieux réaliser une tache. Ils sont notamment utilisés par les géants du web, Google, Facebook ou Microsoft, pour des tâches diverses comme la reconnaissance d’images, le traitement de la parole, la recherche d’informations, la recommandation (film, restaurant, vin, livre…) ou la traduction automatique.
 

Back to top

S

 

 

Salle Blanche - Une salle blanche est un ensemble de pièces protégées contre tous types d'attaques (virus informatiques, intrusions physiques ou catastrophes naturelles). On trouve les salles blanches informatiques dans les data center.

Scale-out - En informatique, l'approche "scale-out" consiste à ajouter des unités de manière "horizontale" à un ensemble de ressources. Par exemple, d'ajouter un serveur à un ensemble de serveurs dans un datacenter ou à un cluster. L'autre approche de dimensionnement (ou scalabilité) est l'approche "scale-up".

Scale-up - En informatique, l'approche "scale-up" consiste à améliorer une unité de manière "verticale" en lui ajoutant des ressources. Par exemple, d'ajouter plus de mémoire vive ou de puissance à un serveur, ou plus disques de stockages pour augmenter la mémoire d'un NAS. L'autre approche de dimensionnement (ou scalabilité) est l'approche "scale-out" qui consiste, elle, à ajouter une unité entière à l'ensemble de ressources pour en augmenter la capacité.

Service de cache - Mise à disposition d’un espace mémoire (éventuellement redondant et persistant) au sein du cloud permettant aux applications d’externaliser leurs données volatiles et de les voir survivre aux défaillances de l’application. Azure Redis Cache est un service de cache.

Services hébergés Les services hébergés (en anglais, hosted services) sont des applications, des composants de l'infrastructure informatique ou des fonctionnalités auxquelles les entreprises accèdent par l'intermédiaire de fournisseurs de services externes, généralement via une connexion Internet.

Ils recouvrent une vaste gamme d'offres, allant de l'hébergement Web aux postes de travail virtuels en passant par la sauvegarde hors site. Les services cloud entrent aussi dans cette catégorie, bien que tous les services hébergés ne résident pas dans le cloud. Ainsi, un client pourra accéder à une application à partir du serveur dédié d'un hébergeur.

SLA - Le Service Level Agreement ou en français : contrat de niveau de services, spécifie les niveaux de disponibilité, de performances, d’opérations et des autres attributs du service, tels que la facturation et les pénalités éventuelles en cas de manquement à ces garanties. Dans le domaine du Cloud Computing, le SLA formalise donc le niveau de performances et le taux de disponibilité des services hébergés. Généralement situé aux alentours de 99%, ce dernier vous assure donc une disponibilité quasi maximale, avec une marge d’inaccessibilité de services de seulement 1%.

Serverless - Exécution d’applications ou de fragments de code dans une infrastructure entièrement gérée par le fournisseur du Cloud. Pas de provisionnement de machines, pas de configuration de la mise à l’échelle.

Software as a Serviceou SaaS – est un modèle de service cloud où l’utilisateur accède directement en mode locatif à une application. La palette d’applications disponibles en mode SaaS couvre pratiquement tous les domaines d’utilisation : la messagerie et le travail collaboratif, les progiciels d’entreprise, la gestion de la relation client, les ressources humaines, le support aux utilisateurs, les tests applicatifs, etc… Les services SaaS sont proposés soit directement par les éditeurs, soit par des intégrateurs de services, soit par des fournisseurs de service cloud public ou privé managé.

Solution clé en main - Une solution Cloud dite « clé en main » correspond à une plateforme qui a été pré configurée, de manière à ce qu’elle soit utilisable dès sa livraison par l’utilisateur final. Concrètement, les solutions livrées clé en main permettent aux entreprises de gagner du temps dans le déploiement de leurs infrastructures en évitant certaines opérations de configuration ou d’installation.

Solution self-service - Une solution Cloud dite « self-service » correspond à une plateforme dont la mise en place, l’allocation de ressources et la livraison sont automatisées. Les solutions livrées en self-service permettent aux entreprises de gagner un temps précieux dans le déploiement de leurs infrastructures en limitant les interactions avec leur hébergeur : après la commande et le paiement, votre solution est utilisable au bout de quelques minutes/heures.

SOA (Service-Oriented Architecture, Architecture orientée services) 
L'architecture orientée services (Service-Oriented Architecture, SOA) est un modèle de développement logiciel à base de composants applicatifs distribués et doté de fonctions de découverte, de contrôle d'accès, de mappage de données et de sécurité. 
L'architecture SOA a deux grandes fonctions. Tout d'abord, il s'agit de créer un ample modèle d'architecture qui définit les objectifs des applications et les approches pour les atteindre ; ensuite, de définir des caractéristiques de mise en oeuvre précises, souvent liées à celles du langage de description de services WSDL (Web Services Description Language) et du protocole SOAP (Simple Object Access Protocol).

Spark - Spark est un puissant moteur de traitement de données capable d’effectuer des tâches de streaming, de machine Learning, ou de requêtes SQL nécessitant un accès itératif rapide aux ensembles de données. Spark est généralement beaucoup plus rapide que MapReduce.
Stream processing - Le Stream processing permet d’agir en temps réel sur les données à l’aide de requêtes continues. Combiné avec les streaming analytics, comme les analyses mathématiques ou statistiques au sein du Stream, les solutions de Stream processing sont conçus pour prendre en charge de larges quantités de données en temps réel.
Système expert - Logiciel développé pour reprendre le raisonnement logique et les mécanismes cognitifs d’un expert humain dans un domaine spécifique. Son raisonnement se fait à partir de connaissances et de règles connues, communiquées par un spécialiste humain.


 
 

 

Back to top

T

 

Test de Turing - Élaboré par le célèbre mathématicien britannique Alan Turing, le Test de Turing a pour objectif de tester la capacité d’une Intelligence Artificielle à se faire passer pour un humain. Concrètement, le test se déroule à travers une conversation en langage naturel. Un humain « opérateur » pose des questions, transmises ensuite à un ordinateur et à un autre humain, qui devront y répondre séparément de manière anonyme. A l’opérateur ensuite, à travers ces échanges textuels, de déterminer les réponses écrites par l’ordinateur et celles données par son homologue. S’il n’arrive pas à les discerner, alors on peut considérer que l’Intelligence Artificielle a passé le test avec succès.

Traitement du langage naturel (TLN ou NLP) - Le traitement du langage naturel (TLN, ou NLP en anglais) est la capacité pour un programme informatique de comprendre le langage humain tel qu'il est parlé. Il fait partie des technologies d'intelligence artificielle.
Le développement d'applications TLN est difficile parce que traditionnellement les ordinateurs sont conçus pour que les humains leur « parlent » dans un langage de programmation précis, sans ambiguïté et extrêmement structuré, ou à l'aide d'un nombre limité de commandes vocales clairement énoncées. Or le discours humain n'est pas toujours précis, il est souvent ambigu et sa structure linguistique peut dépendre d'un grand nombre de variables complexes, notamment l'argot, les dialectes régionaux et le contexte social.

Traitement Automatique du Langage Naturel (ou NLP) -  Le Traitement Automatique du Langage Naturel, dit également TALN ou NLP (Natural Langage Processing), est une discipline à la croisée de l’Intelligence Artificielle, la linguistique et l’informatique. Elle s’appuie sur des connaissances en phonétique, morphologie, syntaxe et sémantique notamment pour approfondir l’analyse de contenu linguistique. En pratique, elle consiste en l’exploitation automatique de textes pour la recherche d’information, l’analyse, la production, l’explication… 

Back to top

V

 

Virtualisation - La virtualisation consiste en la création d'une version virtuelle (par opposition à réelle) d'un ou de plusieurs éléments, tel qu'un système d'exploitation, un serveur, un dispositif de stockage ou des ressources réseau. En informatique, la virtualisation fait d'énormes progrès dans trois domaines : le réseau, le stockage et les serveurs.

3V - Les trois “v” représentent Volume, Vitesse et Variété, les trois critères d’une plateforme Big Data.
 

Back to top

W

 

 

 

  Back to top


Voir les domaines associés:
Cookie Control toggle icon