Introduction au BIG DATA

Introduction au BIG DATA

Qu'est-ce que les données ? Les quantités, caractères ou symboles sur lesquels les opérations sont effectuées par un ordinateur, qui peuvent être sto

Coronavirus au Maroc : quel rôle de l’intelligence artificielle ?
Comment détecter les objets sur les images RGB
Qu’est-ce que le Big Data ?

Qu’est-ce que les données ?

Les quantités, caractères ou symboles sur lesquels les opérations sont effectuées par un ordinateur, qui peuvent être stockés et transmis sous forme de signaux électriques et enregistrés sur des supports d’enregistrement magnétiques, optiques ou mécaniques.

Qu’est-ce que le Big Data ?

Le Big Data c’est aussi du data mais avec une taille énorme . Le Big Data est un terme utilisé pour décrire une collection de données de grande taille et qui croît de façon exponentielle avec le temps. En bref, ces données sont si volumineuses et complexes qu’aucun des outils traditionnels de gestion des données n’est capable de les stocker ou de les traiter efficacement.

Exemples de Big Data

La Bourse de New York génère environ un téraoctet de nouvelles données commerciales par jour.

Des médias sociaux

La statistique montre que plus de 500 téraoctets de nouvelles données sont ingérés dans les bases de données du site de médias sociaux Facebook , chaque jour. Ces données sont principalement générées en termes de téléchargements de photos et de vidéos, d’échanges de messages, de mise en commentaire, etc.

Types de Big Data

BigData ‘pouvait être trouvé sous trois formes:

  • Structuré
  • Non structuré
  • Semi-structuré

Structuré

Toutes les données qui peuvent être stockées, consultées et traitées sous forme de format fixe sont appelées données «structurées». Au fil du temps, les talents en informatique ont mieux réussi à développer des techniques pour travailler avec ce type de données (dont le format est bien connu à l’avance) et à en tirer de la valeur. Cependant, de nos jours, nous prévoyons des problèmes lorsqu’une taille de ces données augmente dans une large mesure, les tailles typiques étant à la mode de plusieurs zettaoctets.

Non structuré

Toutes les données de forme inconnue ou de structure sont classées comme données non structurées. En plus de leur taille énorme, les données non structurées posent de nombreux défis en termes de traitement pour en tirer de la valeur. Un exemple typique de données non structurées est une source de données hétérogène contenant une combinaison de simples fichiers texte, images, vidéos, etc. Aujourd’hui, les organisations disposent de nombreuses données mais malheureusement, elles ne savent pas comment en tirer de la valeur depuis ces données sont dans leur forme brute ou dans un format non structuré.

Semi-structuré

Les données semi-structurées peuvent contenir les deux formes de données. Nous pouvons voir les données semi-structurées comme une forme structurée mais elles ne sont en fait pas définies avec par exemple une définition de table dans un SGBD relationnel. Un exemple de données semi-structurées est une donnée représentée dans un fichier XML.

Caractéristiques du Big Data

1 – Volume – Le nom Big Data lui-même est lié à une taille énorme. La taille des données joue un rôle très crucial dans la détermination de la valeur des données. De plus, le fait de savoir si une donnée particulière peut réellement être considérée comme un Big Data ou non dépend du volume de données. Par conséquent, le «volume» est une caractéristique qui doit être prise en compte lors du traitement des mégadonnées.

2 – Variété – La variété fait référence à des sources hétérogènes et à la nature des données, à la fois structurées et non structurées. Auparavant, les feuilles de calcul et les bases de données étaient les seules sources de données prises en compte par la plupart des applications. De nos jours, les données sous forme de courriels, photos, vidéos, appareils de surveillance, PDF, audio, etc. sont également prises en compte dans les applications d’analyse. Cette variété de données non structurées pose certains problèmes pour le stockage, l’extraction et l’analyse des données.

3 – Vitesse – Le terme «vitesse» fait référence à la vitesse de génération des données. La rapidité avec laquelle les données sont générées et traitées pour répondre aux demandes détermine le potentiel réel des données.

4- Big Data Velocity traite de la vitesse à laquelle les données entrent à partir de sources telles que les processus métier, les journaux d’applications, les réseaux et les sites de médias sociaux, les capteurs, les appareils mobiles , etc. Le flux de données est massif et continu.

5 – Variabilité – Il s’agit de l’incohérence qui peut parfois être montrée par les données, entravant ainsi le processus de gestion et de gestion efficace des données.

Les technologies Big Data peuvent être utilisées pour créer une zone de transit ou une zone d’atterrissage pour les nouvelles données avant d’identifier quelles données doivent être déplacées vers l’entrepôt de données. De plus, une telle intégration des technologies Big Data et de l’entrepôt de données permet à une organisation de décharger les données rarement consultées.

COMMENTS