Le Sous-Apprentissage et le Sur-Apprentissage sont deux concepts majeurs de l’appren-tissage automatique. Ces termes définissent la capacité d’un modèle à prédire les données.Par ailleurs, le Sous-Apprentissage et le Sur-Apprentissage sont les causes principales desmauvaises performances des modèles prédictifs générés par …
Dans cet nouvel article, je vous explique l’importance du deep learning distribué, les différentes approches utilisées et enfin quelques outils disponibles sous python pour faire le deep learning distribué. Pourquoi le deep learning distribué Nous vivons à l’ère des données. …
Dans cet article, je vous présente de façon pratique comment détecter les fraudes bancaires avec un auto-encodeur en Keras . Le fonctionnement d’un auto-encodeur D’abord, je vous explique brièvement le fonctionnement d’un auto-encodeur. Vous pouvez également consulter mon article sur …
Le Deep Learning est une technologie de pointe qui a récemment attiré l’attention du cercle informatique. Il permet de faire l’extraction, la transformation des caractéristiques et la prédiction. L’apprentissage profond permet de faire de l’apprentissage supervisé et non supervisé. En …
C’est quoi le Deep Learning Le Deep Learning est une technologie de pointe qui a récemment attiré l’attention du cercle informatique. Il permet de faire l’extraction, la transformation des caractéristiques et la prédiction. En effet, il est un réseau de …
Motivation Nous assistons actuellement au développement des technologies du numérique et des objets connectés. Ces changements engendrent la production des quantités de données. Les données personnelles et les informations sur les transactions financières sont considérées comme sensibles.L’exploitation de ces données …
Motivation Des quantités énormes de données sont produites chaque jour. La taille sera évaluée à 163 zettabytes en 2025. Ces données sont produites par les réseaux sociaux, les capteurs, les sites e-commerce (Amazon, Alibaba etc) et les transactions bancaires. Elles …
Dans cet article, je vous présente les avantages et quelques inconvenants du framework du Big Data Apache Storm. Définition Selon Wikipédia, Apache Storm est un framework de calcul de traitement de flux distribué, écrit principalement dans le langage de programmation …
Dans cet article, je vous présente les composants du framework Big Data Apache Storm. Description d’Apache Storm (Architecture logicielle) Il existe deux types de nœuds dans un cluster Storm, similaires à Hadoop, qui sont le nœud maître et les nœuds …
Dans cet article, je vais vous montrer l’importance du Spark par rapport à Hadoop MapReduce. En effet, je vais expliquer d’abord l’importance du traitement distribué et parallèle. Importance du traitement distribué et parallèle Nous vivons à l’ère des données ! …