DEVELOPPEMENT LOGICIEL

Apprentissage profond avancé

Objectifs :

Maîtriser la vision informatique principale Modèles d’apprentissage profond 
Comprendre le potentiel des modèles génératifs
Soyez au courant des applications des RGA
Maîtriser l’application commune de la vision par ordinateur 


Outils à maîtriser :

Tensorflow (tensorflow)
Dur
Git
Python 
Collaborer

Module 1 : Introduction

M.L. et apprentissage supervisé
Réseaux neuronaux artificiels
Apprentissage profond 

Module 2 : L’apprentissage profond comprenait des modèles 

Introduction
Cnn
RNN (en anglais)
Auto-encodeurs
Modèles DL alternatifs?

Module 3 : Vision par ordinateur

Vidéosurveillance intelligente: IVS 
Applications CV en entreprise
Analyse de la vision par ordinateur

Module 4 : Classification de l’image

Cnn
Circonvolutions
Application I : Classification des chiffres MINST

Module 5 : Architectures CNN 

AlexNet AlexNet
VGGNET ( VGGNET )
Création
Resnet (Resnet)

Module 6 : Détection d’objets

Introduction
R-CNN
Ssd
YOLO 3,4 et 5

Module 7 : Introduction des modèles génératifs

Principaux concepts
Modèles d’IA de prochaine génération
Certaines applications

Module 8: Auto-encodeurs

Le modèle
Apprentissage non supervisé
Utilisation d’auto-codeurs

Module 9 : RGA

Introduction
Composants GAN 
Entraînement accusatoire
Fonctions de coût 
Processus de formation
Application: Numéro manuscrit généré par un ordinateur!

Module 10 : Applications GANs

Modèles génératifs en médecine
Modèles génératifs à la mode
GANs dans la cybersécurité

Réf. : DNDAFP12
Durée : 3 jours
Tarif : 1500,00 

Automatisation du test avec Selenuim

Objectifs :

Savoir configurer et mettre en place un environnement de test automatisé avec Selenuim
Savoir créer des scenarios pour le test des interfaces web.
Savoir créer, modifier et exporter des scenarios de tests
Comprendre l’intégration des tests d’interface dans les serveurs d’intégration continue

Introduction

Processus et qualité
Retour sur les tests fonctionnels des applications Web
Différents niveaux de test : test unitaire, test d’intégration, test fonctionnel et test de charge
La problématique du test des IHM Web, positionnement de Selenium

Automatisation – Assimilez les concepts

Pourquoi automatiser ?
Bénéfices et limites de l’automatisation
Choisir les tests à automatiser

Présentation de Selenium 3

Le projet Selenium, historique et enjeux
Navigateurs supportés
Présentation des commandes
Architecture de la suite d’outils Selenium 3

Selenium IDE

Capture et enregistrement de scénario avec Selenium IDE
Structure et éléments de script
Analyser et modifier un script généré
Création manuelle de script
Création de suite de tests
Méthodes   de   localisation   :   ID,   Name, ClassName, Link Text…
Identifier des objets avec CSS Selector
Génération du XPath

Selenium  Webdriver –l’utilisation des interfaces de programmation applicative (API)

Présentation générale de l’API Webdriver
Les drivers (proxy) pour les différents navigateurs (Internet Explorer, Firefox, Chrome, Android et HtmlUnit)
Pilotage des tests multi-navigateurs avec Webdriver
Trouver les éléments du DOM Remote Webdriver
Faire des captures d’ecrans automatique
Exporter des tests depuis Selenuim IDE

Selenium Grid

Architecture
Installation et configuration des différents composants
Création d’un test pour le Grid
Exécution parallélisée de tests
Les différentes options
Gestion des environnements

Concepts avancés

Présentation du concept d’intégration continue avec Selenium
Démarche de spécification
Extension de l’API Selenium IDE

Réf. : DNDAFP14
Durée : 2 jours
Tarif : 1000,00 

Consultant DevOps : Docker et Kubernetes

Objectifs :

Introduire les nouvelles architectures logicielles reposant sur la technologie de virtualisation des conteneurs Docker
Maitriser Docker et virtualiser des applications à travers des workshop pratiques
Savoir configurer, approvisionner et administrer une Container-based Infrastructure par le code d’une manière automatisée
Acquérir les fondamentaux sur Kubernetes : installation, administration, utilisation des différents composants et déploiement des applications
Acquérir des connaissances et des compétences de base sur les stratégies de déploiement des applications conteneurisées en production

PARTIE 1 – LES FONDAMENTAUX DOCKER Introduction

DOCKER Introduction

Les différentes formes de virtualisation
La virtualisation par conteneur
Présentation de l’écosystème Docker
Docker et ses concurrents
TP : installation de Docker

Manipulation des images

Comment récupérer des images Docker officielles
Docker Registry (Docker Hub et Docker Store)
Filtrer parmi les images disponibles
Gérer les images
Dockerfile
TP : Installation des images officielles et fabrication des images personnalisées contenant instructions et configurations avancées

Manipulation des conteneurs

Création de conteneurs
Gestion interactive des conteneurs
Gestion des conteneurs en tant que daemon
Identifier l’environnement d’un conteneur
TP : Création d’un conteneur basé sur une image prédéfinie et le mettre à jour

Les conteneurs

Docker et les réseaux
Le port forwarding (PAT)
Composition des conteneurs
Utiliser les volumes pour la persistance ou la mutualisation des données.
Multi-conteneurs avec Docker Compose
TP : Mise en place d’un portail WordPress à partir de 2
conteneurs: Mysql et WordPress
TP : Mise en place d’une application Web MEAN Stack
à partir de 2 conteneurs: NodeJS et MongoDB

PARTIE 2 – ORCHESTRATION DES CONTENEURS

Orchestration des conteneurs : Présentation et enjeux

Cluster Docker vs Cluster Classique (Virtualisation)
Solutions d’orchestration open-source et leurs différences
Container as a Service (CaaS) dans le Cloud
Docker Data Center
Docker Machine

Docker Swarm

Présentation et Architecture de Swarm
Manipulation des Stacks, services et réplication
Scaling
Administration d’un cluster Swarm avec
Portainer Web Console.
TP : Création d’une Container-based Infrastructure avec Docker Machine (Déploiement en local avec le driver Virtual Box, sur un Cloud Privé Openstack et sur un Cloud Public Amazon AWS).
TP : Mise en place d’un cluster Swarm avec Docker Machine

Kubernetes

Présentation et Architecture de k8s
Composants clés (ETCD, Scheduler, Serveur API, Controler Manager, Kublet)
Gestion des réseaux (kubenet, CNI providers)
Modes de déploiement (All in One et Multi-node)
Outils d’administration (Kubectl, Remote CLI)
Les ressources (Pods, Namespaces, Services, Deployments, Replication Manager, ConfigMaps,, Secrets, etc)
Gestion des volumes (Volumes Persistant, Claims, Volumes Providers)
Sondes Liveness et Readiness
Scaling et Auto-scaling
Exposition publique et Routing des applications (Ingress, Reverse-Proxy).
TP : Mise en place de Kubernetes avec Vagrant et Ansible (1 Master et 3 Nodes)
TP : Gestion des volumes
TP : Déploiement d’une application statefull
TP : Administration Kubernetes (Kubectl)
TP : LoadBalencer avec Ingress
TP : Pods, Labels, Selectors et Namespaces
TP : Replica, Deployments et Services
TP : Strategies de déploiements update, Blue/Green et A/B Testing)

Réf. : DNDAFP20
Durée : 7 jours
Tarif : 3500,00 

Consultant DevOps : Infrastructure par le Code : Puppet, Ansible, Terraform, Vagrant

Objectifs :

Appréhender l’organisation d’Ansible et de Puppet
Savoir utiliser et créer des playbooks et des modules pour gérer une infrastructure.
Coder une infrastructure avec Terraform et Vagrant.
Appréhender les différents outils Infrastructure par le code avec leurs spécificités

PARTIE 1 – OUTILS DE CREATION ET GESTION DES ENVIRONNEMENTS VIRTUELS PAR LE CODE

Terraform

Retour sur les types d’infrastructure
Terraform : présentation,architectures et  fonctionnalités
Gestion de multi-providers (Cloud, Hyperviseur)
Gestion d’une infrastructure : création, modification
Utiliser l’interface en lignes de commande (CLI)

Vagrant

Installation de vagrant
Gestion des plug-ins et des boxes (VirtualBox, Cloud)
VargantFile 
Les commandes de base
Cycle de vie d’une instance Vagrant
Gestion du réseau
Synchronisation des fichiers   

PARTIE 2 – OUTILS DE GESTION DES CONFIGURATIONS

Présentation Puppet

Pourquoi la gestion d’infrastructure centralisée ?
Pourquoi Puppet ?
Les différentes versions et distributions de Puppet.
Le fonctionnement général de Puppet.

Mise en œuvre

Installer un Puppet master.
Configurer un Puppet master.
Installer et configurer l’agent Puppet.

Prise en main du langage de Puppet

Les principaux types supportés par Puppet.
La syntaxe du langage.
Générer des fichiers à partir de templates.
Les relations entre ressources.
Les ressources définies.
La remontée d’informations avec Facter.

Réutilisation de modules Puppet

Pourquoi réutiliser des modules existants ?
Les modules, les classes.
Utiliser un module existant.
Pourquoi structurer son code Puppet sous forme de modules réutilisables ?
Ecrire un nouveau module.

Connecter des agents au Puppet master

L’architecture maître-agent.
L’authentification des clients.
La gestion des certificats SSL.
Planifier le lancement de l’agent.

Bonnes pratiques pour déployer et utiliser Puppet

Le formatage du code.
Utiliser la gestion de versions et l’intégrer avec Puppet.
Séparer le code générique des paramètres 
spécifiques à un système..

Présentation Ansible

Présentation et énumération des thèmes du cours.
Introduction à Ansible
Décrire la terminologie et l’architecture d’Ansible.
Déploiement d’Ansible
Installer Ansible et exécuter des commandes ad hoc.
Mise en œuvre de playbooks
Gestion des variables et des inclusions
Décrire la portée et la priorité des variables, 
Mise en œuvre du contrôle des tâches
Mise en œuvre de rôles
Créer et gérer des rôles

Ansible Tower

Mise en œuvre d’Ansible Tower
Appréhender l’interface graphique
Reporting.

Réf. : DNDAFP22
Durée : 5 jours
Tarif : 2500,00 

Consultant DevOps : Métrologie, Monitoring et Gestion des Logs

Objectifs :

Savoir installer, configurer et administrer une stack de supervision avec Prometheus et Grafana
Connaître et comprendre le fonctionnement de Prometheus et Grapfana
Être en mesure de mettre en œuvre la supervision dans un environnement hétérogène (Cloud)
Identifier les bonnes pratiques à mettre en place pour développer une application basée sur la stack ELK
Découvrir les bases de la gestion de messages avec Logstash et le stockage de données massif avec ElasticSearch
Construire des graphes représentatifs des logs avec Kibana

PARTIE 1 – Métriques, Alertes  et Monitoring

Introduction

Différents type de supervision (Infrastructures, Services et Applications)
Solutions disponible sur le marché
Définition d’une stratégie de monitoring
Pourquoi Prometheus ?
 
Administration Prometheus

Prometheus : fonctionnalités, principe de fonctionnement 
Prometheus vs autres outils de supervision
Architecture de Prometheus (Short Jobs, Job Exporter, PushGateway, Service Discovery, Kubernetes )
Stockage : présentation des données à stocker, (types/formats), stockage par double delta
Prometheus server : installation et configuration 
Langage PromQL
Jobs exporter : installation, configuration
Définition d’alertes
TP : Installation et Configuration de Prometheus
TP : Monitorer un nœud avec Node Exporter
TP : Monitorer un serveur  web avec Apache Exporter
TP : Monitorer une base de données avec MySQL Exporter

Administration Grafana

Faiblesses de l’interface de Prometheus
Grafana : présentation de l’interface web
Grafana : Sources de données et Dashboard disponibles
TP : Branchement  et Interfaçage avec Prometheus
TP : Configuration d’un dashboard
TP : Configuration du gestionnaire d’alertes
 
PARTIE 2 – Gestion des Logs

Introduction à la Stack ELK

Elasticsearch, Logstash et Kibana
Cas d’utilisation
Représentation des données dans Elasticsearch
Architecture générale et Ecosystème Elastic
Elasticsearch : une base de donnée  ou un moteur de recherche
Installation et configuration de base
Communication avec avec Elasticsearch
Structure de l’API
Stockage : présentation des données à stocker, (types/formats), Query

Récupération des Logs avec Logstash

Fonctionnement et concepts
Positionnement des Beats par rapport à Logstash
Installation et configuration de base
Filters, Inputs /Outputs, Index
TP: Mise en plase d’une stack ELK
TP : Récupérer des logs et métriques avec Logstash

Stockage des logs dans Elasticsearch

Installation, configuration de base et plugins
Le rôle et l’importance du mapping
Recherche basique
Notion d’Agrégats
TP : Stocker et rechercher les logs avec Elasticksearch

Visualisation des lofs avec Kibana

Le role de Kibana dans la stack ELK
Installation, configuration de base et plugins
Rechercher, agréger, visualiser, sauver, exporter
TP : Construire des graphes représentatifs avec Kibana

Réf. : DNDAFP26
Durée : 5 jours
Tarif : 2500,00 

Data Mining & Machine Learning Python

Objectifs :

Connaître et savoir utiliser les librairies incontournables de Python pour la data science : La Scipy Stack
Connaître et utiliser les principales librairies de visualisation de données et notamment orientées cartographie
Savoir manipuler des données volumineuses ne tenant pas en mémoire
Avoir une bonne compréhension de l’écosystème scientifique de Python, savoir trouver ses librairies et juger de leur qualité

L’écosystème scientifique Python

Il n’est pas facile d’y voir clair dans l’écosystème scientifique de Python tant les librairies sont variées et nombreuses.
Cette présentation vous apportera une vue d’ensemble et les éléments clefs qui vous aideront à choisir vos librairies et outils de travail pour vos projets de data science avec Python.

Les incontournables : Numpy, Scipy, Pandas, Matplotlib et iPython qui sont le ciment de toutes les autres librairies scientifiques
Panorama des librairies et logiciels scientifiques par domaine
Les critères permettant de juger de la qualité d’une librairie
Calculer avec des nombres réels: comprendre les erreurs de calculs

Les nombres réels, dans la plupart des langages, dont Python, utilisent la norme en virgule flottante.

Celle-ci n’est pas précise et peut générer des erreurs de calcul parfois bien gênantes.

La représentation des nombres réels
Comprendre les erreurs de calculs et les contourner
La scipy stack

La librairie Numpy qui signifie Numeric Python est la première que vous devez apprendre. Elle constitue avec Scipy, Matplotlib et Pandas le socle sur lequel s’appuient toutes les autres librairies scientifiques.

Manipuler des tableaux de nombres : Numpy
Différences avec les listes Python
Création, sélection, filtres et principales fonctions -Visualiser ses données : Matplotlib
Les concepts de la librairie
Principaux graphiques : nuages de points, courbes, histogrammes, boxplot, …
Fonctionnalités avancées : 3D, légendes, colorbar, manipuler les axes, annotations, …
Analyse de données : Pandas
Les fondements de la librairie : Manipuler des données de type CSV et Excel
Séries et Dataframes
Index, sélection de données, filtres/recherche, agrégations, jointures et fonctions avancées
Manipuler des séries temporelles
Les fonctions mathématiques avancées: Scipy
Statistiques, optimisation, interpolations/régressions, traitement d’images

Visualisation de données

Bien que Matplotlib constitue la première librairie de visualisation que vous devrez
apprendre, elle possède 2 limites majeures: elle ne sait pas gérer les données volumineuses et n’est pas adaptée au Web. Mais Python a su développer un riche écosystème de visualisation de données qui devrait pouvoir répondre à toutes vos attentes.

Présentation de l’écosystème de visualisation de données de Python
Les librairies orientées Web: Bokeh, Altair et Plotly
Les « écosystèmes » PyViz et HoloViz
La visualisation de données volumineuses/big data avec DataShader
Les statistiques avec Seaborn

Visualiser des données géospatiales

Posséder des données disposant de coordonnées géospatiales apporte une toute autre dimension à leur représentation. Python est très bien outillé dans ce domaine.

Convertir ses données d’un système de coordonnées à l’autre
Cartographie interactive « à la Open Street Map/Google Maps » avec Folium/iPyleaflet
Cartographie statique avec Cartopy
Autres librairies géospatiales

Manipulation de données volumineuses

Numpy et Pandas sont 2 librairies incroyables, mais elles ont 2 limites majeures : elles ne savent pas traiter des données de très grande volumétrie qui ne tiennent pas en mémoire et ne savent pas toujours paralléliser leurs calculs.

Python a su développer des solutions.
Les librairies h5py, pytables, netcdf4, xarray, iris, parquet permettant de lire vos fichiers scientifiques
Paralléliser ses calculs avec Dask
Paralléliser ses calculs avec CuDF
Manipuler des dataframes gigantesques avec Dask

Personnalisation

Sous réserve de contraintes techniques ou de confidentialité, nous vous proposons de personnaliser la formation en réalisant des exercices directement sur vos données métiers.
Apprentissage et analyse statistique avec scikit learn & statsmodels *Revue des techniques *L’analyse discriminante *La régression logistique *Les arbres de décision *Gestion des ensembles d’apprentissage et de test *Évaluation des modèles *Introduction à l’utilisation de Spark avec Python (pyspark).

Réf. : DNDAFP15
Durée : 6 jours
Tarif : 3000,00 

Data Mining & Machine Learning R

Objectifs :

Maîtriser l’utilisation des packages R pour le machine learning
Comprendre le process de traitement en machine learning
Savoir interpréter les sorties d’un algorithme de machine learning avec R

Jour 1

Le data mining et le machine learning – qu’est-ce que c’est ? (Panorama des méthodes et des applications)
Le langage R pour le data mining et la machine learning
Le langage R pour le data mining
L’analyse descriptive des données multivariées et la réduction de dimnsions :
ACP/ACM/AFC
Présentation et utilisation du package FactoMineR

Jour 2

Apprentissage supervisé – cas pratiques avec R
La régression logistique
Les arbres de décisions
Les forets aléatoires et les GBM
Utilisation du package caret pour ajuster les hyper-paramètres
L’apprentissage non supervisé – cas pratiques avec R (k-means…)
Discussions et évaluation de la formation

Réf. : DNDAFP16
Durée : 4 jours
Tarif : 2000,00 

Data Mining & Machine Learning: introduction

Objectifs :

Maîtriser les principaux concepts d’apprentissage automatique et d’exploration de données
Comprendre la hiérarchie des besoins en données
Comprendre les applications scientifiques et commerciales de l’apprentissage automatique

Outils à maîtriser :

Python
Carnet Jupyter
Collab Google

Module 1 : L’ère des données 

Introduction 
Big data (big data) 
Apprentissage automatique et intelligence artificielle
Traitement des données avec Python et Scala
Langage de programmation Python

Module 2 : Gestion de projets axés sur les données 

La pyramide des données
Kdd
CRISP- DM
Méthodes agiles pour les data scientists

Module 3: Python – Jupyter IDE

L’IDE interactif
Cahiers en cours d’exécution avec jupyter
Collab Google
Enquête sur les bases de programmation python
Gestion des données avec python

Module 4 : Préparation des données avec pandas

Les données disponibles nécessitent-elles un pré-traitement?
Accès aux données avec python
Préparation des données avec Pandas : processus ETL

Module 5 : Techniques d’exploration de données

Exploration et analyse de données 
Science des données et exploration de données 
Techniques minières
Exploitation minière Règles relatives aux articlesfréquents et  aux associations
Algorithmes de recommandation 
Cas d’utilisation commerciale

Module 6 : Techniques d’apprentissage automatique 

Apprentissage supervisé : le concept
Classification 
Régression
Formation, test et évaluation de modèles
Apprentissage non supervisé 
Cas d’utilisation commerciale 

Module 7 : Analyse des données exploratoires : EDA

Repères UCI 
Résumé des ensembles de données
Eda
Outils statistiques pour l’AED
Visualisation de données
Explorer visuellement les données

Réf. : DNDAFP25
Durée : 2 jours
Tarif : 1000,00 

Deep Learning avec Keras & Tensorflow

Objectifs :

Maîtriser les principaux concepts de l’apprentissage automatique
Mettre en œuvre des modèles prédictifs avec des modèles d’apprentissage profond
Utilisation de Tensorflow et Keras
Concevoir les modèles d’apprentissage profond appropriés en fonction de l’exigence relative aux cas d’utilisation

Outils à maîtriser :

Python – Carnet Jupyter
Tensorflow (tensorflow)
Dur
Carnet Jupyter
Collab Google
Anaconda

Module 1 : Introduction

Apprentissage automatique et apprentissage profond 
L’ère des données
Traitement des données avec Python 

Module 2 : Défis liés à l’apprentissage automatique 

Concepts principaux d’apprentissage automatique
Applications ML 
Travailler avec des données réelles : pré-traitement et préparation des données
Le défi de l’apprentissage : surafistage et sous-entréfait
Défi qualité du modèle : test et validation 

Module 3 : Réseaux neuronaux artificiels et apprentissage profond

Neurones artificiels et biologiques
Apprentissage profond 
Applications d’apprentissage en profondeur

Module 4 : Cadres Tensorflow, Keras et DL 

Tensorflow (tensorflow)
Vue d’ensemble des bibliothèques et des cadres DL
Dur

Module 5 : Modèles d’apprentissage profond 

Cnn
RNN (en anglais)
Modèles d’apprentissage profond présentés 

Module 6: ANN avec Keras

ANN architecture et modèle d’apprentissage
Mise en œuvre de MLP-BP avec keras
Formation du réseau neuronal
Modèle fin-réglage : optimisation des hyperparamètres

Module 7 : Sujets de formation avancée 

Gestion optimisée avec Hard
Utilisation de couches préentraînées avec Keras
Personnalisation de modèles avec Tensorflow
Accélération de la formation GPU

Module 8 : Préparation des données avec Tensorflow

L’API données
Pré- fonctionnalitésd’entrée de traitement
TF Transformer

Module 9 : Vision par ordinateur et traitement de l’image

Couches de convolution
Mutualisation 
Architectures CNN
D’ALEXNET à Inception 

Module 10 : Traitement du langage naturel NLP avec RNN

NLP applications
Préparation des données
Analyse des sentiments
Autres modèles RNN : Bidirectionnel, basé sur l’attention.

Module 11 : Déploiement du modèle TensorFlow

Sauver le modèle prédictif formé
Déploiement de modèles
Déploiement d’appareils mobiles

Réf. : DNDAFP17
Durée : 5 jours
Tarif : 2500,00 

Deep learning pour Cyber security

Objectifs :

Comprendre les défis de la cyber sécurité
Comprendre la contribution de l’IA à la prévention et à la détection des menaces
Comprendre comment l’IA peut  être utilisée par les pirates
Sélectionnez des modèles d’apprentissage profond appropiate pour chaque zone de cybersécurité

Outils à maîtriser :

Tshark /  Wirerequin
Tensorflow (tensorflow)
Dur
Git
Python 3 Python 3 Python 3 Python
Repères CTU-13

Module 1 : Introduction

L’ère des données
Cyber- menacesàla  sécurité
Méthodologies KDD et  CRISP-DM
Importance de la préparation des données 

Module 2: Artificial intelligence,  Machine learning & deep learning

Intelligence artificielle et machine learning
Apprentissage supervisé vs apprentissagenon supervisé 
Réseaux neuronaux artificiels (ANN)  et apprentissage deep  (DL)
Application I: modèle prédictif basé sur lemodèle o nML
Application II: modèle prédictif basé sur ANN
Évaluation des modèles 
Modèles d’apprentissage profond 
Transfert d’apprentissage 

Module 3 : Défis en matière  de cybersécurité  

Introduction
Trafic crypté  Défis  récents
Malware proliferation
Logiciels de sécurité/ mises à  jour du firmware  

Module 4: IDS / IPS en utilisant l’apprentissage  deep

Introduction
IDS vs pare-feu
IDS vs IPS
Modèles de penchement de machine pour la détection d’intrusion
Modèles d’apprentissage profond pour la détection intrusion
L’apprentissage par ensemble comme alternative aux modèles d’apprentissage profond

Module 5 : Applications d’apprentissage profond fou cybersécurité

Renseignements sur les menaces 
Vidéosurveillance   intelligente  : IVS
Détection des anomalies

LAB : Atténuation  de la DGA  

Problème de la DGA
Ensembles de données 1M
Signatures de construction
Prétraitement des données
Conception du modèle
Formation du  modèle
Tester le modèle
Comment déployer le model?
Comment mettre à jour le modèle.

Module 6 : Application d’apprentissage profondpour trafic crypté

TLS et https
Poignée de main TLS 
Approches basées sur les  fonctionnalités
Approches métriques  
Approches basées sur le  flux
Classification de la circulation et empreintes digitales 

Module 7  : Modèles accusatoires génératifs:  GANs

Introduction
Composants d’apprentissage  profond   GAN
GAN avantages
Comment les GANs  peuvent-ils être used pour générer des attaques?
Comment atténuer généré unttacks? L’apprentissage profond à la rescousse!

Module 8  :  Comment intégrer un modèle d’apprentissage profond dans une pile de cybersecurity?

ETL et pipelines de données 
Siem
API   comme  emballage
Heuristics et  notation  approdouleurs

Réf. : DNDAFP19
Durée : 3 jours
Tarif : 1500,00 

DevOps Foundation (DOI)

Objectifs :

Appréhender les objectifs et le vocabulaire DevOps
Découvrir les avantages de DevOps pour l’entreprise
Découvrir les concepts et pratiques DevOps (y compris sa relation avec Agile, Lean et IT Service Management – ITSM)
Découvrir les Workflows améliorés
Appréhender la communication et les boucles de rétroaction améliorées
Découvrir l’automatisation et ses dépendances
Appliquer DevOps dans un environnement d’entreprise
Comprendre les facteurs de succès et les indicateurs clés de performance
Aborder des exemples réels et comprendre les résultats


Introduction

DevOps et les autres méthodes
DevOps et l’automatisation
Besoins et importance de l’examen

Pourquoi DevOps ?

Perspective Business
Perspective IT
Les stéréotypes Dev et Ops : Perceptions et réalités

Qu’est-ce que DevOps ?

Présentation de DevOps
Objectifs de DevOps
DevOps : Valeur pour l’entreprise
Résultats démontrés
DevOps dans l’entreprise

Les principes de DevOps

DevOps et les autres méthodes

DevOps et Agile
DevOps et Lean
DevOps et la gestion des services IT (ITSM)

Culture DevOps

Caractéristiques de la culture DevOps

Considérations organisationnelles pour DevOps

Intervenants DevOps
Rôles DevOps
Les équipes DevOps

Les pratiques DevOps

Amélioration continue
Théorie des Contraintes
Les 3 voies DevOps
Agile et les méthodes Lean
Pratiques ITSM

DevOps et l’automatisation

Pratiques d’automatisation DevOps
Catégories d’outils DevOps
La chaîne d’outils DevOps

Adopter une culture DevOps

Mise en route
Défis, risques et facteurs clés de réussite
Mesurer le succès de DevOps

Sources d’information additionnelles

Sujets d’examen
Exemples d’examen

Réf. : DNDAFP18
Durée : 2 jours
Tarif : 1000,00 

Encrypted Traffic Analytics (ETA)

Objectifs :

Maîtriser les techniques d’acquisition de trafic réseau 
Analyse des sessions de poignée de main TLS 
Comprendre l’heuristique de la détection des logiciels malveillants
Maître enquête sur le trafic crypté

Outils à maîtriser :

Tshark /  Wirerequin.
Pile DE WAP
Git
Langage de programmation  Python

Module 1 : Introduction

Défis en matière de cybersécurité
Les pare-feu peuvent-ils vraiment protéger les actifs de l’entreprise ?
IDS peut-il vraiment prévenir l’intrusion ?
Comment le trafic crypté peut-il devenir une menace ?
BASES HTTPS et TLS 

Module 2 : Acquisition de trafic

Introduction : Fichiers Pcap 
Application I : Acquisition de trafic avec wireshark
Acquisition de trafic avec un IDS
Application II : Acquisition de trafic avec un outil de ligne de commande : tshark
Comment automatiser l’acquisition de trafic ?
Options d’acquisition de trafic

Module 3 : Exploration du trafic réseau

Exploration visuelle avec Wireshark
Filtrer le trafic avec des options de tshark
Application I : générer des adresses IP hôte/destination
Application II : extraction d’urls visitées à partir d’un fichiers pcap donnés.

Module 4 : Extraction des fonctionnalités 

Filtrage avec des attributs spécifiques
Générer des données tabulaires à partir d’un fichier pcap
Application I : Exportation d’attributs dans des formats json
Application II : Exploration de données avec python
Générer des attributs de télémétrie réseau.
Automatisation de la génération de télémétrie réseau

Module 5 : Télémétrie du trafic réseau avec ELK

Introduction : Pile ELK
Pcapbeat a généré des données 
Tableaux de bord Packetbeat
Tous les battements de fichiers
Modules IDS filebeats 

Module 6 : Analyse du trafic crypté

Flux Https
Filtrage des sessions TLS 
Analyse des certificats TLS
Analyse de la poignée de main TLS
Cryptage et combinaisons chiffrés

Module 7 : Détection des logiciels malveillants

Botnets – C&C : Modus-operandi
Torjans financiers en vedette.

Module 8 : Intelligence de menace dans le trafic crypté 

Principaux facteurs à prendre en considération
Modèles communs I: JA3/ JA3S 
Modèles communs II: DGA 
Modèles communs III: 1M
Application : géo mapping des adresses IP
Aller au-delà : approches basées sur l’heuristique

Module 9 : Sujets avancés 

Apprentissage profond pour le trafic crypté 
Classification du trafic crypté et empreintes digitales 
Modèles génératifs et auto-codeurs

Réf. : DNDAFP21
Durée : 5 jours
Tarif : 2500,00 

Formation Security by Design

Introduction à la sécurité des systèmes d’information
  • Le contexte
  • Une étude de cas
  • Un quizz
 Principes de sécurité des systèmes d’information
  • Des architectures sécurisées
  • Une administration sécurisée des SI
  • La sécurité de l’infrastructure
  • La sécurisation des développements logiciels et applicatifs :
  • DevSecOps, SDLC, OWASP, CWE, etc.
  • Les fondamentaux de la cryptographie
Sécurité des systèmes d’information et projet informatique
  • Pourquoi intégrer la sécurité dans vos projets ?
  • Les rôles et les responsabilités SSI dans les projets
  • Les étapes SSI dans les projets : approche Agile intégrée, ISO 27034, etc.
  • Quelques aspects juridiques et règlementaires : NIS, LPM, RGPD, etc.
  • La maîtrise des risques : EBIOS RM, MEHARI, etc.
  • Une étude de cas
  • Une sous-traitance maîtrisée : maintien en conditions opérationnelles et de sécurité (MCO-MCS), plan d’assurance sécurité (PAS), référentiel Cloud, etc.
  • La documentation SSI
  • Les audits de sécurité : infrastructure et applications
  Evaluation et fin de session
  • Validation des acquis via QCM et mise en simulation
Autres formations complémentaires

Réf. : DNDASECUBYDESIGN
Durée : 2 Jours
Tarif : 1380,00 

Introduction au cloud computing

Objectifs :

Connaître les différents types de Cloud
Identifier les technologies concernées par le Cloud
Anticiper les impacts directs et indirects du Cloud sur l’entreprise et son système d’informations
Comprendre comment mener un projet de Cloud Computing

DÉFINITION OPÉRATIONNELLE DU CLOUD

Concept et approche innovante des usages de l’informatique
Cinq apports essentiels qui font le succès du Cloud
Quatre technologies fondamentales des plates-formes Cloud, définies par le NIST
Classification générique des Clouds : IaaS, PaaS, SaaS, PBaaS, XXaaS
Déploiement du Cloud : public, privé, hybride, virtuel, communautaire
Définitions opérationnelles des Cloud selon leurs usages : moteurs d’application (SaaS), d’externalisation d’infrastructures (IaaS), de développement d’applications (PaaS), d’infogérance, de « managed services »
Exemple de plates-formes de chaque type

TECHNOLOGIES DE RÉFÉRENCE DES PLATES-FORMES DE CLOUD

Deux composants essentiels du Cloud : Openstack et Cloud Foundry
Technologies de l’OpenStack : 6 composants principaux (Glance, Nova, Cinder, Neutron …) et le socle de l’écosystème (Heat, Sahara, Horizon …)
Technologies du Cloud Foundry et ses composants logiciels pour le développement et le déploiement des applications (IaaC, Devops, Docker …)
Conception d’une plate-forme générique de Cloud à partir des composants techniques de l’écosystème
Architecture opérationnelle de bout en bout d’un Cloud

NIVEAU DE PERFORMANCE D’UNE PLATE-FORME CLOUD IAAS

Infrastructure virtuelle pour déployer le système informatique des entreprises
Architecture de stockage et de traitement distribués pour déployer le Big Data
Solutions complètes pour déployer l’Internet des Objets (télémétrie, IoT, M2M…)
Architecture pour le déploiement de la Blockchain
Dispositifs pour exploiter l’Intelligence artificielle et la Machine Learning
Métrique de management : qualité d’usage, respect des standards, risques …

NIVEAU DE SÉCURITÉ D’UNE PLATE-FORME CLOUD IAAS

Sécurité conventionnelle recommandées par le CSA (Cloud Sécurité Alliance) : Firewall, NGFW, IDS/IPS …
Sécurité opérationnelle et architecturale du Cloud
Solutions techniques de sécurité de base pour protéger les données, éviter l’escalade de privilège dans le cadre de la virtualisation, d’intégrité des applications …
Solutions faisant appel aux Software Defined Security, Self Healing, IA et Machine Learning

PLATES-FORMES MAJEURES CLOUD PUBLIC DU MARCHÉ

Amazon Web Services
Google Cloud Platform
IBM Bluemix
Microsoft Azure
Particularité et différence de chaque plate-forme
Positionnement concurrentiel

MIGRATION DES APPLICATIONS DANS LE CLOUD PUBLIC : RETOUR D’EXPÉRIENCE

Validation des apports réels
Facteurs clés de succès
Causes d’échec et risques
Questions à se poser avant le déploiement pour valider la démarche, les risques, la sécurité et la confidentialité
Détermination du SLA et PLA
Référentiels et normes sur lesquels s’appuyer pour la migration
Exemple de cas de migration

IMPACT ET GRANDES TENDANCES

Cloud, la partie virtuelle des solutions et équipements
Impacts sur les compétences des équipes informatiques et sur l’organisation de la DSI
Opportunités pour bâtir des activités nouvelles

Réf. : DNDAFP23
Durée : 2 jours
Tarif : 1000,00 

Les outils DevOps

Objectifs :

Présentation des principes de DevOps
Comprendre les enjeux de la mise en place d’une meilleure collaboration entre les équipes projet.
Comprendre les enjeux de l’automatisation de la chaine de fabrication d’un logiciel.
Connaître les principes, les bonnes pratiques et les outils adaptés à la mise en place des processus tels que :
Continuous Business Planning
Collaborative Development (Continuous Integration)
Continuous Testing
Continuous Release and Deployement (Continuous Delivery)
Continuous Monitoring
Continuous Customer Feedback and Optimisation
Connaître les principales étapes de l’implémentation de DevOps dans une entreprise

Introduction

Historique de DevOps
C’est Quoi DevOps aujourd’hui ?
Pourquoi DevOps

Vue d’ensemble de DevOps

DevOps, Lean et l’agilité
Positionnement de DevOps dans le SI

Les processus et les bonnes pratiques

Continuous Business Planning
Collaborative Development (Continuous Integration)
Continuous Testing
Continuous Release and Deployement (Continuous Delivery)
Continuous Monitoring
Continuous Customer Feedback and Optimisation

Comparatifs des principaux outils adaptés aux processus dans l’écosystème DevOps

Schéma / workflow DevOps
Intégration Continue (Build/deploy)
Jenkins
Travis
GoCD
PHPCI
Continuum
Provisioning, configuration
Ansible
Chef
Puppet
Salt
CaaS/ Container
Kubernetes
Docker /Docker UCP
RKT
Gestion de version
Bitbucket
Github
Monitoring
Nagios
Zabbix
Outils de test
Selenium
Fitnesse
Cucumber

Outils spécifiques aux technologies

Démo d’utilisation des outils DevOps.

Démonstration des scénarii de livraison continue utilisant plusieurs des outils listés ci-dessus
Déploiement continu d’une application Java selon différents scénarii
Envoi et affichage des métriques d’une application ou d’un serveur sur ELK  

Scénarios d’Implémentation de DevOps dans une entreprise

Les trois piliers de l’implémentation réussie :
Les ressources humaines
Les outils
La méthodologie
Construire une équipe mixte et transversale
Fixer les objectifs
Définir les tâches et les fonctions
Accompagner le changement culturel
Améliorer la communication inter-équipe
Célébration des success stories
Utiliser des solutions d’industrialisation des processus
Automatiser tout ce qui peut l’être
S’appuyer sur les logiciels libres
Développer rapidement et piloter les évolutions
Travailler en mode agile
Commencer par un projet de petite taille avant de généraliser (minimiser les risques)
Amélioration Continue par l’apprentissage
Feed-back rapide des utilisateurs

Conclusion et perspectives

Appendices

Réf. : DNDAFP11
Durée : 2 jours
Tarif : 1000,00 

Machine learning avec scikit-learn

Objectifs :

Maîtriser les principaux concepts du machine learning
Mettre en œuvre des modèles prédictifs avec l’apprentissage automatique
Préparez des données avec Pandas et scikit-learn
Comprendre les applications du machine learning

Outils à maîtriser:

Python
Bloc-notes Jupyter
Collaboration Google
Anaconda

Module 1: Introduction

Apprentissage automatique et IA
L’ère des données
Gestion des données avec Python et Scala
Langage de programmation Python

Module 2: Apprentissage automatique

Comment la machine peut-elle apprendre?
Apprentissage supervisé vs non supervisé
Applications d’apprentissage automatique en entreprise; e-commerce, trading, analyse prédictive
Application scientifique du ML: bioinformatique, métrologie, vision par ordinateur, robotique
ML en cybersécurité

Module 3: Python – Jupyter IDE

L’IDE interactif
Exécution de notebooks avec jupyter
Collaboration Google
Enquête sur les bases de la programmation python

Module 4: Préparation des données avec Pandas et Scikit-learn

Les données disponibles nécessitent-elles un prétraitement?
Préparation des données avec Pandas
Préparation des données avec scikit learn

Module 5: Apprentissage supervisé avec scikit-learn

Apprentissage supervisé: les fondamentaux
Classification vs régression
Ensembles de formation et de test
Arbres de décision: CART
Support des machines vectorielles: SVM
Réseaux de neurones artificiels
Métriques de validation du modèle
Matrice de confusion

Module 6: Apprentissage non supervisé avec scikit- learn

Clustering: les concepts
Algorithmes de clustering
Application de clustering en entreprise
Algorithme K-means
Optimisation du nombre de clusters: méthode Elbow
Méthode Silhouette
Visualisation des clusters

Module 7: Concepts avancés de Machine Learning

Apprentissage d’ensemble
Modèles d’apprentissage d’ensemble
Forêts aléatoires
Sélection des fonctionnalités: optimisation du modèle
Détection d’anomalies avec SVM
Sérialisation des modèles formés

Module 8: Algorithmes de recommandation

Recommandation en entreprise
Filtrage basé sur le contenu
Filtrage collaboratif
Défi Netflix 1 M $

Module 9: Traitement du langage naturel NLP

Techniques et applications NLP.
NLTK
Spacy
Préparation des données: TF-IDF
Analyse des sentiments

Réf. : DNDAFP24
Durée : 5 jours
Tarif : 2500,00 

Nous contacter

Nouvelles formations

Dernières actualités

Services de cybersécurité

Nous suivre