CYBERSECURITE

Nos formation en Cybersécurité des systéme SI ,réalisable en presentielle ou distanciel sur les thematiques de  Gouvernance ,Pentest ,Forensic ,Norme ISO 27001 Nos formation cible les ingénieurs SI , les auditeurs cybersécurité, RSSI , SI souhaitant devenir des experts metiers ou améliorer leurs compétences techniques dans les domaines suivants : RGPD ,Pentest – Forensic -Norme ISO 27001- BigData- Devops .

Découvrez nos calendriers de formation  pour chacune des catégories pour les prochain mois .

Advanced Administration & Performance Management 5.15

Préalable :

Cette formation décrit en détail comment utiliser les services Acropolis comme
Nutanix Volumes, Files et Objects.
Le cours explique comment définir, maintenir et sécuriser les workloads et
applications en utilisant Calm et Flow, comprenant l’automatisation de
l’application de la gestion du cycle de vie (LCM) et comment intégrer et
configurer le Self Service Portal Nutanix. 

Objectifs :

• Surveiller les performances du Datacenter et maintenir les composants pour optimiser les performances systèmes

• Implémenter les solutions avancées de continuité de services et de protection des données au sein d’un datacenter Nutanix.

• Design de réseaux hautement performants permettant la prise en charge de clusters Nutanix.

• Paramétrer les fonctionnalités de sécurité Nutanix.

• Déployer l’ensemble des solutions : Files, Volumes, and Objects.

• Utiliser Prism Central pour :

o Identifier et résoudre un problème d’état de santé du cluster
o Utiliser le machine learning pour la gestion des entités et
l’amélioration des performances.
o Planifier des évolutions futures
o Gérer les composants et applications utilisés dans Calm et Life
Cycle Management (LCM)

• Pratiquer des procédures de management avancées à travers de nombreux Labs.

• Tirez le meilleur parti des systèmes Nutanix en optimisant la configuration et les opérations pour une efficacité maximale.

• Validez vos nouvelles compétences en préparant et en complétant la certification Nutanix Certified Advanced Professional (NCAP)

Contenu de Programme :

  1. Administration et configuration avancée réseau

  2. Administrer et sécuriser les clusters Nutanix

  3. Déployer et sécuriser les machines virtuelles

  4. Déployer Nutanix Volumes

  5. Implémenter Nutanix Files

  6. Configurer Nutanix Objects

  7. Implémenter la continuité de service (Data Protection)

  8. Comprendre et diagnostiquer les performances AOS 

Réf. : DNDAEN 08
Durée : 4 Jours
Tarif : 3590,00 

Aerohive Certified Mobility Administrator – ACMA

Préalable :

Après ce cours les étudiants auront les connaissances et l’expérience nécessaires pour Installer,
configurer et troubleshooter l’architecture de contrôle coopératif WLAN Aerohive. Les stagiaires vont
acquérir les notions de design et optimisation du WLAN Aerohive à travers l’administration du
HiveManager NG. L’étude de couverture Wifi et le positionnement des points d’accès sur un site cible
seront également abordés durant cette formation.

Contenu de Programme :

Section 1:

• Aerohive NG platforms
• Feedback tool
• Predictive modeling
• Device discovery and provisioning
• Object menu & guided configuration
• Create static PSK network policy
• Monitoring: Devices, clients,
• SSID profile and user profile objects
• Secure WLAN using 802.1X/EAP security
• Troubleshooting 802.1X

Section 2:

• Radio Profiles
• Device Specific Settings: APs
• Guided Config – Additional Settings
• Device Utilities, Tools and Diagnostics
• Dashboard, Reports and Health
• Device Classification
• Private Pre-Shared Key (PPSK) 

 

Réf. : DNDAEN 14
Durée : 2 jours
Prix sur demande

Analyse de Malwares – Les fondamentaux

Cette formation Forensic est orientée vers la pratique des tests d’intrusion 40 % du temps consacré à la pratique. Lors de cette formation, vous allez acquérir des connaissances généralistes sur le fonctionnement des malwares et maitriser des méthodologies d’analyse statique et dynamique.

Jour 1 matin

Section 1 – Etat de l’art
Introduction
Historique
Vecteurs d’infection
Compromission
Impacts business
Défenses classiques

Jour 1 après-midi

Section 2 – Bases système
Séquence de boot
Dissection d’un processus
Dissection d’un exécutable
Gestion de la mémoire
Techniques communes
Obfuscation, packers, encoders (évasion)

Section 2 – Environnement
Infrastructure
Bonnes pratiques et création d’un lab

Jour 2 matin

Section 3 – Outils d’analyse
Présentation des outils d’analyse
TD1 / Découverte de la suite Sysinternals (Procmon, Procexp)
Analyse statique
Analyse dynamique
Introduction à la suite FLARE Mandiant
TD 2 / Analyse d’un PDF
TD 3 / Analyse Meterpreter / Unicorn / Macros
Sandbox
VirusTotal
Cuckoo
AnyRun
TD 4 / Analyse d’une charge dans une SandBox

Jour 2 après-midi

TP 1 /  Etude de cas – Analyse d’une attaque et rédaction d’un rapport
Signatures
YARA
Création de règles
Implémentation YARA
Plateformes d’échanges
TD 5 / Signer des malwares

Jour 3 Matin

Section 4 – Analyse de dumps mémoire
Acquisition
Volatility
Processus
DLLs
Ruches
Injections
Connections
TP 2 /  Analyse de dumps mémoire

Jour 3 Après-midi

Section 5 – Introduction à l’assembleur (ia-32)
Introduction
Registres
Flags
Instructions
La pile
TD 6 /  Premiers programmes
Hello World (Write)
Boucles
Execve (/bin/sh)

Jour 4 matin 

Section 6 – Shellcoding
Introduction à GDB
Commandes utiles
Shellcode méthode stack
Shellcode méthode Jmp-Call-Pop
Les encoders
Les stagers
       
Jour 4 après-midi

TP 3 /  Création d’un encodeur XOR

Jour 5 

Où trouver des shellcodes
Encoder des shellcodes existants (Metasploit)
TP 5 /  Reverse d’une charge

Réf. : DNDAESD06
Durée : 5 jours
Tarif : 2500,00 

Analyse Inforensique avancée niv 2

Introduction à l’inforensique réseau
  • Incident de sécurité
    • Présentation
    • Quels sont les étapes d’une intrusion ?
    • Quels impacts de celles-ci ?
    • Indices de compromission (IOC)
  • Introduction au threat intel (Misp, Yeti, etc.)
    • Quels sont les outils / ressource à disposition ?
    • Création d’IOC
    • Hunting & Triage (à distance ou en local)
    • GRR, Kansa, OS Query,
  • Comment analyser et automatiser l’analyse du résultat de notre Hunting ?
    • NSRLDB
    • Packing/Entropie/, etc…
Analyse forensic post-mortem réseau
  • Analyse des journaux des principaux services réseau (DNS, HTTP, SGBD, Pare-feu, Syslog)
  • Analyse de capture réseau (PCAP)
  • Analyse statistique des flux (Netflow)
  • Canaux de communications avec les serveurs de Command and Control
  • Détection des canaux de communications cachées (ICMP, DNS)
  • Détection des techniques de reconnaissances
  • Création de signatures réseaux
Mémoire volatile
  • Introduction aux principales structures mémoires
  • Analyse des processus
    • Processus « cachés »
    • Traces d’injection de code et techniques utilisées
    • Process-Hollowing
  • Shell code – détection et analyse du fonctionnement
  • Handles
  • Communications réseaux
  • Kernel : SSDT, IDT, Memory Pool
  • Utilisation de Windbg
  • Création de mini-dump
  • Travaux pratique
    • Analyse « live » d’un système
FileSystem (NTFS only)
  • Introduction au FS NTFS et aux différents artefacts disponibles
  • Présentation de la timerules sous Windows/Linux/OSX
  • Timeline filesystemTim
  • Testomping + toutes les opérations pouvant entravers une timeline « only fs« 
Trace d’exécution et mouvement latéraux
  • Trace de persistances
  • Autostart (Linux/Windows/OSX)
  • Services
    • Tâches planifiées
    • WMI
  • Travaux Pratique investigation forensic 
    • Active Directory – Détecter une compromission
    • Comment générer une timeline des objets AD ?
    • Recherche de « backdoor » dans un AD (bta, autres outils, …)
    • Présentation des principaux EventID et relations avec les outils d’attaques (golden ticket, etc.)
Super-Timeline
  • Présentation
  • Cas d’utilisations
    • Timesketch 
Evaluation
  • Via QCM et apport des correctifs

Autre formation complementaires 
Réf. : DNDA FORENSIC 2
Durée : 5 Jours
Tarif : 3600,00 

Analyse Inforensique Windows

L’analyse inforensique est l’investigation et la qualification poussée des cyberattaques. Elle permet de comprendre les sources de l’attaque afin de vous aider à sortir de cette crise et vous prémunir d’un nouvel épisode d’incident similaire.

  • Pour exemple l’analyse post-mortem, est la collecte de toutes les données potentiellement liées à l’attaque (journaux d’évènement systèmes, journaux d’évènements d’applications, etc)

Contenu de programme  :

Introduction à l ‘analyse Inforensique
  • Présentation de l’inforensique
  • Périmètre de l’investigation
  • Trousse à outil
  • Methodologie « First Responder »
  • Analyse Post-mortem
    • Disques durs
    • Introduction aux systèmes de fichiers, Horodatages des fichiers
    • Acquisition des données : Persistante et volatile
    • Gestion des supports chiffrés
    • Recherche de données supprimées
    • Sauvegardes et Volume Shadow Copies
    • Aléas du stockage flash
    • Registres Windows
  • Les structures de registres Windows
    • Utilisateurs, Systèmes
    • Analyse des journaux
    • Évènements / antivirus / autres logiciels
Scénario d’investigation
  • Téléchargement/Accès à des contenus confidentiels
  • Exécution de programmes
  • Traces de manipulation de fichiers et de dossiers
    • Fichiers supprimés et espace non alloué
    • Carving, Géolocalisation, Photographies (données Exifs)
    • Points d’accès WiFi
    • HTML5
    • Exfiltration d’informations
    • Périphérique USB, Courriels, Journaux SMTP
    • Acquisition coté serveur
    • Analyse client messagerie
    • Utilisateurs abusés par des logiciels malveillant
Interaction sur Internet
  • Utilisation des Navigateurs Internet
  • IE/Edge / Firefox
  • Office 365
  • SharePoint
  • Traces sur les AD Windows
  • Présentation des principaux artefacts
  • Bases de l’analyse de la RAM
    • Conversion des hyberfiles.sys, Bases Volatility/Rekall
    • Extraction des clés de chiffrement
Inforensique Linux
  • Les bases de l’inforensique sur un poste de travail Linux »
  • Les bases de l’inforensique sur un serveur Linux
    • Journaux serveurs Web & Corrélations avec le système de gestion de fichiers
    • Création et analyse d’une frise chronologique du système de fichier
Travaux pratique et vue d’ensemble
  • Création et analyse d’une frise chronologique enrichie d’artefacts
  • Exemple d’outil d’interrogation de gros volume de données
Evaluation
  • Via QCM
  • Examen de certification en option
Autres formations complémentaires

Réf. : DNDAFORENSIC1
Durée : 5 Jours
Tarif : 3900,00 

Apprentissage profond avancé

Objectifs :

Maîtriser la vision informatique principale Modèles d’apprentissage profond 
Comprendre le potentiel des modèles génératifs
Soyez au courant des applications des RGA
Maîtriser l’application commune de la vision par ordinateur 


Outils à maîtriser :

Tensorflow (tensorflow)
Dur
Git
Python 
Collaborer

Module 1 : Introduction

M.L. et apprentissage supervisé
Réseaux neuronaux artificiels
Apprentissage profond 

Module 2 : L’apprentissage profond comprenait des modèles 

Introduction
Cnn
RNN (en anglais)
Auto-encodeurs
Modèles DL alternatifs?

Module 3 : Vision par ordinateur

Vidéosurveillance intelligente: IVS 
Applications CV en entreprise
Analyse de la vision par ordinateur

Module 4 : Classification de l’image

Cnn
Circonvolutions
Application I : Classification des chiffres MINST

Module 5 : Architectures CNN 

AlexNet AlexNet
VGGNET ( VGGNET )
Création
Resnet (Resnet)

Module 6 : Détection d’objets

Introduction
R-CNN
Ssd
YOLO 3,4 et 5

Module 7 : Introduction des modèles génératifs

Principaux concepts
Modèles d’IA de prochaine génération
Certaines applications

Module 8: Auto-encodeurs

Le modèle
Apprentissage non supervisé
Utilisation d’auto-codeurs

Module 9 : RGA

Introduction
Composants GAN 
Entraînement accusatoire
Fonctions de coût 
Processus de formation
Application: Numéro manuscrit généré par un ordinateur!

Module 10 : Applications GANs

Modèles génératifs en médecine
Modèles génératifs à la mode
GANs dans la cybersécurité

Réf. : DNDAFP12
Durée : 3 jours
Tarif : 1500,00 

Architecture des systèmes d’information décisionnels

Objectifs :

Comprendre les enjeux et les techniques mises en œuvre dans le décisionnel
Définir les étapes clés d’un projet Datawarehouse
Identifier les familles d’outils de la Business Intelligence et du Data Analyst
Etudes de cas et présentation d’outils

La problématique de l’entreprise

Le système d’information
La mondialisation des échanges
Le rôle de la business intelligence au sein du système d’information
Data Analye VS business intelligence

Trajectoire historique du stockage des données

Infocentre
Infocentre – Ensemble de données
Datawarehouse
Orientation sujet (Datawarehouse, Datamart)
Des données intégrées, historisées, non volatiles
Le BigData

Les composants d’un projet décisionnel

Les hommes
Environnement humain Une démarche projet Les critères de réussite Le projet technique
Etude de l’existant
Les modèles de données Les ETL
Les SGBD / NOSQL
La ruée vers l’or du Big Data Les outils de restitution
Architecture technique

La modélisation du décisionnel

Les tables de faits
Les tables de dimensions Les tables d’agrégats

Métrologie

Volumétrie Le temps
BI > ESSENTIELS
 
Etude de cas

Réalisation d’un modèle en étoile
Les modèles en étoiles multiples et en flocon
Calcul des estimations de volumes

Présentation d’outils

La famille des ETL
Les outils de reporting et d’analyse

Conclusion

Réf. : DNDAFP03
Durée : 2 jours
Tarif : 1000,00 

Architecture et technologies

Objectifs :

Découvrir les concepts clés du Big Data
Comprendre l’écosystème technologique d’un projet Big Data
Apprendre à mettre en œuvre une solution Big Data
Avoir une vue d’ensemble sur les possibilités du Big

Comprendre les concepts clés et les enjeux du Big Data

Les origines du Big Data
La valeur de la donnée : un changement d’importance.
La donnée en tant que matière première Les chiffres clés du marché dans le monde et en France.
Les enjeux du Big Data : ROI, organisation, confidentialité des données.

Technologies du Big Data

Architecture et composants de la plateforme Hadoop
Les modes de stockage (NoSQL, HDFS) Fonctionnement de MapReduce et Yarn Principales distributions Hadoop
Les technologies émergentes : Spark, Storm, Machine Learning
Démarche d’installation d’une plateforme Hadoop
Présentation des technologies spécifiques pour le Big Data

Traitement des données Big Data

Fonctionnement de Hadoop Distributed File System (HDFS)
Importer des données vers HDFS Traitement des données avec PIG Requêtes SQL avec HIVE
Création de flux de données massives avec un ETL

Data Vizualisation, représenter des données de façon visuelle

Principales solutions du marché Aller au-delà des rapports statiques
La Data Visualisation et l’art de raconter des chiffres de manière créative et ludique
Cas pratiques : mesurer l’e-réputation, la notoriété d’une marque, l’expérience et la satisfaction clients

Conclusions

Les conditions du succès
Synthèse des meilleures pratiques
Bibliographie

Réf. : DNDAFP02
Durée : 2 jours
Tarif : 1000,00 

Auditeur Interne ISO 27001

Les exigeances de la normes 

  • Rappels sur l’ISO/CEI 27001
  • Les points clés du processus d’audit
    • Objectifs
    • Différentes phases
    • Les bonnes pratiques du déroulé

Les étapes clés  Sur la base d’étude de cas 

  • Préparer l’audit
    • Elaboration d’un plan d’audit
    • Questionnaire d’audit
    • Référentiel utilisé
  • Réaliser l’audit
    •  Animer la réunion d’audit (ouverture, clôture )
    • Conduire l’entretien d’audit dans le respect d’un temps imparti
    • Les techniques de la communication en audit
    • La collecte des données et des points de contrôle
    • Détection et mise en évidence des écarts par rapport au référentiel
    • Analyser les écarts
  •  Conclure l’audit
    • Rédiger le rapport d’audit
    • Etablir le plan d’action correctif
    • Apport des correctifs
    • Clôture de l’audit

Evaluation des acquis

    • Via QCM
    • Débriefing apport des correctifs,

Autre modules sur la norme Iso 27001 

 

Réf. : DNDA AIS27
Durée : 3 jours
Tarif : 1890,00 

Automatisation du test avec Selenuim

Objectifs :

Savoir configurer et mettre en place un environnement de test automatisé avec Selenuim
Savoir créer des scenarios pour le test des interfaces web.
Savoir créer, modifier et exporter des scenarios de tests
Comprendre l’intégration des tests d’interface dans les serveurs d’intégration continue

Introduction

Processus et qualité
Retour sur les tests fonctionnels des applications Web
Différents niveaux de test : test unitaire, test d’intégration, test fonctionnel et test de charge
La problématique du test des IHM Web, positionnement de Selenium

Automatisation – Assimilez les concepts

Pourquoi automatiser ?
Bénéfices et limites de l’automatisation
Choisir les tests à automatiser

Présentation de Selenium 3

Le projet Selenium, historique et enjeux
Navigateurs supportés
Présentation des commandes
Architecture de la suite d’outils Selenium 3

Selenium IDE

Capture et enregistrement de scénario avec Selenium IDE
Structure et éléments de script
Analyser et modifier un script généré
Création manuelle de script
Création de suite de tests
Méthodes   de   localisation   :   ID,   Name, ClassName, Link Text…
Identifier des objets avec CSS Selector
Génération du XPath

Selenium  Webdriver –l’utilisation des interfaces de programmation applicative (API)

Présentation générale de l’API Webdriver
Les drivers (proxy) pour les différents navigateurs (Internet Explorer, Firefox, Chrome, Android et HtmlUnit)
Pilotage des tests multi-navigateurs avec Webdriver
Trouver les éléments du DOM Remote Webdriver
Faire des captures d’ecrans automatique
Exporter des tests depuis Selenuim IDE

Selenium Grid

Architecture
Installation et configuration des différents composants
Création d’un test pour le Grid
Exécution parallélisée de tests
Les différentes options
Gestion des environnements

Concepts avancés

Présentation du concept d’intégration continue avec Selenium
Démarche de spécification
Extension de l’API Selenium IDE

Réf. : DNDAFP14
Durée : 2 jours
Tarif : 1000,00 

Consultant DevOps : Docker et Kubernetes

Objectifs :

Introduire les nouvelles architectures logicielles reposant sur la technologie de virtualisation des conteneurs Docker
Maitriser Docker et virtualiser des applications à travers des workshop pratiques
Savoir configurer, approvisionner et administrer une Container-based Infrastructure par le code d’une manière automatisée
Acquérir les fondamentaux sur Kubernetes : installation, administration, utilisation des différents composants et déploiement des applications
Acquérir des connaissances et des compétences de base sur les stratégies de déploiement des applications conteneurisées en production

PARTIE 1 – LES FONDAMENTAUX DOCKER Introduction

DOCKER Introduction

Les différentes formes de virtualisation
La virtualisation par conteneur
Présentation de l’écosystème Docker
Docker et ses concurrents
TP : installation de Docker

Manipulation des images

Comment récupérer des images Docker officielles
Docker Registry (Docker Hub et Docker Store)
Filtrer parmi les images disponibles
Gérer les images
Dockerfile
TP : Installation des images officielles et fabrication des images personnalisées contenant instructions et configurations avancées

Manipulation des conteneurs

Création de conteneurs
Gestion interactive des conteneurs
Gestion des conteneurs en tant que daemon
Identifier l’environnement d’un conteneur
TP : Création d’un conteneur basé sur une image prédéfinie et le mettre à jour

Les conteneurs

Docker et les réseaux
Le port forwarding (PAT)
Composition des conteneurs
Utiliser les volumes pour la persistance ou la mutualisation des données.
Multi-conteneurs avec Docker Compose
TP : Mise en place d’un portail WordPress à partir de 2
conteneurs: Mysql et WordPress
TP : Mise en place d’une application Web MEAN Stack
à partir de 2 conteneurs: NodeJS et MongoDB

PARTIE 2 – ORCHESTRATION DES CONTENEURS

Orchestration des conteneurs : Présentation et enjeux

Cluster Docker vs Cluster Classique (Virtualisation)
Solutions d’orchestration open-source et leurs différences
Container as a Service (CaaS) dans le Cloud
Docker Data Center
Docker Machine

Docker Swarm

Présentation et Architecture de Swarm
Manipulation des Stacks, services et réplication
Scaling
Administration d’un cluster Swarm avec
Portainer Web Console.
TP : Création d’une Container-based Infrastructure avec Docker Machine (Déploiement en local avec le driver Virtual Box, sur un Cloud Privé Openstack et sur un Cloud Public Amazon AWS).
TP : Mise en place d’un cluster Swarm avec Docker Machine

Kubernetes

Présentation et Architecture de k8s
Composants clés (ETCD, Scheduler, Serveur API, Controler Manager, Kublet)
Gestion des réseaux (kubenet, CNI providers)
Modes de déploiement (All in One et Multi-node)
Outils d’administration (Kubectl, Remote CLI)
Les ressources (Pods, Namespaces, Services, Deployments, Replication Manager, ConfigMaps,, Secrets, etc)
Gestion des volumes (Volumes Persistant, Claims, Volumes Providers)
Sondes Liveness et Readiness
Scaling et Auto-scaling
Exposition publique et Routing des applications (Ingress, Reverse-Proxy).
TP : Mise en place de Kubernetes avec Vagrant et Ansible (1 Master et 3 Nodes)
TP : Gestion des volumes
TP : Déploiement d’une application statefull
TP : Administration Kubernetes (Kubectl)
TP : LoadBalencer avec Ingress
TP : Pods, Labels, Selectors et Namespaces
TP : Replica, Deployments et Services
TP : Strategies de déploiements update, Blue/Green et A/B Testing)

Réf. : DNDAFP20
Durée : 7 jours
Tarif : 3500,00 

Consultant DevOps : Infrastructure par le Code : Puppet, Ansible, Terraform, Vagrant

Objectifs :

Appréhender l’organisation d’Ansible et de Puppet
Savoir utiliser et créer des playbooks et des modules pour gérer une infrastructure.
Coder une infrastructure avec Terraform et Vagrant.
Appréhender les différents outils Infrastructure par le code avec leurs spécificités

PARTIE 1 – OUTILS DE CREATION ET GESTION DES ENVIRONNEMENTS VIRTUELS PAR LE CODE

Terraform

Retour sur les types d’infrastructure
Terraform : présentation,architectures et  fonctionnalités
Gestion de multi-providers (Cloud, Hyperviseur)
Gestion d’une infrastructure : création, modification
Utiliser l’interface en lignes de commande (CLI)

Vagrant

Installation de vagrant
Gestion des plug-ins et des boxes (VirtualBox, Cloud)
VargantFile 
Les commandes de base
Cycle de vie d’une instance Vagrant
Gestion du réseau
Synchronisation des fichiers   

PARTIE 2 – OUTILS DE GESTION DES CONFIGURATIONS

Présentation Puppet

Pourquoi la gestion d’infrastructure centralisée ?
Pourquoi Puppet ?
Les différentes versions et distributions de Puppet.
Le fonctionnement général de Puppet.

Mise en œuvre

Installer un Puppet master.
Configurer un Puppet master.
Installer et configurer l’agent Puppet.

Prise en main du langage de Puppet

Les principaux types supportés par Puppet.
La syntaxe du langage.
Générer des fichiers à partir de templates.
Les relations entre ressources.
Les ressources définies.
La remontée d’informations avec Facter.

Réutilisation de modules Puppet

Pourquoi réutiliser des modules existants ?
Les modules, les classes.
Utiliser un module existant.
Pourquoi structurer son code Puppet sous forme de modules réutilisables ?
Ecrire un nouveau module.

Connecter des agents au Puppet master

L’architecture maître-agent.
L’authentification des clients.
La gestion des certificats SSL.
Planifier le lancement de l’agent.

Bonnes pratiques pour déployer et utiliser Puppet

Le formatage du code.
Utiliser la gestion de versions et l’intégrer avec Puppet.
Séparer le code générique des paramètres 
spécifiques à un système..

Présentation Ansible

Présentation et énumération des thèmes du cours.
Introduction à Ansible
Décrire la terminologie et l’architecture d’Ansible.
Déploiement d’Ansible
Installer Ansible et exécuter des commandes ad hoc.
Mise en œuvre de playbooks
Gestion des variables et des inclusions
Décrire la portée et la priorité des variables, 
Mise en œuvre du contrôle des tâches
Mise en œuvre de rôles
Créer et gérer des rôles

Ansible Tower

Mise en œuvre d’Ansible Tower
Appréhender l’interface graphique
Reporting.

Réf. : DNDAFP22
Durée : 5 jours
Tarif : 2500,00 

Consultant DevOps : Métrologie, Monitoring et Gestion des Logs

Objectifs :

Savoir installer, configurer et administrer une stack de supervision avec Prometheus et Grafana
Connaître et comprendre le fonctionnement de Prometheus et Grapfana
Être en mesure de mettre en œuvre la supervision dans un environnement hétérogène (Cloud)
Identifier les bonnes pratiques à mettre en place pour développer une application basée sur la stack ELK
Découvrir les bases de la gestion de messages avec Logstash et le stockage de données massif avec ElasticSearch
Construire des graphes représentatifs des logs avec Kibana

PARTIE 1 – Métriques, Alertes  et Monitoring

Introduction

Différents type de supervision (Infrastructures, Services et Applications)
Solutions disponible sur le marché
Définition d’une stratégie de monitoring
Pourquoi Prometheus ?
 
Administration Prometheus

Prometheus : fonctionnalités, principe de fonctionnement 
Prometheus vs autres outils de supervision
Architecture de Prometheus (Short Jobs, Job Exporter, PushGateway, Service Discovery, Kubernetes )
Stockage : présentation des données à stocker, (types/formats), stockage par double delta
Prometheus server : installation et configuration 
Langage PromQL
Jobs exporter : installation, configuration
Définition d’alertes
TP : Installation et Configuration de Prometheus
TP : Monitorer un nœud avec Node Exporter
TP : Monitorer un serveur  web avec Apache Exporter
TP : Monitorer une base de données avec MySQL Exporter

Administration Grafana

Faiblesses de l’interface de Prometheus
Grafana : présentation de l’interface web
Grafana : Sources de données et Dashboard disponibles
TP : Branchement  et Interfaçage avec Prometheus
TP : Configuration d’un dashboard
TP : Configuration du gestionnaire d’alertes
 
PARTIE 2 – Gestion des Logs

Introduction à la Stack ELK

Elasticsearch, Logstash et Kibana
Cas d’utilisation
Représentation des données dans Elasticsearch
Architecture générale et Ecosystème Elastic
Elasticsearch : une base de donnée  ou un moteur de recherche
Installation et configuration de base
Communication avec avec Elasticsearch
Structure de l’API
Stockage : présentation des données à stocker, (types/formats), Query

Récupération des Logs avec Logstash

Fonctionnement et concepts
Positionnement des Beats par rapport à Logstash
Installation et configuration de base
Filters, Inputs /Outputs, Index
TP: Mise en plase d’une stack ELK
TP : Récupérer des logs et métriques avec Logstash

Stockage des logs dans Elasticsearch

Installation, configuration de base et plugins
Le rôle et l’importance du mapping
Recherche basique
Notion d’Agrégats
TP : Stocker et rechercher les logs avec Elasticksearch

Visualisation des lofs avec Kibana

Le role de Kibana dans la stack ELK
Installation, configuration de base et plugins
Rechercher, agréger, visualiser, sauver, exporter
TP : Construire des graphes représentatifs avec Kibana

Réf. : DNDAFP26
Durée : 5 jours
Tarif : 2500,00 

Core DDI Configuration & Administration (CDCA)

Préalable :

La formation  délivre une connaissance pratique sur la manière de configurer et de gérer les équipements de
gestion des réseaux Infoblox. Les sujets suivants seront notamment couverts : La gestion des zones
DNS directes et inverses, la création de réseaux IPAM & DHCP et de zones DNS, les plages DHCP, les
adresses IP fixes. Gérer le Grid, incluant le monitoring du système et des protocoles associés. Gérer
l’authentification distante et les mises à jour du NIOS.

Implémenter des fonctionnalités NIOS avancées, notamment le DNS dynamique avec TSIG et GSS-TSIG,
la signature et la validation des zones DNSSEC, le DNS Anycast et la redondance DHCP. 

Contenu de Programme 

Réf. : DNDAEN 09
Durée : 5 jours
Tarif : 4895,00 

Cybersécurité des systèmes industriels

Introduction à la cybersécurité des systèmes industriels

  • Vocabulaire
  • Familles de SI industriels
  • Bestiaire des équipements
  • Particularismes de gestion des SI industriels

 Architectures des SI industriels

  • Architecture ISA95
  • Approches de l’ISA/IEC 62443
  • Spécificité des systèmes de sureté
  • Accès partenaires
  • Réalité du terrain

Protocoles, applications sécurisations possibles

  • Grandes familles de protocole industriels
  • Exemple de ModBus
  • Exemple d’OPC
  • Possibilité de détection et filtrage sur les flux industriels

Incidents représentatifs et évolutions

  • Principaux incidents SSI ICS publics
  • Cadre des SIV LPM
  • Industrial IOTs et le cloud industriel

Référentiels sur la sécurité des systèmes d’information industriels

  • Guides ANSSI
  • Normes IEC 62443 (ISA 99)
  •    IEC 62443-2-1
  •    IEC 62443-3-3
  • NIST SP800-82, NERC CIP, ISO 27019, etc

Sécurisation des SI industriels

  • Organisation
  • Appréciation des risques
  • Cartographie et inventaire
  • Intégration et recette de sécurité
  • Maintien en condition de sécurité
  • Surveillance

Réponse à incident sur un système industriel

  • Premières réactions
  • Détection et marqueur de compromission
  • Analyse forensique d’artefacts industriel
  • Préparer sa réponse à incident

Exercices

  • Audit technique
  •    Analyse de traces réseaux
  •    Exploitation de vulnérabilités du protocole Modbus/TCP
  • Sécurité organisationnelle et architecturale du réseau industriel
  •    Architecture sécurisée
  •    Détermination des zones et conduites
  •    Points sensibles
  •    Sécurisation d’architecture
  •    Détermination des niveaux de classification ANSSI
  •    Analyse basée sur le guide ANSSI relatif aux réseaux industriels

Réponse à incident

  •    Recherche de compromission du système sur capture réseau
  •    Analyse des projets de processus industriel
Fin de session et évaluation
  • QCM
Autres formations complementaires

Réf. : DNDASECUINDUS
Durée : 4 Jours
Tarif : 2910,00 

Data Mining & Machine Learning Python

Objectifs :

Connaître et savoir utiliser les librairies incontournables de Python pour la data science : La Scipy Stack
Connaître et utiliser les principales librairies de visualisation de données et notamment orientées cartographie
Savoir manipuler des données volumineuses ne tenant pas en mémoire
Avoir une bonne compréhension de l’écosystème scientifique de Python, savoir trouver ses librairies et juger de leur qualité

L’écosystème scientifique Python

Il n’est pas facile d’y voir clair dans l’écosystème scientifique de Python tant les librairies sont variées et nombreuses.
Cette présentation vous apportera une vue d’ensemble et les éléments clefs qui vous aideront à choisir vos librairies et outils de travail pour vos projets de data science avec Python.

Les incontournables : Numpy, Scipy, Pandas, Matplotlib et iPython qui sont le ciment de toutes les autres librairies scientifiques
Panorama des librairies et logiciels scientifiques par domaine
Les critères permettant de juger de la qualité d’une librairie
Calculer avec des nombres réels: comprendre les erreurs de calculs

Les nombres réels, dans la plupart des langages, dont Python, utilisent la norme en virgule flottante.

Celle-ci n’est pas précise et peut générer des erreurs de calcul parfois bien gênantes.

La représentation des nombres réels
Comprendre les erreurs de calculs et les contourner
La scipy stack

La librairie Numpy qui signifie Numeric Python est la première que vous devez apprendre. Elle constitue avec Scipy, Matplotlib et Pandas le socle sur lequel s’appuient toutes les autres librairies scientifiques.

Manipuler des tableaux de nombres : Numpy
Différences avec les listes Python
Création, sélection, filtres et principales fonctions -Visualiser ses données : Matplotlib
Les concepts de la librairie
Principaux graphiques : nuages de points, courbes, histogrammes, boxplot, …
Fonctionnalités avancées : 3D, légendes, colorbar, manipuler les axes, annotations, …
Analyse de données : Pandas
Les fondements de la librairie : Manipuler des données de type CSV et Excel
Séries et Dataframes
Index, sélection de données, filtres/recherche, agrégations, jointures et fonctions avancées
Manipuler des séries temporelles
Les fonctions mathématiques avancées: Scipy
Statistiques, optimisation, interpolations/régressions, traitement d’images

Visualisation de données

Bien que Matplotlib constitue la première librairie de visualisation que vous devrez
apprendre, elle possède 2 limites majeures: elle ne sait pas gérer les données volumineuses et n’est pas adaptée au Web. Mais Python a su développer un riche écosystème de visualisation de données qui devrait pouvoir répondre à toutes vos attentes.

Présentation de l’écosystème de visualisation de données de Python
Les librairies orientées Web: Bokeh, Altair et Plotly
Les « écosystèmes » PyViz et HoloViz
La visualisation de données volumineuses/big data avec DataShader
Les statistiques avec Seaborn

Visualiser des données géospatiales

Posséder des données disposant de coordonnées géospatiales apporte une toute autre dimension à leur représentation. Python est très bien outillé dans ce domaine.

Convertir ses données d’un système de coordonnées à l’autre
Cartographie interactive « à la Open Street Map/Google Maps » avec Folium/iPyleaflet
Cartographie statique avec Cartopy
Autres librairies géospatiales

Manipulation de données volumineuses

Numpy et Pandas sont 2 librairies incroyables, mais elles ont 2 limites majeures : elles ne savent pas traiter des données de très grande volumétrie qui ne tiennent pas en mémoire et ne savent pas toujours paralléliser leurs calculs.

Python a su développer des solutions.
Les librairies h5py, pytables, netcdf4, xarray, iris, parquet permettant de lire vos fichiers scientifiques
Paralléliser ses calculs avec Dask
Paralléliser ses calculs avec CuDF
Manipuler des dataframes gigantesques avec Dask

Personnalisation

Sous réserve de contraintes techniques ou de confidentialité, nous vous proposons de personnaliser la formation en réalisant des exercices directement sur vos données métiers.
Apprentissage et analyse statistique avec scikit learn & statsmodels *Revue des techniques *L’analyse discriminante *La régression logistique *Les arbres de décision *Gestion des ensembles d’apprentissage et de test *Évaluation des modèles *Introduction à l’utilisation de Spark avec Python (pyspark).

Réf. : DNDAFP15
Durée : 6 jours
Tarif : 3000,00 

Nous contacter

Nouvelles formations

Dernières actualités

Services de cybersécurité

Nous suivre