Ce repository contient l'application partage simplifié.
! La documentation est à mettre à jour
Ce projet fonctionne de manière autonome en local avec des conteneurs docker.
Pour déployer et faire fonctionner l'application sur un server dédié il faut récupérer le contenu du repository partage-simplifie-infra.
Le repository partage-simplifie-infra est lui, privé car il est utilisé pour contenir l'ensemble des données sensibles (Clés SSH, mots de passes ...) nécessaires à la mise en place de l' application, merci de suivre sa documentation dédiée pour déployer l'application.
Ce repository est organisé de la manière suivante :
|-- .github
|-- reverse_proxy
|-- app
|-- logrotate.d
|-- logrotate.conf
|-- nginx
|-- conf.d
|-- locations
|-- api.inc
|-- default.conf
|-- nginx.conf
|-- start.sh
|-- Dockerfile
|-- server
|-- assets
|-- config
|-- index.js
|-- data
|-- src
|-- tests
|-- integration
|-- ...
|-- unit
|-- ...
|-- utils
|-- ...
|-- .gitattributes
|-- .gitignore
|-- docker-compose.yml
|-- docker-compose.override.yml
/.github
va contenir l'ensemble des Github Actions./reverse_proxy
va contenir le serveur Nginx et sa configuration en tant que reverse_proxy./server
va contenir l'ensemble de l'application coté serveur, à savoir l'API Node Express./ui
va contenir l'ensemble de l'application coté front, à savoir une application React implémentant le design system de l'État (https://www.gouvernement.fr/charte/charte-graphique-les-fondamentaux/introduction) grâce à ChakraUI./docker-compose.yml
va définir la configuration des conteneurs de l'application, pour plus d'informations sur Docker cf: https://docs.docker.com//docker-compose.override.yml
va définir la configuration Docker spécifique à l'environnement local de développement.
:warning: ce fichier est ignoré lors des commits (cf .gitignore) afin d'éviter la divulgation de secrets/tokensLa gestion de la configuration se fait via bibliothèque env-var et le fichier docker-compose.override.yml
La configuration est gérée exclusivement via variables d'environnement pour des raisons de sécurité et de cohérence entre environnements.
Le module /server/config/index.js
expose un objet mappant les variables d'environnements nécessaires au fonctionnement de l'application. Il se charge également de parser les variables grâce à env-var afin de les rendre exploitable en javascript (la valeur "true" est convertie en boolean, 1234 en number etc...).
Chaque environnement possède son propre fichier d'override afin d'isoler les différentes configurations.
Pour la gestion et l'execution locale de l'application nous utilisons la bibliothèque dotenv et en local un fichier .env
à placer dans le dossier /server
.
Ce fichier est privé et n'est pas disponible dans le repository.
Un fichier .env.test
peut être placé dans le même dossier pour charger une configuration spécifique à l'exécution des tests.
Pour fonctionner ce projet a besoin des éléments dockérisés suivants :
reverse_proxy
du docker-compose_.server
du docker-compose.partage_simplifie_network
du docker-compose_.mongodb
du docker-compose.ui
du docker-compose.Le serveur nginx joue le role de reverse proxy sur le port 80.
Le serveur Web Node Express utilise le port 5000.
Dans la configuration de nginx, on fait référence au fichier /reverse_proxy/app/nginx/conf.d/locations/api.inc
qui définir la gestion de l'API Node Express.
Le base de données est une MongoDb et utilise le port par défaut 27017.
L'interface web est une application React crée à partir du cli create-react-app
(cf: https://create-react-app.dev/)
L'application implémente le design system de l'État Français https://gouvfr.atlassian.net/wiki/spaces/DB/overview?homepageId=145359476 grâce à un theme propagé par ChakraUI (https://chakra-ui.com/docs/theming/customize-theme).
Pour créer la stack et monter l'environnement il est nécessaire de disposer d'un fichier d'environnement .env à la racine du projet /server. Il est possible de créer ce fichier à partir du fichier exemple : .env.example et en remplissant les données propres à votre environnement local.
Pour créer la stack et monter l'environnement il suffit de lancer la commande suivante depuis le répertoire /server
:
yarn docker:start
Il est possible de stopper les conteneur en lancant la commande suivante depuis le répertoire /server
:
yarn docker:stop
Pour supprimer l'ensemble de la stack et tuer tous les conteneurs il suffit de lancer la commande suivante depuis le répertoire /server
:
yarn docker:clean
Aprés avoir créé la stack pour vérifier que les conteneurs sont bien présents vous pouvez lancer la commande suivante depuis le répertoire /server
:
docker exec -t -i partage_simplifie_server /bin/bash
De même pour consulter la liste des fichiers dans le docker :
docker exec partage_simplifie_server bash -c 'ls'
Le projet utilise migrate-mongo. Les migrations se trouvent dans le répertoire /server/src/migrations
Pour créer une migration :
yarn migration:create ma-nouvelle-migration
Pour jouer les migrations :
yarn migration:up
Après chaque migration réussie migrate-mongo stocke dans la collection Mongo changelog
une référence permettant de versionner le processus et ne pas rejouer à chaque fois toutes les migrations.
Les nouvelles migrations sont exécutées automatiquement à chaque déploiement.
Un linter (via ESLint) est mis en place dans le projet, pour le lancer :
yarn lint
Des tests sont mis en place en utilisant le framework Mocha.
Pour en savoir plus sur Mocha : https://mochajs.org/
Les tests sont en règle général découpés en 3 dossiers :
/server/tests/unit
contient la liste des tests unitaires./server/tests/integration
contient la liste des tests d'intégration/server/tests/utils
contient la liste des utilitaires communs de test.La structure principale du serveur Node Express est définie dans /server/src/http
et contient :
/server/src/http/server.js
Pour la gestion des logs nous utilisons la librairie bunyan cf : https://www.npmjs.com/package/bunyan
Par défaut 3 stream sont configurés :
Pour mettre en place les notifications Slack il est nécessaire d'utiliser les Webhooks et de créer une chaine dédiée dans votre espace de travail Slack.
Il vous faudra créer une application dans Slack et récupérer le lien de la Webhook, pour en savoir plus : https://api.slack.com/messaging/webhooks.
Certains modules utilitaires sont présents dans /server/src/common/utils
Un module permettant de contenir des composants "communs" et injectable dans les routes est proposé dans le fichier /server/src/common/components/components.js
Vous pouvez ajouter dans ce fichier des élements communs à réexploiter dans l'API.
Il est possible de débugger facilement le serveur Express contenu dans le Docker local sous VSCode en utilisant la configuration suivante _a placer dans le fichier /.vscode/launch.json
:
{
"version": "0.2.0",
"configurations": [
{
"type": "node",
"request": "attach",
"name": "Debug Express in docker",
"address": "127.0.0.1",
"port": 9229,
"localRoot": "${workspaceFolder}/server/src",
"remoteRoot": "/app/src",
"skipFiles": ["<node_internals>/**"]
}
]
}
Cette configuration va utiliser la commande debug
définie dans le fichier /server/package.json
:
{
"scripts": {
"debug": "nodemon --inspect=0.0.0.0 --signal SIGINT --ignore tests/ src/index.js"
}
}
Dans le repertoire /.github/workflows
sont définie les Github actions à mettre en place sur le repository.
Le workflow principal est définie dans /.github/workflows/yarn-ci.yml
et se charge à chaque push sur une branche de :
Pour executer un job, que ce soit en local ou sur un des environnement (production / recette) il est recommandé d'executer les commandes dans le conteneur docker partage_simplifie_server
.
Il est possible de supprimer les données en base de plusieurs manières :
docker exec -t -i partage_simplifie_server bash -c 'yarn clear:all'
docker exec -t -i partage_simplifie_server bash -c 'yarn clear:dossiersApprenants'
docker exec -t -i partage_simplifie_server bash -c 'yarn clear:logs'
docker exec -t -i partage_simplifie_server bash -c 'yarn clear:users'
Il est possible d'alimenter la base de donneés avec des données de réferences / test :
docker exec -t -i partage_simplifie_server bash -c 'yarn seed:users'
docker exec -t -i partage_simplifie_server bash -c 'yarn seed:sample'
docker exec -t -i partage_simplifie_server bash -c 'yarn seed:randomizedSample'
docker exec -t -i partage_simplifie_server bash -c 'yarn seed:referentielCfas'
docker exec -t -i partage_simplifie_server bash -c 'yarn siret:check-validity'
docker exec -t -i partage_simplifie_server bash -c 'yarn uai:check-validity'
docker exec -t -i partage_simplifie_server bash -c 'yarn siret:sanitize'
docker exec -t -i partage_simplifie_server bash -c 'yarn siret:retrieve-gesti'
docker exec -t -i partage_simplifie_server bash -c 'yarn siret:retrieve-ymag'
docker exec -t -i partage_simplifie_server bash -c 'yarn etablissements-location:retrieve'
docker exec -t -i partage_simplifie_server bash -c 'yarn etablissements-networks:retrieve'
Dès le premier déploiement de l'application est recommandé de suivre la procédure suivante :
Affichage des stats pour vérifier que la base de données est vide.
Seed des users défaut si pas déja fait
Run des migration 'yarn migration:up' si non fait par Ansible
Création des indexs 'yarn indexes:create' si non fait par Ansible
Lancement des jobs : 5.1 - Création du référentiel des cfas :
docker exec -ti partage_simplifie_server bash -c 'yarn seed:referentielCfas'
5.2 - Récupération des sirets depuis Gesti 'yarn siret:retrieve-gesti'
docker exec -ti partage_simplifie_server bash -c 'yarn siret:retrieve-gesti'
5.3 - Récupération des sirets depuis YMag 'yarn siret:retrieve-ymag'
docker exec -ti partage_simplifie_server bash -c 'yarn siret:retrieve-ymag'
5.4 - Sanitize des sirets 'yarn siret:sanitize'
docker exec -ti partage_simplifie_server bash -c 'yarn siret:sanitize'
5.5 - Vérification des validité de siret 'yarn siret-uai:check-validity'
docker exec -ti partage_simplifie_server bash -c 'yarn siret-uai:check-validity'
5.6 - Recherche des infos de localisation des établissements 'yarn dossiersApprenants:retrieve-location'
docker exec -ti partage_simplifie_server bash -c 'yarn dossiersApprenants:retrieve-location'
5.7 - Recherche des infos de réseaux des établissements 'yarn dossiersApprenants:retrieve-networks'
docker exec -ti partage_simplifie_server bash -c 'yarn dossiersApprenants:retrieve-networks'
5.8 - Recherche des codes CFD des formations 'yarn formation:retrieve-from-cfd'
docker exec -ti partage_simplifie_server bash -c 'yarn formation:retrieve-from-cfd'
5.9 - Mise à jour des niveau des dossiersApprenants - dépend des codes CFD des formations (5.8) 'yarn dossiersApprenants:retrieve-niveaux'
docker exec -ti partage_simplifie_server bash -c 'yarn dossiersApprenants:retrieve-niveaux'
5.10 - Mise à jour des branchements des données des CFAs 'yarn cfas:retrieve-data-connection'
docker exec -ti partage_simplifie_server bash -c 'yarn cfas:retrieve-data-connection'
Il est possible de lancer un script d'identification de différents types de doublons.
Ce script prend en arguments :
Exemple, identifier les doublons de type 1 (même combinaison prenom_apprenant/nom_apprenant/uai_etablissement/formation_cfd) sur toute la base :
docker exec -ti partage_simplifie_server bash -c 'yarn support:identify-dossiersApprenants-duplicates --duplicatesTypeCode 1 --mode forAll'
Exemple, identifier les doublons de type 2 (même combinaison prenom_apprenant/nom_apprenant/uai_etablissement mais formation_cfd différent) sur l'UAI 1234X avec l'utilisation d'allowDiskUse :
docker exec -ti partage_simplifie_server bash -c 'yarn support:identify-dossiersApprenants-duplicates --duplicatesTypeCode 2 --mode forUai --uai 1234X --allowDiskUse'
Il est possible de lancer un script de suppression de différents types de doublons. Les dossiersApprenants en doublons les moins récents seront supprimés et archivés dans la collection dossiersApprenantsDuplicatesRemoved
Ce script prend les mêmes arguments que le script d'identification :
Exemple, supprimer les doublons de type 1 (même combinaison prenom_apprenant/nom_apprenant/uai_etablissement/formation_cfd) sur toute la base :
docker exec -ti partage_simplifie_server bash -c 'yarn support:remove-dossiersApprenants-duplicates --duplicatesTypeCode 1 --mode forAll'