Ce dépôt contient une liste de noms de domaine d’organismes remplissant des missions de service public.
Le fichier domains.csv
contient les domaines connus, qu’ils soient
accessibles en HTTP ou non, qu’ils exposent un MX ou non, etc.
C'est le seul fichier modifiable manuellement, les ajouts et suppressions s’y font soit manuellement, soit via des scripts de collecte (voir Contribution).
Les colonnes de domains.csv
sont les suivantes :
name
: Le nom de domainehttp_status
: la réponse à une requête http 80 ou videhttps_status
: la réponse à une requête http 443 ou videSIREN
: Le numéro SIREN de l'établissement ou videtype
: Le type d'établissement ou videsources
: La source de la donnéescript
: Le nom du script de collecte qui a ajouté l'entréeLe fichier urls.txt
est une liste d’URLs basée sur les domaines du
fichier domains.csv
et répondant 200 OK
en HTTP ou en HTTPS
éventuellement après une redirection sur le même domaine
(typiquement l’ajout d’un /fr/
).
Les ajouts et suppressions s’y font automatiquement, il n’est pas nécessaire de modifier ce fichier manuellement.
Attention, cette liste étant basée sur des noms de domaines d’organismes publics, il n'est pas possible pour des URL d’organismes publics hébergés sur des domaines privés comme https://sites.google.com/site/mairiedemacey/ d’y figurer.
Ajoutez le ou les domaines que vous connaissez dans le fichier
domains.csv
.
Pré-requis pour utiliser les scripts python :
pip install -r scripts/requirements.txt
Ce fichier doit rester trié, pour le trier automatiquement utilisez :
python scripts/sort.py
Pour vérifier que tout va bien avant de commit :
python scripts/check.py
L’action github refresh
exécute périodiquement :
python scripts/http_checker.py --partial $(date +%d)/28
Cette commande vérifie 1/28ème des domaines, garantissant que chaque domaine est testé au moins une fois par mois.
Il est possible d’utiliser --partial
en dehors de l'action github.
Par exemple, pour tout actualiser en deux invocations :
python scripts/http_checker.py --partial 1/2 # Actualise une première moitiée,
python scripts/http_checker.py --partial 2/2 # puis la seconde.
Le dossier scripts/
contient plusieurs scripts de collecte :
import-base-nationale-sur-les-intercommunalites.py
import-from-ct-logs.py
Vous pouvez rédiger de nouveaux scripts de collecte, ils ne sont pas exécutés automatiquement.
Sources de confiance est une extension de navigateur qui permet d’identifier instantanément les résultats issus du secteur public dans son moteur de recherche habituel. Une initiative de l’association Villes Internet.
L’association ADULLACT souhaite établir des statistiques concernant le respect du RGAA par les sites des organismes publics.
DashLord est né à la Fabrique des ministères sociaux pour répondre aux besoins d’évaluation et de mise en œuvre des bonnes pratiques de développement web.
Service qui référence les initiatives publiques numériques françaises, ce afin d'augmenter leur découvrabilité et leur (ré)utilisation. Il a été réalisé au sein de l'équipe beta.gouv.fr.
2020-2023, DINUM et les contributrices et contributeurs du dépôt.
Le contenu de ce dépôt est sous licence Ouverte 2.0.