Closed bilyboy785 closed 6 years ago
Yop, intéressant, pourtant il marche
Perso j'ai ça en docker-compose :
x_h5ai:
image: bixidock/h5ai
restart: always
container_name: x_h5ai
volumes:
- /home/x/incoming/torrents:/var/www
environment:
- VIRTUAL_HOST=share.x.y.eu
- LETSENCRYPT_EMAIL=contact@y.eu
- LETSENCRYPT_HOST=share.x.y.eu
Tu as quoi comme compose ?
J'ai à peu près la même chose :
h5ai-martin:
restart: always
image: bixidock/h5ai
container_name: h5ai-martin
ports:
- 5055:80
volumes:
- /home/user/data:/var/www
- /home/martinbouillaud/dockers/h5ai/options.json:/usr/share/h5ai/_h5ai/private/conf/options.json
environment:
- VIRTUAL_HOST=sub.domain.tld
- LETSENCRYPT_HOST=sub.domain.tld
- LETSENCRYPT_EMAIL=mail@domain.tld
Dois-je retirer la ligne port ?
Ouep, essaie ça, et en enlevant von volumes options.json surtout
Non toujours pareille.
BusyBox v1.24.2 (2017-01-18 14:13:46 GMT) multi-call binary.
Usage: addgroup [-g GID] [-S] [USER] GROUP
Add a group or add a user to a group
-g GID Group id
-S Create a system group
chown: unknown user/group dokuwiki:dokuwiki
2017-11-21 19:42:50,156 CRIT Supervisor running as root (no user in config file)
2017-11-21 19:42:50,158 INFO supervisord started with pid 10
2017-11-21 19:42:51,160 INFO spawned: 'nginx' with pid 14
2017-11-21 19:42:51,161 INFO spawned: 'php-fpm' with pid 15
2017-11-21 19:42:51,175 INFO exited: php-fpm (exit status 127; not expected)
2017-11-21 19:42:52,177 INFO success: nginx entered RUNNING state, process has stayed up for > than 1 seconds (startsecs)
2017-11-21 19:42:52,179 INFO spawned: 'php-fpm' with pid 20
2017-11-21 19:42:52,188 INFO exited: php-fpm (exit status 127; not expected)
2017-11-21 19:42:54,191 INFO spawned: 'php-fpm' with pid 21
2017-11-21 19:42:54,200 INFO exited: php-fpm (exit status 127; not expected)
Bizarre que ça fasse ça d'un coup .. Ca a toujours très bien marché.
Mmmh c'est clair.. je regarde plus en détail demain soir, j'ai pas le temps là...
Si encore j'utilsais alpine:edge, j'aurais pu comprendre, mais là j'suis bien en alpine:3.4...
Pas de soucis, je vais faire des tests avec FileRun en attendant ;)
J'ai check un peu, et c'est juste bizarre quoi ><"
Essaie de mettre UID=1001 et GID=1001 en variable d'env mais ça va rien changer
Pareille .. J'ai mis 1000 parce que j'ai aucun user en 1001. Je vais me tourner vers Filerun ou Explorer.
Plop
Tu peux vérifier que c'est ok ? :)
PS: L'image utilise maintenant le port 8080
Toujours pas ..
Pense à MAJ l'image : docker pull bixidock/h5ai
Tu as bien fais un docker-compose up -d ? (j'ai testé et ça marche, donc bon :D)
Fait moi voir ton docker-compose.yml
PS: J'ai lancé l'image avec cette ligne pour mes tests :
docker run -it --rm -p 12345:8080 -v /root/dockerfiles/h5ai/lel:/var/www bixidock/h5ai
h5ai-martin:
restart: always
image: bixidock/h5ai
container_name: h5ai-martin
ports:
- 5055:8080
volumes:
- /home/martinbouillaud/data:/var/www
environment:
- VIRTUAL_HOST=h5.*****.com
- LETSENCRYPT_HOST=h5.*****.com
- LETSENCRYPT_EMAIL=contact@*****
Logs du docker h5ai
[09-Dec-2017 17:23:26] WARNING: Nothing matches the include pattern '/php/php-fpm.d/*.conf' from /usr/local/etc/php-fpm.conf at line 18.
[09-Dec-2017 17:23:26] NOTICE: [pool www] 'user' directive is ignored when FPM is not running as root
[09-Dec-2017 17:23:26] NOTICE: [pool www] 'group' directive is ignored when FPM is not running as root
Oui c'pas grave ça
Pour le coup, ton problème vient de ton reverse proxy.
Essaie de lancer la commande que j'ai donnée en modifiant le volume et essaie d'y accéder directement via le port.
Bizarre ... Ca marchait avant avec le même reverse, domage :(
Ca marche toujours lol, c'est juste que jwilder/nginx-proxy (Je suis sur à 99.9% que tu t'en sers) gère très mal les changements de port ou quoi
Ah oui oui c'est lui ;)
Mais du coup comment je pourrais le refaire fonctionner ce petit con ? :)
Je sais plus. Dans tous les cas, je ferme l'issue vu que cela ne vient plus de l'image en elle même.
Passe par mail bxt+github@mondedie.fr si tu veux du support
Hi !
I've got an error with your h5ai docker : 502 bad gateway.
I've got that in logs