Closed DKeppi closed 2 months ago
Hab das Image 19.2.2 versucht, selbes Problem! Wenn ich auf 19.2.1 wechsle, läuft der Crawler wieder
Gutes Issue. Das linuxserver baseimage macht gerade generell Probleme..
@rix1337 Leider wieder dasselbe Problem!
Container läuft zwar, aber im Log steht wieder der Fehler s6-supervise feedcrawler: warning: unable to spawn ./run (waiting 60 seconds): Permission denied
Ja. Liegt daran, dass auch das neue baseimage von linuxserver fehlerhaft ist.
Das neue Release entfernt all das und nutzt stattdessen vanilla alpine.
Und um zu verhindern, dass der latest
tag zwischen Releases kaputt geht, schmeiß ich die Baseimage-Autoupdates raus.
Release 19.2.5 ist da. Sollte wieder laufen.
Leider nicht:
Process Process-2:
Traceback (most recent call last):
File "/usr/bin/feedcrawler", line 8, in
File "<string>", line 2, in __getitem__
File "/usr/lib/python3.12/multiprocessing/managers.py", line 817, in _callmethod
self._connect()
File "/usr/lib/python3.12/multiprocessing/managers.py", line 804, in _connect
conn = self._Client(self._token.address, authkey=self._authkey)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "/usr/lib/python3.12/multiprocessing/connection.py", line 519, in Client
c = SocketClient(address)
^^^^^^^^^^^^^^^^^^^^^
File "/usr/lib/python3.12/multiprocessing/connection.py", line 647, in SocketClient
s.connect(address)
FileNotFoundError: [Errno 2] No such file or directory
Du bist nicht auf version 19.2.5.
Da war ich wohl zu ungeduldig, hab das latest nochmals geladen und nun klappts wieder! DANKE!
Hast du die README gelesen?
Gibt es bereits ein Issue für das Problembild?
Hast du die Discussions überprüft?
Enthält die Problembeschreibung einen oder mehrere Hostnamen?
Laufzeitumgebung
Beschreibung
Feedcrawler bringt leere Seite im Browser
Meine Container werden autom. mit dem neuesten latest Docker Image upgedated, da gibt es ja täglich ein neues bei Feedcrawler. Läuft seit heute nicht mehr, wobei ich nicht sagen kann ob es nicht schon am Samstag/Sonntag nicht mehr ging. Freitags lief er noch mit dem latest Image
Fehlermeldungen aus dem Log
FeedCrawler.ini
Screenshots
No response