rdmtc / RedMatic

Node-RED packaged as Addon for the Homematic CCU3 and RaspberryMatic 🤹‍♂️
Apache License 2.0
533 stars 47 forks source link

WORKING datapoint, HmIP re-init on ping timeout fails #59

Closed garosp closed 5 years ago

garosp commented 5 years ago

Hello Sebastian, back again (roland). I hope this is the right, place, thx. After installation of current redmatic and ccu it works so far. There is one question. I define inject-nodes directly on ccu and remote node-environment. I can switch an old switch-actor and also a new one (HMIP). Works fine. The set true/false on the old one delivers two messages back (STATE and WORKING) the new one not. I don't understand the difference. kind regards roland

hobbyquaker commented 5 years ago

Ich vermute Dein HmIP Device hat einfach keinen Working Datenpunkt. Die Dokumentation der Datenpunkte findest Du hier: https://www.eq-3.de/Downloads/eq3/download%20bereich/hm_web_ui_doku/HM-Script_4-Datenpunkte.pdf und hier: https://www.eq-3.de/Downloads/eq3/download%20bereich/hm_web_ui_doku/HmIP_Device_Documentation.pdf Working gibt an ob ein Aktor im Moment dabei ist etwas zu tun, z.B. ob ein Rollladen Aktor den Rollladen gerade fahren lässt. Um Meldungen zu unterdrücken die während Working entstehen gibt es auch eine Checkbox in der CCU Value Node Konfiguration. Wenn Zwei Node-RED Messages erzeugt werden hast Du vermutlich die Konfiguration des Datenpunktes offen gelassen? Dann einfach mal bei Datapoint noch auf STATE setzen. Im Zweifel kannst auch mal einen Screenshot der Node Konfiguration und den Debug Output zeigen.

garosp commented 5 years ago

Ich habe auf der CCU-Seite nicht viel definiert anbei mein exportierter flow

[{"id":"8d47f7ab.d08888","type":"ccu-mqtt","z":"b7f590b6.cb4ea","name":"","ccuConfig":"be3abd26.0472b","cache":true,"topicOutputEvent":"raspmatic1/status/${channelName}/${datapoint}","topicInputSetValue":"raspmatic1/set/${channelNameOrAddress}/${datapoint}","topicOutputSysvar":"raspmatic1/status/${name}","topicInputSysvar":"raspmatic1/set/${name}","topicInputPutParam":"raspmatic1/paramset/${channelNameOrAddress}/${paramset}/${param}","topicInputPutParamset":"raspmatic1/paramset/${channelNameOrAddress}/${paramset}","topicInputRpc":"hm/rpc/${iface}/${method}/${command}/${callid}","topicOutputRpc":"hm/response/${callid}","payloadOutput":"mqsh-extended","x":330,"y":160,"wires":[["de350900.ff2d78","f0a9251a.a33948"]]},{"id":"de350900.ff2d78","type":"debug","z":"b7f590b6.cb4ea","name":"","active":true,"tosidebar":true,"console":false,"tostatus":false,"complete":"payload","x":510,"y":160,"wires":[]},{"id":"f239abbd.b74d38","type":"mqtt in","z":"b7f590b6.cb4ea","name":"","topic":"raspmatic1/#","qos":"2","broker":"101d00c9.d5b0df","x":130,"y":160,"wires":[["8d47f7ab.d08888"]]},{"id":"a2052bf5.8234a8","type":"inject","z":"b7f590b6.cb4ea","name":"","topic":"raspmatic1/set/JEQ0697296:1/STATE","payload":"true","payloadType":"bool","repeat":"","crontab":"","once":false,"onceDelay":0.1,"x":130,"y":260,"wires":[["8d47f7ab.d08888"]]},{"id":"7f0a4421.e00a3c","type":"inject","z":"b7f590b6.cb4ea","name":"","topic":"raspmatic1/set/JEQ0697296:1/STATE","payload":"false","payloadType":"bool","repeat":"","crontab":"","once":false,"onceDelay":0.1,"x":130,"y":320,"wires":[["8d47f7ab.d08888"]]},{"id":"f0a9251a.a33948","type":"mqtt out","z":"b7f590b6.cb4ea","name":"","topic":"","qos":"","retain":"","broker":"101d00c9.d5b0df","x":500,"y":220,"wires":[]},{"id":"27d9ff4f.d3bc6","type":"inject","z":"b7f590b6.cb4ea","name":"","topic":"raspmatic1/set/000218A98AD294:3/STATE","payload":"true","payloadType":"bool","repeat":"","crontab":"","once":false,"onceDelay":0.1,"x":130,"y":380,"wires":[["8d47f7ab.d08888"]]},{"id":"3777bbc6.de95b4","type":"inject","z":"b7f590b6.cb4ea","name":"","topic":"raspmatic1/set/000218A98AD294:3/STATE","payload":"false","payloadType":"bool","repeat":"","crontab":"","once":false,"onceDelay":0.1,"x":130,"y":440,"wires":[["8d47f7ab.d08888"]]},{"id":"be3abd26.0472b","type":"ccu-connection","z":"","name":"192.168.0.140","host":"192.168.0.140","regaEnabled":true,"bcrfEnabled":true,"iprfEnabled":true,"virtEnabled":true,"bcwiEnabled":false,"cuxdEnabled":false,"regaPoll":true,"regaInterval":"30","rpcPingTimeout":"60","rpcInitAddress":"192.168.0.140","rpcServerHost":"192.168.0.140","rpcBinPort":"2045","rpcXmlPort":"2046","contextStore":""},{"id":"101d00c9.d5b0df","type":"mqtt-broker","z":"","name":"Domotics","broker":"192.168.0.30","port":"1883","clientid":"","usetls":false,"compatmode":true,"keepalive":"60","cleansession":true,"birthTopic":"","birthQos":"0","birthPayload":"","closeTopic":"","closeQos":"0","closePayload":"","willTopic":"","willQos":"0","willPayload":""}]

x

ich war davon ausgegangen, dass ich nur den mqtt-Knoten brauche um die Kommkunikation von und zur CCU über mq zu gewährleisten. ich habe in der node-red instanz ausserhalb die gleichen inject-nodes und gehe über mq raus. wie gesagt schalten funktioniert aber die status-meldungen kommen nicht oder nur selten. ich dachte das der status aller komponenten über mq publish nach aussen geht. komisch war das es ohne änderungen gerade 2/3 schaltvorgänge ging, danach nicht mehr als ob die verbindung toggelt aus richtung ccu -> mqtt-node.

garosp commented 5 years ago

So langsam vermute ich, dass der sich der Socket zwischen der Node-red ccu anwendung und der HMIP-Komponente beendet. Nach einem Restart der mqtt-node (ohne Änderung) tut es eine Zeit lang. Auch nach einer Meldung "ping timeout HmIP-RF 609" geht es wieder eine Zeit. Ich vermute Du baust dann die Socket-Verbindung neu auf.

hobbyquaker commented 5 years ago

Oh, hatte Dich teilweise falsch verstanden. Kümmere mich asap darum.

garosp commented 5 years ago

Mit 1.4.5 steht die Verbindung länger aber nicht dauerhaft, nach restart mqtt-node läuft es wieder. Noch eine Info - der flow läuft auf der raspberrymatic mit localhost.

hobbyquaker commented 5 years ago

Kannst Du mal RedMatic auf Loglevel Debug stellen und ein Log-Auszug rund um den Zeitpunkt an dem die Verbindung verloren geht hier pasten?

garosp commented 5 years ago

hallo, anbei ein paar Auszüge. Sobald diese Meldung "ping timeout HmIP-RF 655" kommt erhalte ich keine Meldungen im Debug-Node mehr. der vollständigkeit halber - der homematic-schalter läuft in beiden richtungen weiter, hier steht die verbindung, bei dem ip-Schalter geht der rückweg nicht, schalten geht.

in messages

Sep 15 06:35:28 homematic-raspi daemon.info node-red[800]: [ccu-connection:192.168.0.140] HmIP-RF disconnected
Sep 15 06:35:28 homematic-raspi daemon.warn node-red[800]: [ccu-connection:192.168.0.140] ping timeout HmIP-RF 655
Sep 15 06:35:28 homematic-raspi daemon.info node-red[800]: [ccu-connection:192.168.0.140] HmIP-RF connected

in Node-RED Debug erscheint

15.9.2018, 06:35:28node: 192.168.0.140
msg : string[24]
"ping timeout HmIP-RF 655"

im hmserver.log

Sep 15 06:35:28 de.eq3.cbcs.legacy.bidcos.rpc.LegacyServiceHandler INFO  [vert.x-worker-thread-2] (un)registerCallback on LegacyServiceHandler called from url: http://192.168.0.140:2046
Sep 15 06:35:28 de.eq3.cbcs.legacy.bidcos.rpc.LegacyServiceHandler INFO  [vert.x-worker-thread-2] init finished
Sep 15 06:35:28 de.eq3.cbcs.legacy.bidcos.rpc.internal.InterfaceInitializer INFO  [vert.x-worker-thread-1] Added InterfaceId: nr_HmIP-RF
Sep 15 06:39:04 de.eq3.cbcs.server.core.otau.DeviceBackgroundUpdateSubsystem INFO  [vert.x-eventloop-thread-6] SYSTEM: 0 Accesspoints in Queue
Sep 15 06:39:04 de.eq3.cbcs.server.core.otau.DeviceBackgroundUpdateSubsystem INFO  [vert.x-eventloop-thread-6] SYSTEM: Permanent-/Burstlistener Handler utilization: 0/50 used
Sep 15 06:39:04 de.eq3.cbcs.server.core.otau.DeviceBackgroundUpdateSubsystem INFO  [vert.x-eventloop-thread-6] SYSTEM: Eventlistener Handler utilization: 0/50 used
garosp commented 5 years ago

die timeout-meldungen kommen genau alle 10 minuten (10 60 1000), der reconnect scheint nicht immer zu funktionieren. jetzt um 06:51 nach einem weiteren connect läuft es wieder

Sep 15 06:45:28 homematic-raspi daemon.info node-red[800]: [ccu-connection:localhost] HmIP-RF disconnected
Sep 15 06:45:28 homematic-raspi daemon.warn node-red[800]: [ccu-connection:localhost] ping timeout HmIP-RF 615
Sep 15 06:45:28 homematic-raspi daemon.info node-red[800]: [ccu-connection:localhost] HmIP-RF connected
garosp commented 5 years ago

sorry hatte den restart nachdem einschalten des debug-levels vergessen deshalb nochmal

in node-red debug-node um 07:11:48

15.9.2018, 07:11:48node: 192.168.0.140
msg : string[24]
"ping timeout HmIP-RF 750"

in messages zu dieser Zeit

Sep 15 07:11:19 homematic-raspi daemon.debug node-red[28596]: [ccu-connection:192.168.0.140] getRegaVariables
Sep 15 07:11:19 homematic-raspi daemon.debug node-red[28596]: [ccu-connection:localhost] getRegaVariables
Sep 15 07:11:19 homematic-raspi daemon.debug node-red[28596]: [ccu-connection:192.168.0.140] getRegaPrograms
Sep 15 07:11:19 homematic-raspi daemon.debug node-red[28596]: [ccu-connection:localhost] getRegaPrograms
Sep 15 07:11:33 homematic-raspi daemon.debug node-red[28596]: [ccu-connection:192.168.0.140] rpcCheckInit BidCos-RF 30 60
Sep 15 07:11:33 homematic-raspi daemon.debug node-red[28596]: [ccu-connection:192.168.0.140] rpc > BidCos-RF ping ["nr"]
Sep 15 07:11:33 homematic-raspi daemon.debug node-red[28596]: [ccu-connection:192.168.0.140]     < BidCos-RF ping [true]
Sep 15 07:11:33 homematic-raspi daemon.debug node-red[28596]: [ccu-connection:192.168.0.140] rpc < BidCos-RF system.multicall [[{"methodName":"event","params":["nr_BidCos-RF","CENTRAL","PONG","nr"]}]]
Sep 15 07:11:33 homematic-raspi daemon.debug node-red[28596]: [ccu-connection:192.168.0.140]     > BidCos-RF system.multicall [""]
Sep 15 07:11:33 homematic-raspi daemon.debug node-red[28596]: [ccu-connection:localhost] rpc < BidCos-RF system.multicall [[{"methodName":"event","params":["nr_BidCos-RF","CENTRAL","PONG","nr"]}]]
Sep 15 07:11:33 homematic-raspi daemon.debug node-red[28596]: [ccu-connection:localhost]     > BidCos-RF system.multicall [""]
Sep 15 07:11:33 homematic-raspi daemon.debug node-red[28596]: [ccu-connection:localhost] rpcCheckInit BidCos-RF 0 60
**Sep 15 07:11:48 homematic-raspi daemon.debug node-red[28596]: [ccu-connection:192.168.0.140] rpcCheckInit HmIP-RF 750 600
Sep 15 07:11:48 homematic-raspi daemon.info node-red[28596]: [ccu-connection:192.168.0.140] HmIP-RF disconnected
Sep 15 07:11:48 homematic-raspi daemon.warn node-red[28596]: [ccu-connection:192.168.0.140] ping timeout HmIP-RF 750**
Sep 15 07:11:48 homematic-raspi daemon.debug node-red[28596]: [ccu-connection:192.168.0.140] rpc > HmIP-RF init ["http://192.168.0.140:2046","nr_HmIP-RF"]
Sep 15 07:11:48 homematic-raspi daemon.debug node-red[28596]: [ccu-connection:192.168.0.140]     < HmIP-RF init ""
Sep 15 07:11:48 homematic-raspi daemon.info node-red[28596]: [ccu-connection:192.168.0.140] HmIP-RF connected
Sep 15 07:11:48 homematic-raspi daemon.debug node-red[28596]: [ccu-connection:192.168.0.140] rpcCheckInit HmIP-RF 0 600
Sep 15 07:11:48 homematic-raspi daemon.debug node-red[28596]: [ccu-connection:localhost] rpcCheckInit HmIP-RF 62 600
Sep 15 07:11:48 homematic-raspi daemon.debug node-red[28596]: [ccu-connection:192.168.0.140] rpc < HmIP-RF listDevices ["nr_HmIP-RF"]
Sep 15 07:11:48 homematic-raspi daemon.debug node-red[28596]: [ccu-connection:192.168.0.140]     > HmIP-RF listDevices [{"ADDRESS":"000218A98AD294","VERSION":4,"AES_ACTIVE":1,"CHILDREN":["000218A98AD294:0","000218A98AD294:1","000218A98AD294:2","000218A98AD294:3","000218A98AD294:4","000218A98AD294:5","000218A98AD294:6"],"FIRMWARE":"2.6.2","FLAGS":1,"PARAMSETS":["MASTER","SERVICE"],"RF_ADDRES
Sep 15 07:11:48 homematic-raspi daemon.debug node-red[28596]: [ccu-connection:192.168.0.140] rpcCheckInit BidCos-RF 15 60
Sep 15 07:11:48 homematic-raspi daemon.debug node-red[28596]: [ccu-connection:localhost] rpcCheckInit BidCos-RF 15 60
Sep 15 07:11:49 homematic-raspi daemon.debug node-red[28596]: [ccu-connection:localhost] rpc > BidCos-RF listBidcosInterfaces []
Sep 15 07:11:49 homematic-raspi daemon.debug node-red[28596]: [ccu-connection:localhost]     < BidCos-RF listBidcosInterfaces [{"ADDRESS":"PEQ0624935","CONNECTED":true,"DEFAULT":true,"DESCRIPTION":"","DUTY_CYCLE":25,"FIRMWARE_VERSION":"3.4.8","TYPE":"CCU2"}]
Sep 15 07:11:49 homematic-raspi daemon.debug node-red[28596]: [ccu-connection:192.168.0.140] getRegaVariables
Sep 15 07:11:49 homematic-raspi daemon.debug node-red[28596]: [ccu-connection:localhost] getRegaVariables
Sep 15 07:11:49 homematic-raspi daemon.debug node-red[28596]: [ccu-connection:192.168.0.140] getRegaPrograms
Sep 15 07:11:49 homematic-raspi daemon.debug node-red[28596]: [ccu-connection:localhost] getRegaPrograms
Sep 15 07:12:03 homematic-raspi daemon.debug node-red[28596]: [ccu-connection:192.168.0.140] rpcCheckInit BidCos-RF 30 60
Sep 15 07:12:03 homematic-raspi daemon.debug node-red[28596]: [ccu-connection:192.168.0.140] rpc > BidCos-RF ping ["nr"]
Sep 15 07:12:03 homematic-raspi daemon.debug node-red[28596]: [ccu-connection:192.168.0.140]     < BidCos-RF ping [true]
Sep 15 07:12:03 homematic-raspi daemon.debug node-red[28596]: [ccu-connection:localhost] rpc < BidCos-RF system.multicall [[{"methodName":"event","params":["nr_BidCos-RF","CENTRAL","PONG","nr"]}]]
Sep 15 07:12:03 homematic-raspi daemon.debug node-red[28596]: [ccu-connection:localhost]     > BidCos-RF system.multicall [""]
Sep 15 07:12:03 homematic-raspi daemon.debug node-red[28596]: [ccu-connection:192.168.0.140] rpc < BidCos-RF system.multicall [[{"methodName":"event","params":["nr_BidCos-RF","CENTRAL","PONG","nr"]}]]
Sep 15 07:12:03 homematic-raspi daemon.debug node-red[28596]: [ccu-connection:192.168.0.140]     > BidCos-RF system.multicall [""]
Sep 15 07:12:03 homematic-raspi daemon.debug node-red[28596]: [ccu-connection:localhost] rpcCheckInit BidCos-RF 0 60
Sep 15 07:12:18 homematic-raspi daemon.debug node-red[28596]: [ccu-connection:192.168.0.140] rpcCheckInit BidCos-RF 15 60
Sep 15 07:12:18 homematic-raspi daemon.debug node-red[28596]: [ccu-connection:localhost] rpcCheckInit BidCos-RF 15 60
Sep 15 07:12:19 homematic-raspi daemon.debug node-red[28596]: [ccu-connection:localhost] rpc > BidCos-RF listBidcosInterfaces []
Sep 15 07:12:19 homematic-raspi daemon.debug node-red[28596]: [ccu-connection:localhost]     < BidCos-RF listBidcosInterfaces [{"ADDRESS":"PEQ0624935","CONNECTED":true,"DEFAULT":true,"DESCRIPTION":"","DUTY_CYCLE":25,"FIRMWARE_VERSION":"3.4.8","TYPE":"CCU2"}]
Sep 15 07:12:19 homematic-raspi daemon.debug node-red[28596]: [ccu-connection:192.168.0.140] getRegaVariables
Sep 15 07:12:19 homematic-raspi daemon.debug node-red[28596]: [ccu-connection:localhost] getRegaVariables
Sep 15 07:12:19 homematic-raspi daemon.debug node-red[28596]: [ccu-connection:192.168.0.140] getRegaPrograms
Sep 15 07:12:19 homematic-raspi daemon.debug node-red[28596]: [ccu-connection:localhost] getRegaPrograms
Sep 15 07:12:19 homematic-raspi daemon.debug node-red[28596]: [ccu-mqtt:ff594b02.c1c008] input raspmatic1/status/DutyCycle "{\"val\":25,\"ts\":1536988320000,\"lc\"
Sep 15 07:12:33 homematic-raspi daemon.debug node-red[28596]: [ccu-connection:192.168.0.140] rpcCheckInit BidCos-RF 30 60
Sep 15 07:12:33 homematic-raspi daemon.debug node-red[28596]: [ccu-connection:192.168.0.140] rpc > BidCos-RF ping ["nr"]
Sep 15 07:12:33 homematic-raspi daemon.debug node-red[28596]: [ccu-connection:192.168.0.140]     < BidCos-RF ping [true]
Sep 15 07:12:33 homematic-raspi daemon.debug node-red[28596]: [ccu-connection:192.168.0.140] rpc < BidCos-RF system.multicall [[{"methodName":"event","params":["nr_BidCos-RF","CENTRAL","PONG","nr"]}]]
Sep 15 07:12:33 homematic-raspi daemon.debug node-red[28596]: [ccu-connection:192.168.0.140]     > BidCos-RF system.multicall [""]
Sep 15 07:12:33 homematic-raspi daemon.debug node-red[28596]: [ccu-connection:localhost] rpc < BidCos-RF system.multicall [[{"methodName":"event","params":["nr_BidCos-RF","CENTRAL","PONG","nr"]}]]
Sep 15 07:12:33 homematic-raspi daemon.debug node-red[28596]: [ccu-connection:localhost]     > BidCos-RF system.multicall [""]
Sep 15 07:12:33 homematic-raspi daemon.debug node-red[28596]: [ccu-connection:localhost] rpcCheckInit BidCos-RF 0 60
Sep 15 07:12:48 homematic-raspi daemon.debug node-red[28596]: [ccu-connection:192.168.0.140] rpcCheckInit BidCos-RF 15 60
Sep 15 07:12:48 homematic-raspi daemon.debug node-red[28596]: [ccu-connection:localhost] rpcCheckInit BidCos-RF 15 60
Sep 15 07:12:49 homematic-raspi daemon.debug node-red[28596]: [ccu-connection:localhost] rpc > BidCos-RF listBidcosInterfaces []
Sep 15 07:12:49 homematic-raspi daemon.debug node-red[28596]: [ccu-connection:localhost]     < BidCos-RF listBidcosInterfaces [{"ADDRESS":"PEQ0624935","CONNECTED":true,"DEFAULT":true,"DESCRIPTION":"","DUTY_CYCLE":25,"FIRMWARE_VERSION":"3.4.8","TYPE":"CCU2"}]

im hmserver.log

Sep 15 07:09:04 de.eq3.cbcs.server.core.otau.DeviceBackgroundUpdateSubsystem INFO  [vert.x-eventloop-thread-6] SYSTEM: Permanent-/Burstlistener Handler utilization: 0/50 used
Sep 15 07:09:04 de.eq3.cbcs.server.core.otau.DeviceBackgroundUpdateSubsystem INFO  [vert.x-eventloop-thread-6] SYSTEM: Eventlistener Handler utilization: 0/50 used
Sep 15 07:11:48 de.eq3.cbcs.legacy.bidcos.rpc.LegacyServiceHandler INFO  [vert.x-worker-thread-3] (un)registerCallback on LegacyServiceHandler called from url: http://192.168.0.140:2046
Sep 15 07:11:48 de.eq3.cbcs.legacy.bidcos.rpc.internal.InterfaceInitializer INFO  [vert.x-worker-thread-4] Added InterfaceId: nr_HmIP-RF
Sep 15 07:11:48 de.eq3.cbcs.legacy.bidcos.rpc.LegacyServiceHandler INFO  [vert.x-worker-thread-3] init finished
Sep 15 07:14:04 de.eq3.cbcs.server.core.otau.DeviceBackgroundUpdateSubsystem INFO  [vert.x-eventloop-thread-6] SYSTEM: 0 Accesspoints in Queue
Sep 15 07:14:04 de.eq3.cbcs.server.core.otau.DeviceBackgroundUpdateSubsystem INFO  [vert.x-eventloop-thread-6] SYSTEM: Permanent-/Burstlistener Handler utilization: 0/50 used
Sep 15 07:14:04 de.eq3.cbcs.server.core.otau.DeviceBackgroundUpdateSubsystem INFO  [vert.x-eventloop-thread-6] SYSTEM: Eventlistener Handler utilization: 0/50 used
garosp commented 5 years ago

ich wage mal eine behauptung - kann es sein das du alle 10 minuten einen disconnect/connect machst - der disconnect noch nicht durch ist und deshalb der connect nicht funktioniert - beim nächsten mal nach 10 minuten ist der disconnect erledigt und der connect geht dann durch. das würde das bild 10 minuten geht es - dann wieder 10 minuten nicht - dann geht es wieder vielleicht erklären

hobbyquaker commented 5 years ago

Hab mal in node-red-contrib-ccu 1.6.3 versucht das zu beheben. Ist bisschen Blindflug, musst mal testen ob es damit funktioniert. Bis ich ein neues RedMatic release mach kannst Du auch schon vorab node-red-contrib-ccu in Node-RED über den Palette Manager updaten.

hobbyquaker commented 5 years ago

Mir ist eben noch was aufgefallen. In Deinen Logs taucht die IP Adresse 192.168.0.140 auf. Bei der Nutzung von RedMatic sollte das eigentlich nicht der Fall sein, das sollte alles über die Loopback Adresse 127.0.0.1 laufen. Kannst Du mir mal einen Screenshot der Konfiguration des "CCU Connection" Nodes zeigen (erreichbar über das Node-RED Menü -> Configuration Nodes)? Oder nutzt Du gar nicht RedMatic und lässt Node-RED nicht auf der CCU sondern auf einem anderen Host/Container laufen?

garosp commented 5 years ago

ich habe im mqtt-node die Einstellung auf localhost. Es gibt aber auch eine Config für 192.168.0.140, ich hatte da mal probiert. Habe die jetzt gelöscht. Im Moment läuft es schon seit 30 Minuten durch. Die 192.168.0.140 ist aber die ip der raspberrymatic. Bin immer noch auf node-red-contrib-ccu 1.4.5. Sorry wenn das die zweite config war, es wundert mich aber da sie nicht genutzt wurde.

mqt 192-168-0-140 localhost

garosp commented 5 years ago

es sieht ja fast so aus als ob zwischen den beiden config's getoggelt wird und die 192.168.0.140 mit den anderen ports nicht funktioniert

hobbyquaker commented 5 years ago

lösch mal den connection node mit der 192.168... zwei connections auf die gleiche ccu haben die gleichen init identifier, das führt definitiv zu problemen, dann können eingehende events nicht eindeutig zugeordnet werden.

garosp commented 5 years ago

Ja verstehe ich - gleicher init bei rpc-aufbau. Hatte schon gelöscht - es sieht so aus, dass es jetzt stabil läuft. Sorry das ich dir die arbeit gemacht habe.

garosp commented 5 years ago

verstehe aber nicht wieso er die anderen CCU-Definitionen, die ja im mqtt-node nicht angezogen werden nicht ignoriert. Kann man drauf reinfallen.

hobbyquaker commented 5 years ago

Die Connection Nodes bauen eine Verbindung zur CCU auf - egal ob sie in irgendeinem Node genutzt werden oder nicht. Werde mal drüber nachdenken ob ich das in Zukunft anders regeln kann. Dagegen spricht allerdings dass dann der erste Node den man einsetzt keine Autovervollständigung anbieten könnte da dann die Daten erst nach dem ersten Deploy zur Verfügung stehen würden, auch bisschen unschön. Diesen Issue können wir dann erst mal schließen?