[gelöst] Slot und Signal wird immer langsamer
Verfasst: 20. November 2019 14:16
Hallo zusammen
Ich habe in meinem Programm ein signal, das von einem Messsensor in einem bestimmten Takt (0.1 - x Sekunden) den Messwert einliest.
Leider wird der Zeitraum mit der Zeit rapide langsamer, die Taktzeit wird bis zum 100-fachen überschritten.
Hat jemand generelle Tipps, was ich falsch machen kann? Zuerst möchte ich selber versuchen, den Fehler zu finden, deshalb (noch) kein Code hier.
Ich habe in meinem Programm ein signal, das von einem Messsensor in einem bestimmten Takt (0.1 - x Sekunden) den Messwert einliest.
Leider wird der Zeitraum mit der Zeit rapide langsamer, die Taktzeit wird bis zum 100-fachen überschritten.
Hat jemand generelle Tipps, was ich falsch machen kann? Zuerst möchte ich selber versuchen, den Fehler zu finden, deshalb (noch) kein Code hier.