[vz-dev] Alternative Implementierung für vzcompress
Daniel Lauckner
mailing at jahp.de
Sun Apr 14 11:26:45 CEST 2013
Hallo,
Am Samstag, 13. April 2013 um 14:57 schrieb Florian Knodt:
> Am 11.04.2013 20:16, schrieb Daniel Lauckner:
>> den Eindruck das die DB bei den
>> 5-Minutenwerten nicht von Anfang an bearbeitet sondern irgendwo
>> einsteigt.
>> Falls ja, wo ist das definiert?
> das sind die "compressscheme"-Zeilen unten im Script, genauer die erste
> Zahl des Arrays. Im Original heißt es z.B.
(7*24*60*60) =>> (1*60),
(30*24*60*60) =>> (5*60),
(6*30*24*60*60) =>> (15*60)
(365*24*60*60) =>> (30*60)
Sieht bei mir im Moent so aus (Z. 259 - 263):
'default' => array( //Definition for all other channels
(1*24*60*60) => (1*60), //Older than 1 Days (org: 7) Datapoint per 1 Minute
(30*24*60*60) => (5*60), //Older than 30 Days Datapoint per 5 Minutes
// (6*30*24*60*60) => (15*60), //Older than 6 Month Datapoint per 15 Minutes
// (365*24*60*60) => (30*60), //Older than 1 Year Datapoint per 30 Minutes
> In dem Fall würden Daten, welche neuer als 7 Tage (also neuer als die
> kleinste Definition, in dem Fall 7*24*60*60 Sekunden) sind NICHT
> komprimiert. Werte die älter sind erhalten einen Wert pro Minute (1*60
> Sekunden), Daten älter als 30 Tage (30*24*60*60 Sekunden) ein Wert pro 5
> Minuten (5*60 Sekunden) etc.
So wie ichs jetzt konfiguriert habe müsste das Script alle Datensätze
älter als 30 Tage auf 300-Sekunden zusammenfassen. Macht es aber
nicht (ich hab mal die %-Anzeige deaktiviert):
Processing Sensor ID 7...
Compressing datapoints between 17.03.2013 14:39:26 and 13.04.2013 10:40:14 using a 60 second timeframe
Removed 2834 Datapoints in 623 Seconds.
Skipping compression pass for datapoints between 14.04.2013 10:40:16 and 15.03.2013 09:40:16 using a 300 second timeframe: No Datapoints found
mfg Daniel
More information about the volkszaehler-dev
mailing list