Zum Inhalt springen

Pocket-Query Datumranges für GSAK


TommiB

Empfohlene Beiträge

Alle die sich 1000er PQ's für GSAK erstellen kennen das Problem. die PQs mit alten Datumsbereichen leeren sich allmählich, da immer wieder Caches archiviert werden. Ich habe für mich wieder mal aufgeräumt und die PQs so angepasst, dass in allen rund 1000 Caches sind. Für alle die nicht selber probieren möchten hier die heute (26.5.11) optimalsten Datumsbereiche.

 

Liebe Grüsse, Thomas

post-1769-0-80712400-1306399812_thumb.jpg

Bearbeitet von TommiB
Link zu diesem Kommentar
Auf anderen Seiten teilen

Alle die sich 1000er PQ's für GSAK erstellen kennen das Problem. die PQs mit alten Datumsbereichen leeren sich allmählich, da immer wieder Caches archiviert werden. Ich habe für mich wieder mal aufgeräumt und die PQs so angepasst, dass in allen rund 1000 Caches sind. Für alle die nicht selber probieren möchten hier die heute (26.5.11) optimalsten Datumsbereiche.

 

Liebe Grüsse, Thomas

post-1769-0-80712400-1306399812_thumb.jpg

 

Da sind deine gefundenen auch dabei

Da ich nur die „I haven't found „ in den PQs habe leeren sich meine nicht nur wegen archivierten sondern auch wegen meinen neu gefundenen. Spart bei mir immerhin 4 x 500er PQ‘s

Link zu diesem Kommentar
Auf anderen Seiten teilen

Alle die sich 1000er PQ's für GSAK erstellen kennen das Problem. die PQs mit alten Datumsbereichen leeren sich allmählich, da immer wieder Caches archiviert werden. Ich habe für mich wieder mal aufgeräumt und die PQs so angepasst, dass in allen rund 1000 Caches sind. Für alle die nicht selber probieren möchten hier die heute (26.5.11) optimalsten Datumsbereiche.

 

Liebe Grüsse, Thomas

post-1769-0-80712400-1306399812_thumb.jpg

 

Ja das habe ich auch hinter mir Warum um himmelswillen machst Du so kryptische Namen für die PQ's? :lol:

Link zu diesem Kommentar
Auf anderen Seiten teilen

Hallo,

 

ich habe auf der GeoFarm an den Vorträgen von gzxto teilgenommen. Danke an gzxto !

 

Nun möchte ich für mein Bundesland Schleswig-Holstein eine Datenbank mit allen GeoCaches anlegen.

Ich habe mit MapSource über das ganze Land insgesamt 27 Wegpunkte verteilt. Die Koordinaten dieser

Wegpunkte habe ich als Mittelpunkt des jeweiligen PQs eingegeben. Als Option habe "I haven't found"

ausgewählt und bei "States/Provinces" habe ich "Schleswig-Holstein" angegeben. Es sind alles 1000er

PQs.

 

Ich denke ich werde flächendeckend alle GeoCaches übermittelt bekommen. Das Laden in eine Daten-

bank und das Ausführen des "Placed-Date-Makro" sollten für mich kein Problem darstellen.

 

Nun aber meine Frage: Wie halte ich die Datenbank / PQs auf dem aktuellen Stand (auf dem richtigen

Zeitraum)? Es werden immer wieder welche archiviert und die Zeiträume der einzelnen PQs verschieben

sich. Ein zusätzliches PQ "All Geocaches placed last week !"?

 

Vorab schonmal Danke.

 

Viele Grüße von der Küste,

 

Volker aka VauPee

Bearbeitet von VauPee
Link zu diesem Kommentar
Auf anderen Seiten teilen

Hallo Volker,

 

schön dass Durch Euren Eventbesuch hier nun eine Verbindung über 1200km entstanden ist.

 

Du hast bei Deinen PQs irgendwie zu viele Kriterien. Durch die 27 Wegpunkte teilst Du ja das Land geometrisch ein. Da die PQs immer kreisförmig sind, kommt es hierbei automatisch zu Überschneidungen (oder zu Lücken), d.h. Caches kommen in mehr als einem Kreis vor und landen somit in mehreren PQs. Ausserdem kann ja in jedem dieser Kreise jeden Tag ein neuer Cache aufgehen, und einen am Rand aus der PQ verdrängen.

 

Die Einteilung nur nach "placed"-Datum (natürlich mit "Germany" + "Schleswig-Holstein") vermeidet dies, da ein Cache ja nicht heute UND morgen platziert sein kann, jeder Cache ist genau in einer PQ enthalten und es gibt genau eine PQ, die "wächst" (nämlich die neueste), alle anderen (die "alten") werden nur noch kleiner (durch Funde und Archivierungen).

 

Wenn Du ein Mal alle SH-Caches in GSAK hast, nimm das "placed-Date-Makro", das Dir hier die optimale Einteilung liefert. Aber Du kannst das auch von Hand machen: erstelle die erste PQ mit placed-Datum "von 01.01.2000 bis 31.12.2004", wähle keinen Wochentag zur Erzeugung, und schaue Dir an, wieviele Caches geliefert werden.

 

- weit über 1000 --> Enddatum Wochen/Monate früher setzen

- knapp über 1000 --> Enddatum Tage/Wochen früher setzen

- knapp unter 1000 --> stehen lassen, oder Enddatum evtl. ein paar Tage später setzen

- weit unter 1000 --> Enddatum Wochen/Monate später setzen

 

Wenn die erste PQ dann die gewünschte Grösse (so ca. 980 bis 999 Caches) hat, hast Du mit "Enddatum + 1 Tag" das Anfangsdatum für die zweite PQ. Hier das selbe Spiel wieder usw. bis das Enddatum der letzten PQ irgendwann in der Zukunft liegt (Du kannst hier vorläufig ohne Probleme den 31.12.2099 eingeben).

 

Nur die letzte (neueste) PQ musst Du täglich beobachten (und Dir täglich erstellen lassen), denn wenn diese "voll" (980...999 Caches) ist, musst Du das Enddatum endgültig festlegen, und eine neue "letzte" PQ erstellen. Die älteren PQs reichen ein Mal pro Woche, denn da kommt ja nichts neues mehr dazu.

 

Die Überprüfung der Datumsbereiche der "alten" PQs kannst Du sporadisch machen, wenn z.B. zwei zeitlich aufeinander folgende PQs zusammen nur noch 990 Caches beinhalten, kannst Du bei einer der beiden die Datumsbereiche zusammenfassen, und die andere löschen.

Du kannst natürlich auch regelmässig ein paar Tage von der einen in die andere PQ verschieben, aber das ist natürlich ein deutlicher Mehraufwand.

 

Gruss über 1200km vom Zugersee an die Ostsee (oder eher an die Schlei?)

Link zu diesem Kommentar
Auf anderen Seiten teilen

Moin Moin,

 

die Schlei ist korrekt (naja fast, ca 6km BeeLine).

 

Nun zu den PQs:

 

Ich habe 20 PQs erstellt. Optionen bei allen gleich. Region: Schleswig-Holstein und "I haven't found". Nur die Placed-Zeiträume sind

natürlich anders.

 

Nur nochmal zum Verständnis, diese 20 PQs sind die Grundlage für eine Datenbank. Ist es sinnvoll noch andere Datenbanken (Found, Temp, o.ä.)

anzulegen oder kann ruhig alles in ein und dieselbe DB ?

 

Noch eine Frage zu GC.com. Pro Tag 5 PQs somit max. 35 PQs pro Woche ?

 

Gruß von der Küste,

 

Volker aka VauPee

Link zu diesem Kommentar
Auf anderen Seiten teilen

Nur nochmal zum Verständnis, diese 20 PQs sind die Grundlage für eine Datenbank. Ist es sinnvoll noch andere Datenbanken (Found, Temp, o.ä.)

anzulegen oder kann ruhig alles in ein und dieselbe DB ?

 

Ich halte mir alles in einer DB. Anfangs dachte ich auch, ich könnte dei Daten unterschiedliche halten. Aber die Filter in GSAK sind so gut, da kann ich alles in einem Topf haben.

 

Noch eine Frage zu GC.com. Pro Tag 5 PQs somit max. 35 PQs pro Woche ?

 

Richtig, 35. Da kann man wohl bald mal an Grenzen Stossen...

Link zu diesem Kommentar
Auf anderen Seiten teilen

autsch - schon (gestossen) passiert. ;)

 

Wenn man jetzt noch die PQs >500 per Mail (oder wie auch immer)bekommen könnte...

 

Vielen Dank für die Hilfe. :thumbup::clap:

 

Gruß, Volker :)

Link zu diesem Kommentar
Auf anderen Seiten teilen

Warum stösst Du an eine Grenze (ausser an die dänische), in SH hat es im Moment etwas mehr als 11.000 Caches (also vergleichbar mit der Schweiz). D.h. mit 23 oder 24 500er PQs (bzw. 12 1000er) solltest Du das Land komplett abdecken können, das sind 3 bis 4 500er pro Tag, d.h. Du hast jeden Tag noch mindestens eine PQ "frei" für Sonderaufgaben (z.B. einen Ausflug nach HH, HB, MeckPomm, NiSa, DK...). Wenn Du die neueste PQ täglich laufen lässt, ist dieser Puffer allerdings schnell aufgebraucht (dann sind es nämlich schon 29 oder 30 pro Woche), aber selbst dann hast Du noch 5 oder 6 pro Woche frei.

 

Wegen den Datenbanken: wir haben generell zwei tagesaktuelle, nämlich "Schweiz ungefunden" (aus momentan 14 1000er-PQs) und "Welt gefunden" (aus myFinds-PQ). Für Reisen in andere Länder (und selbst wenn es nur kurz nach BaWü oder Bayern geht) wird dann separat eine Datenbank erstellt und mit PQs gefüttert. Nach der Reise wird die Datenbank wieder gelöscht, da sie bis zum nächsten Mal sowieso veraltet wäre.

 

Gruss aus Cham

Link zu diesem Kommentar
Auf anderen Seiten teilen

"Alles in einem Topf ist sicher gut" Ich habe auch nur 2DBs davon ist eine nur der Abfalleimer.

 

In der ersten "default" sind:

- alle je von mir gefundenen (noch aktiven oder inzwischen archivierten) CH Caches (vom MyFinds PQ)

- alle noch nicht gefundenen und noch nicht archivierten CH Caches (von den Wöchendlichen PQs)

- alle je in Ausland gefundenen Caches (vom MyFinds PQ)

- und kurz bevor ich auf Reise gehe, alle Ausland-Caches von den PQs ich ich extra für die Reise gemachte habe

 

In der zweiten "deleted" sind: alle Caches die das Cleanup Macro (oder ein manueller filter "GPX update älter als 8 Tage") gelöscht hat. Dass heisst:

- alle CH Caches die ich nie gefunden habe und die nicht mehr in einem neuen PQ vorhanden sind = sie sind inzwischen archiviert worden.

- alle ausländischen Caches nach einer Reise die ich nicht gefunden habe. Da ich diese Ausland-PQs ja nur einmal speziell für die Reise gemacht habe, werden diese nach sieben Tagen nicht wieder durch neue PQ "refreshed" und dadurch wie "normal" archivierte durchs Cleanup Macro automatisch gelöscht.

 

Auch hier wieder "keep is simple" denn gewisse Macros haben es nicht gerne wenn sie die Daten in verschiedenen DB's zusammen suchen müssen.

So ist alles was wichtig ist immer in der "Default" DB vorhanden. Die "Deleted" DB ist eigentlich nur der Abfalleimer von dem man wenn man mal zu viel gelöscht hätte etwas wieder zurückholen kann.

 

Die GSAK Filtermöglichkeiten erlauben ja jederzeit dass was man sehen will zu finden ohne dass man alles in verschieden DB ablegen muss.

Auch kann ich dadurch jederzeit entscheiden was von der DB dann auf GPSr überspielt werden soll, da immer der aktive Filter + plus die sortier Reihenfolge bestimmt.

Bearbeitet von gzxto
Link zu diesem Kommentar
Auf anderen Seiten teilen

Hallo,

 

danke für Eure Hilfe. Ich habe ab morgen Urlaub und wollte eigentlich den einen oder anderen GeoCache suchen.

Nun, denke ich, ist es sinnvoll mich zusätzlich mit GSAK zu beschäftigen.

 

Ich merke, ich habe bisher nur an der Oberfläche von dem Programm "gekratzt". Nun werde ich weiter "eintauchen".

 

Viele Grüße von der Küste,

 

Volker aka VauPee

Link zu diesem Kommentar
Auf anderen Seiten teilen

Da sind deine gefundenen auch dabei

Da ich nur die „I haven't found „ in den PQs habe leeren sich meine nicht nur wegen archivierten sondern auch wegen meinen neu gefundenen. Spart bei mir immerhin 4 x 500er PQ‘s

 

Gute Idee, daran hatte ich noch gar nicht gedacht, die habe ich ja im MyFinds :-D

Merci! Muss da grad mal aufräumen ;-)

 

En Gruess, Thomas

Link zu diesem Kommentar
Auf anderen Seiten teilen

Hallo zusammen.

Ich nutze GSAK Datenbank auch als treuer Begleiter im Urlaub und erstelle mir dank Internetstick auch dann und wann neue Poket Queris gleich bei spontanausflügen im Urlaubsland. (Wir waren wirklich spontan auf Sardinien und haben dank Poket Queris gut Cachen können)

 

Nun zu meiner eigentlichen Frage.

Kennt jemand schon ein Programm, welches auch die 1000er Pakete auf der Homepage gleich selber holen würde?

So könnte ich meine "Datumsrange" etwas einkürzen und hätte wieder etwas mehr Übersicht über alle erstellten Poket Queries.

 

Gruss aus dem Appenzellerland

Marcel

Link zu diesem Kommentar
Auf anderen Seiten teilen

Hallo zusammen.

Ich nutze GSAK Datenbank auch als treuer Begleiter im Urlaub und erstelle mir dank Internetstick auch dann und wann neue Poket Queris gleich bei spontanausflügen im Urlaubsland. (Wir waren wirklich spontan auf Sardinien und haben dank Poket Queris gut Cachen können)

 

Nun zu meiner eigentlichen Frage.

Kennt jemand schon ein Programm, welches auch die 1000er Pakete auf der Homepage gleich selber holen würde?

So könnte ich meine "Datumsrange" etwas einkürzen und hätte wieder etwas mehr Übersicht über alle erstellten Poket Queries.

 

Gruss aus dem Appenzellerland

Marcel

 

Hallo Marcel,

 

ein Programm, welches die 1000-er PQ völlig automatisch holt, kenne ich nicht.

 

Ich nutze zum holen meiner PQs pqdl. Das muss ich zwar immer manuell anstossen, aber mit Hilfe eines einfachen Bat- files reicht da ein Mausklick. Bei längeren Abwesenheiten, gehen einem da halt einige PQs verloren, aber damit kann ich leben. Nach einer Woche ist alles wieder up to date abgesehen von ein paar eventuell fehlenden logs.

 

...und ja, es gibt da das Problem, dass GS programmatische Zugriffe auf die Website eigentlich nicht erlaubt :ph34r: . Da bei anderen Lösungen (Firefox add-in DownThemAll oder auch manuell) mehrere Downloads parallel angestossen werden können, und pqdl brav einen nach dem anderen macht, hält sich mein schlechtes Gewissen in Grenzen, denn so wird deren Server sicher weniger belastet.

 

Happy Caching,

FamWa

Link zu diesem Kommentar
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde Dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde Dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...