Zum Inhalt springen

CH.GPX, GSAK und POI's


Tiago!

Empfohlene Beiträge

... nur wegen einem "Killer.Cache"

 

Hallo, vielen Dank für den Tipp mit dem Notepad++. Ich habe den Killercache gefunden. Irgendein Zeichen-Kauderwelsch hatte sich in eine Note von einem Geocache eingeschlichen. Nach dem Entfernen der "Zeichen" funktioniert das Macro einwandfrei.

 

Gruß, Volker aka VauPee

Link zu diesem Kommentar
Auf anderen Seiten teilen

  • 4 Monate später...
  • Antworten 82
  • Erstellt
  • Letzte Antwort

Top-Benutzer in diesem Thema

Top-Benutzer in diesem Thema

Veröffentlichte Bilder

Hoi zäme

 

Nach den letzten Problemen mit den PQs habe ich meine "Strategie" wiedermal überdacht. Da das spontane erzeugen von PQs nicht mehr so gut klappt wie auch schon, habe ich überlegt wie ich mir das einrichten könnte.

 

Die Überlegung ist, wie ich eine quasi Tagesaktuelle GSAK DB mit PQs erreichen kann. Dann bin ich natürlich wieder auf die Optionen gestossen und bin mir mal wieder (wie oft habe ich das schon recherchiert?) nicht im klaren was es bedeutet?

 

Es dreht sich bei mir immer wieder darum, WAS gebracht wird mit:

  1. Updated in the last 7 days
  2. Found in the last 7 days

Zu 1

Kriege ich hier alle Caches, die in irgendeiner Weise aktualisiert wurden? Also einerseits das Listing, der Status und auch Logs?

 

Zu 2

Kriege ich hier alle Caches, die neue Logs haben?

 

Kann ich also einfach 1 nehmen und habe zwie Fliegen mit einer Klappe erschlagen? Oder schliesst 1 die Logs aus?

 

PS: nachdem ich hier eine nette Erklärung bekomme, werde ich das in meinem Blog für alle Zeit festhalten ;-)

Link zu diesem Kommentar
Auf anderen Seiten teilen

Hoi baiba, ja da schon! Das habe ich auch so.Ich habe wie hier schon beschrieben die ganze Schweiz in PQs und die haben dann genau das gesetzt.

 

Allerdings ist es ja so, dass man quasi mehrere Tage braucht um die Schweiz komplett als PQs zu haben. Wenn man dann also am 4. Tag die letzten runterlädt, dann sind die ersten ja schon wieder 4 Tage alt. Aus diesem Grund die Frage, ob man wie eine art "Tagesdifferenz" jeden Tag zusätzlich laden kann. Also beispielsweise kann man ja ein PQ machen, wo "Found in the last 7 days" gesetzt ist. Diesen jeden Tag ausgeführt und in GSAK importiert, macht die GSAK DB "Tagesaktuell" in bezug auf die Logs. Wie halte ich aber den Cache (Status) aktuelle? Indem ich "Updated in the last 7 days" aktiviere? Das ist meine Frage.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Also, ich halte meine Schweizer DB wie folgt up-to-date:

 

16 Pocket Queries, welche die ganze Schweiz abdecken. Diese erstelle ich nach folgenden Kriterien:

- Run this query every week on the days checked

- Show me 1000 caches

- any type

- any container

- (manche Leute beschränken das noch auf "[x] I haven't found", aber ich behalte meine Funde gern in der DB, drum habe ich das nicht limitiert)

- within countries = Switzerland

- from origin = none selected

- placed during <von> and <bis>, siehe dazu weiter unten

 

Dadurch, dass man nicht geografisch, sonder nach Platzierungsdatum staffelt, hat man die Garantie, dass es keine Überlappungen und keine Lücken gibt und die PQs nie mehr als 1000 Caches enthalten.

 

Meine Staffelung sieht wie folgt aus:

Schweiz_01__2000-01-01__2005-11-15

Schweiz_02__2005-11-16__2006-11-15

Schweiz_03__2006-11-17__2007-09-03

Schweiz_04__2007-09-04__2008-05-08

Schweiz_05__2008-05-09__2008-11-04

Schweiz_06__2008-11-05__2009-05-20

Schweiz_07__2009-05-21__2009-09-12

Schweiz_08__2009-09-13__2010-02-12

Schweiz_09__2010-02-13__2010-05-31

Schweiz_10__2010-06-01__2010-09-08

Schweiz_11__2010-09-09__2010-12-30

Schweiz_12__2010-12-31__2011-03-26

Schweiz_13__2011-03-27__2011-05-27

Schweiz_14__2011-05-27__2011-08-02

Schweiz_15__2011-08-03__2011-10-12

Schweiz_16__2011-10-13__open

 

Ich hatte die so gewählt, dass es genau die Tage waren, damit das PQ gerade nicht 1000 überschreitet. Mit jedem archiviertem Cache werden die Queries nun kleiner, das letzte, offene wächste immer und wenn es 1000 überschreitet terminiere ich es und starte ein weiteres offenes. Ab und zu sollte ich wohl die Datumsbereiche überarbeiten, um nicht unnötig viele Queries zu haben, dazu war ich bisher aber noch zu faul.

 

Ich habe die Ausführungsdaten so gestaffelt, dass ich ab Sonntag jeden Tag 3 davon ausführe. Das lässt mir Platz auch ab und zu andere Queries laufen zu lassen. Das offene Query läuft 2x pro Woche, die anderen 1x. So habe ich bis am Freitag jedes mindestens einmal ausgeführt.

 

Diese Queries lade ich in GSAK V8 mit "PQ Download" direkt in die DB. So habe ich die Garantie, dass alle Caches mindestens einmal pro Woche aktualisiert werden, es sei denn sie wurden archiviert. Somit erkennt man archivierte Caches daran, dass das "Last GPX" Datum mehr als 7 Tage zurückliegt. Das prüfe ich nach dem PQ Download automatisch mit dem Review_For_Archive_API.gsk Makro, welches archivierte Caches dann automatisch in meine "Archiv-DB" verschiebt (oder auch löschen würde, was ich aber nicht will).

 

Ich hoffe, dass Euch das dabei hilft, eine Wochen-aktuelle Schweizer DB zu haben.

Link zu diesem Kommentar
Auf anderen Seiten teilen

- (manche Leute beschränken das noch auf "[x] I haven't found", aber ich behalte meine Funde gern in der DB, drum habe ich das nicht limitiert)

 

 

Hallo ich mache eigentlich alles genau so. Ausser dass ich das hier erwähnte Kreuzchen setzte und so weniger PQ's habe. Meine Funde bleiben in meiner Datenbank und werden ab und an Per MyFindsPQ aktualisiert.

Die frisch gefundenen aktualisiere ich mit "Refresh Cache Data" der GSAK v8.0.

 

 

Ab und zu sollte ich wohl die Datumsbereiche überarbeiten, um nicht unnötig viele Queries zu haben, dazu war ich bisher aber noch zu faul.

 

Bei diesem Problem hilft das Macro PlacedPQ.

 

 

Gruess Salbedo

Link zu diesem Kommentar
Auf anderen Seiten teilen

macht die GSAK DB "Tagesaktuell" in bezug auf die Logs. Wie halte ich aber den Cache (Status) aktuelle? Indem ich "Updated in the last 7 days" aktiviere? Das ist meine Frage.

Ob ein Cache frisch enabled oder disabled ist würdest du mit dieser Query auch sehen diese Information kommt auf jeden Fall mit. Ich könnte mir aber vorstellen dass die PQ "Updated in the last 7 days" von allen 14000 CH Caches auch schon über 1000 Caches enhält und du müsstes diese PQ auch noch teilen was langsam komplizert wird.

 

Die Archivierten siehst du aber nie weil sie einfach nicht mehr im PQ enthalten sind. Sie muss man wie schon beschrieben übers "GPX Date" filtern manuell oder mit einem Macro.

 

Neu gibts ja noch den "Status Check" der direkt übers API bei GC abfragt. Dort kommt auf jeden Fall der aktuelle Status zurück auch wenn dieser archiviert ist. Doch dies eignet sich aber nur für wenige gefilterte Caches (z.B. für eine Tour Vorbereitung) und sicher nicht um die 14000 CH caches damit zu updaten.

 

Ich habe nur Wochen PQs, und bevor ich es aufs Oregon schmeiss filtere Ich die archivierte raus.

Auf dem Feld rennen wir dann extrem selten gegen archiverte an. Die log müssen bei mir auch nicht Top aktuell sein. Wenn ich mal ganz ganz verzweifelt bin hab ich noch den Eiphone Joker ;)

Link zu diesem Kommentar
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde Dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde Dich hier an.

Jetzt anmelden

×
×
  • Neu erstellen...