Zum Inhalt springen

CH.GPX, GSAK und POI's


Tiago!

Empfohlene Beiträge

Danke an TommiB für die super Präsentation, habe soweit ich mal geschaut habe alles verstanden nun bin ich wieder gefragt und werde wohl ein paar PQ`s erstellen

 

Danke auch an die anderen.

 

HAPPY CACHING Grüsse IONPAINT

 

Nachdem du dir die Mühe gemacht hast die CH caches in GSAK zu bringen, braucht du noch das richtige Macro um die Caches möglichst effizient aufs Gerät zu importieren, schau dir das mal an.

Link zu diesem Kommentar
Auf anderen Seiten teilen

  • Antworten 82
  • Erstellt
  • Letzte Antwort

Top-Benutzer in diesem Thema

Top-Benutzer in diesem Thema

Veröffentlichte Bilder

Ich versuche gerade GSAK zu verstehen. Eine Frage zum transfer zum GPS. Ich bekomme da immer einen Fehler, dass gpsbabel nicht funktioniere. Also muss ich zuerst ein gpx exportieren und dann über MapSource wieder aufs Garmin laden. Kennt hier jemand dieses Problem? (Windows 7, 64Bit)

 

PS: Ich lade nur einzelne Caches (mit deren Child-Waypoints) währende der Versuche auf das Gerät.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Ich versuche gerade GSAK zu verstehen. Eine Frage zum transfer zum GPS. Ich bekomme da immer einen Fehler, dass gpsbabel nicht funktioniere. Also muss ich zuerst ein gpx exportieren und dann über MapSource wieder aufs Garmin laden. Kennt hier jemand dieses Problem? (Windows 7, 64Bit)

 

PS: Ich lade nur einzelne Caches (mit deren Child-Waypoints) währende der Versuche auf das Gerät.

 

So wie das verstehe hast du schon ein paar caches im GSAK.

GPSBabel ist das Program auf dem GSAK basiert, praktisch gesagt die Engine, erstaunt mich das du so eine error Message hast.

Was hast du für ein GPS (ein Garmin, wenn du Mapsource hast) ? Du kannts auf die allermeisten GPS Modelle direkt einfach über GSAK exportieren und Mapsource wird nicht gebraucht.

Welche Export Option hast du genommen?

Wie hast du die Cache Importier ? über PQ's, einzeln ?

Bearbeitet von gzxto
Link zu diesem Kommentar
Auf anderen Seiten teilen

Hoi zäme

 

Uff! Endlich versteh ich die Sache... Kann man vielleicht den 1. Post dahingehend ändern, dass Greenhorns wie mir klar wird, warum man das Ganze macht? :ph34r:

 

Ich fasse zusammen und bin um Korrekturen froh:

 

Wir wollen alle Geocaches aus Geocaching.com in Form von PocketQuerys (PQ - Query) in GSAK bringen. Das geht wegen einer Limitation von 500 Caches pro PQ nur auf Umwegen. Der Umweg ist der, dass die Querys Caches nach Erstellungsdatum liefern. Emsige Tüftler haben die optimalen Zeitbereiche herausgefunden (siehe Liste weiter oben) damit die 500er Limitation nicht überschritten wird, aber dennoch nicht zu viele Querys insgesamt benötigt werden. Denn die Zahl der Caches in einem Erstellungs-Zeitbereich der Vergangenheit bleibt logischerweise konstant. Jedenfalls fast, siehe nächster Absatz.

 

Die Anzahl der Caches pro Query kann mit der Zeit aber trotzdem unterschiedlich werden. Caches aus der Vergangenheit können archiviert werden (weniger Caches werden gefunden), oder archivierte werden wieder aktiv (mehr Caches werden gefunden). Und bei der Query beim aktuellen Zeitbereich kommen natürlich neu erstellte Caches hinzu. Aus diesem Grunde ist ein gewisser Puffer bei der Resultatmenge auch der Querys von alten Zeitbereichen nötig. Beim neusten Zeitbereich sowieso.

 

Alle Query sollten aus eben den oben genannten Gründen periodisch ausgeführt werden, um eine aktuelle GSAK Datenbank zu haben.

 

 

 

Jetzt muss ich nur noch verstehen, wie ich diese Caches von GSAK auf mein GPS bringe... :blink:

Bearbeitet von neisgei
Link zu diesem Kommentar
Auf anderen Seiten teilen

 

Die Anzahl der Caches pro Query kann mit der Zeit aber trotzdem unterschiedlich werden. Caches aus der Vergangenheit könen archiviert werden (weniger Caches werden gefunden), oder archivierte werden wieder aktiv (mehr Caches werden gefunden). Und bei der Query beim aktuellen Zeitbereich kommen natürlich neu erstellte Caches hinzu. Aus diesem Grunde ist ein gewisser Puffer bei der Resultatmenge auch der Querys von alten Zeitbereichen nötig. Beim neusten Zeitbereich sowieso.

 

Alle Query sollten aus eben den oben genannten Gründen periodisch ausgeführt werden, um eine aktuelle GSAK Datenbank zu haben.

 

Jetzt muss ich nur noch verstehen, wie ich diese Caches von GSAK auf mein GPS bringe... :blink:

Bravo, gut zusammen gefasst ! Noch ein paar Anmerkungen.

Die PQ Size nimmt auch noch ab weil du hoffentlich ein paar caches findest und beim filter "I haven't found" gesetzt hast.

Die PQ zu erstellen ist wirklich eine mühsame Annäherungsache um 500 nicht zu überschreiten und auf der anderen Seite keine PQ's zu verschwenden. Du kannst aber am Anfang "verschwenderisch" umgehen, wichtig ist einfach das du irgend wann alle caches die du willst (nehme an all CH) in der DB hast. Dann kannst du das Marcro hier laufen lassen, es teilt deine caches gemäss "placed" datum in perfekte PQ's ein. So kannst du auch einfach den Wechsel von den 500er zu den 1000er PQ's der am zweiten Mai passiert meistern.

Und noch etwas zu archived caches.. diese sind in den PQ's nicht mehr enhalten. D.h. wenn caches in der DB hast die ein älteres GPX date haben als dein PQ refresh cycle z.B. alle 7 Tage, sind sie zu 99% archivert worden. Damit du nicht plötzlich archivierten Caches nachjagst musst du sie löschen z.B. alles wo das GPX date älter ist als 8 Tage. Dazu gibs auch mehrere Macros, ich empfehle das.

 

Zum Device Import, GSAK kann fast zu allen Geräten importieren, wenn du ein Colorado oder Oregon hast schau dir unbedingt das an

Bearbeitet von gzxto
Link zu diesem Kommentar
Auf anderen Seiten teilen

Danke gzxto für Deine weiteren Erkärungen.

 

Wo ich jetzt aber die PQs am erstellen bin, sehe ich dass es auch die Option "Updated in the last 7 days".

 

Was ist im Update? Nur Änderungen bestehender, oder auch neue? Schön wäre tatsächlich wenn alles drin ist, was neu und geändert ist. Dann müsste man nur noch diese Query periodisch laufen lassen! Aber auch so, es wird überflüssig sein immer wieder alle die Datums Querys auszuführen. Aber da muss ein Haken dran sein, denn darauf seid ihr sicher auch schon gekommen oder?

Link zu diesem Kommentar
Auf anderen Seiten teilen

Wenn du die option Updated in the last 7 days setzt wirst du nachher Archivierte caches nicht mehr von un-besuchten caches unterscheiden können, ich habe nur die Option I haven't found gesetzt.

Du must einfache alle dein ca. 20 pocket queries auf die 7 Tage verteilen, sodass mind. alle einmal in der Woche updated werden.

Die älteren (Placed Date) PQ's werden eher immer kleiner die musst du nicht beachten. Die mit den neusten PQs wird irgendwann die 500er Grenze überschreiten, GSAK zeigt dir dies mit einem dicken roten Balken, dann musst du eine neue PQ erstellen

 

 

Ein PQ update enthält alles was du brauchst:

 

-Caches die neu sind werden im neusten PQ erscheinen und zu GSAK addiert.

 

-Bei Cache die inzwischen geloggt wurden werden die 5 neusten Loggs addiert, so wird GSAK mit der Zeit eine Log history aufbauen, dies ist vor allem cool weil man dann mehr als nur die 5 PQ Standard loggs aufs GPS exportieren kann!

 

-Cache wo die letzten 7 Tage niemand war, werden einfach wieder mit den gleichen neusten 5 Logs importiert, GSAK mach nichts, wichtig aber hier ist dass das Last GPX Datum wieder erneuert wird. Damit weisst du dass es den Cache noch gibt.

 

-Cache die von available auf un-available oder umgekehrt gehen werden mit diesem status in GSAK updated.

 

-Cache die archiviert wurden sind in update nicht mehr enthalten somit wird das das Last GPX Datum nicht erneuert.

 

-Cache die du gefunden hast sind auch nicht mehr enthalten (wenn du den I haven't found filter gesetzt hast).

 

 

Somit kannst du (z.B. einmal die Woche) mit einem GSAK filter Last GPX update älter als 8 Tage und Found status=Not Found die archivierten rausfiltern. Oder du nimmst das Macro das ich erwähnt habe, das kopiert die Archiverten in eine separate Deleted DB.

Vorher solltest du noch die "My Finds" PQ importieren, sie enthält alle (unlimitiert) deine gefundenen caches mit nur deinem eigenen Log. Damit weiss GSAK welche du gefunden hast und wird diese mit dem "Found by me" datum updaten. Ich habe eine eigene DB wo alle gefundenen sich befinden.

Bearbeitet von gzxto
Link zu diesem Kommentar
Auf anderen Seiten teilen

  • 3 Monate später...

hallo Zäme

Bevor mein PC das Zeitlich sengnete hate ich auf Gsak ein Macro das die Caches auf dem GPs sortierte das heiss Tradis werden mit der grünen und Multis gelb und mysteri mit dem blaunen fragezeichen angezeigt

 

Leider weiss ich nicht mehr welches Macro das war kann mir da jemand helfen und soviel ich weis musst ich die logos unter Garmin noch speichern sind aber auf dem Gps noch vorhanden

Link zu diesem Kommentar
Auf anderen Seiten teilen

  • 2 Monate später...

Hallo Zämme

Habe das Macro heute wieder gefunden und Installiert GCSE. Nun habe ich festgestellt das es für Tradi Micro ein rotes M

als BMP anzeigt. Alle anderen Tradis werden mit der grünen truck angezeigt ist das normal?

 

Die Antwort findest du sicher im GCSE Forum, wo du auch zusätzliche Fragen stellen kannst! :mellow:

 

Gruss

 

Andi

Link zu diesem Kommentar
Auf anderen Seiten teilen

  • 2 Wochen später...

Sehr interessant das mit dem holen von PQ und diese automatisch ins GSAK zu loaden! Nur wie richtet man GSAK ein?

Kann leider kein English.

Gibt es irgendwo auf Deutsch eine Anleitung, wie man GSAK einrichtet, damit es die PQ automatisch aus dem Outlookprogramm holt?

Und eine Anleitung, wie man GSAK einrichtet, damit die Cache's aufs Oregon kommen?

Benutzt man im GSAK den Button: "GPS-Send Waypoints" oder geht es über "File-Export-Garmin POI"?

 

Vielen Dank für Eure Infos.

 

 

Thekla

Link zu diesem Kommentar
Auf anderen Seiten teilen

Salve Forum

 

Ich habe mich endlich auch mal Zeit für GSAK genommen und hab mir 1000er PQ erstellt. Nun ist mir aufgefallen, dass nicht sämtliche aktiven Caches gesaugt werden. Beispiel (Zufall so wolle grad der Multi, den ich mir für gestern vorgenommen hatte). Friedvolles Bern.

 

Ausgewählt habe ich wie oben beschrieben mehrere Zeiträume und bei der PQ elf war es Juni - September 2010. Der genannte Cache wurde im August veröffentlicht.

 

Nun die Frage an die Kenner: Gibt es einen plausiblen Grund, dass zwischendurch einzelne Caches fehlen? Kennt Ihr sowas?

 

Ich hab übrigens Find 1000 Caches that I haven't found angeklickt.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Hatte noch nie solche Probleme

 

Wenn du nur den Filter Datum + "that I haven't found" selektiert hast solltest du alle in diesem Zeitraum die du noch nicht gefunden hast sehen, z.B. auch wenn ein Cache temp. disabled ist. Die einzigen die nie in einem PQ sind, sind Archivierte caches und das ist dein Beispiel offensichtlich nicht.

 

-Du kannst das Resultat deiner PQ überprüfen schon bevor sie erstellt wurden (preview Pocket Query), ist er dort auch nicht vorhanden?

 

-Hat dein Filter mehr als 1000 caches als Resultat ?

 

 

Noch das, wenn found status in GSAK z.B. nicht stimmt

-Hast du im GSAK deine Owner ID eingetragen ? (Tools=>Options=>General)

http://gsak.net/help/hs7690.htm

 

Ich persönlich habe immer noch 500er PQ weil ich sie so direkt über die Mailbox abholen kann. Über 500-PQs werden ja bekanntlich nur noch als Link verschickt und müssen manuell downloaded werden.

Aber das ist Bequemlichkeit und hat nix mit deinem problem zu tun.

Bearbeitet von gzxto
Link zu diesem Kommentar
Auf anderen Seiten teilen

-Du kannst das Resultat deiner PQ überprüfen schon bevor sie erstellt wurden (preview Pocket Query), ist er dort auch nicht vorhanden?

Nein!

 

-Hat dein Filter mehr als 1000 caches als Resultat ?

Nein <1000

 

-Hast du im GSAK deine Owner ID eingetragen ? (Tools=>Options=>General)

Ja

 

Ich persönlich habe immer noch 500er PQ weil ich sie so direkt über die Mailbox abholen kann. Über 500-PQs werden ja bekanntlich nur noch als Link verschickt und müssen manuell downloaded werden.

Aber das ist Bequemlichkeit und hat nix mit deinem problem zu tun.

 

Hmmm... Evtl. doch. Falsch ist, dass nichts versandt wird. Ich habe sehr wohl Mails gekriegt, weil sonst hätte ich ja keine Zips importieren können im GSAK?

 

Ich hab jetzt aber versuchsweise mal probiert zwei 500er Abfragen zu machen, aber dem Zeitraum. Und siehe da. Dieser Cache ist dabei! Jetzt will ich mal vergleichen wieviele Caches total neu dazukommen.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Hmmm... Evtl. doch. Falsch ist, dass nichts versandt wird. Ich habe sehr wohl Mails gekriegt, weil sonst hätte ich ja keine Zips importieren können im GSAK?

-bis 500 ==> Mails werden mit den PQ im attachement geschickt und können automatisiert via pop3 abgeholt und importiert werden

Nachteil: es müssen doppelt soviele PQ erstellt werden.

 

-über 500 ==> Mail enthält nur link zu den PQ's diese müssen dann manuell runtergeladen und ins GSAK importiert werden

Nachteil: 1. manueller prozess, 2. PQ werden nach 7 Tagen entfernt, wenn ich sie nicht jede Woche runter lade verliere ich Informationen ( lückenlose log history der Cache)

 

 

Ich hab jetzt aber versuchsweise mal probiert zwei 500er Abfragen zu machen, aber dem Zeitraum. Und siehe da. Dieser Cache ist dabei! Jetzt will ich mal vergleichen wieviele Caches total neu dazukommen.

Begreif ich nicht :wacko: wenn du 1000 PQ machst und das Resultat nicht über 1000 ist sollten auch alle die im Filter zutreffen enthalten sein :(

Bearbeitet von gzxto
Link zu diesem Kommentar
Auf anderen Seiten teilen

  • 4 Wochen später...

Ich habe ca 25 PQ mit allen Caches in der CH gemacht, 500er. Heute merkte ich unterwegs das einige fehlten. Zu Hause schaute ich wieso das wohl so ist. In den PQ sind diese aber auch nicht!? Werden also nicht geladen.

Hast du Znuk das Problem lösen können?

Danke für die Tipps

LG

Berner

Link zu diesem Kommentar
Auf anderen Seiten teilen

Hmmm gute Frage. Ich weiss es nicht.

 

Ich habe mittlerweile anstelle der 1'000er PQ auch ca.25 mit 500 erstellt, damit das per Email bene funktioniert.

 

Das tut es auch.

 

Der weiter oben erwähnten Cache ist in meiner DB enthalten, ich habe allerdings keine Ahnung ob er ausschliesslich wegen der "My Find" Statistik drin ist, oder ob er auch via Mails gesandt wird. Im Moment vermisse ich keinen. Was wir vielleicht mal vergleichen können: Wieviele Käschs zeigts Euch total an? Bei mir sinds 374 gefundene, 10840 weisse, 363 disablete und 3 eigene. Abzüglich der 7 ausländischen gäbe das 11'573 CH Cäches.

 

Wieviel habt Ihr?

Link zu diesem Kommentar
Auf anderen Seiten teilen

  • 6 Monate später...

Ich habe gerade meine PQ's überprüft und neue erstellt. Mit schrecken habe ich festgestellt, dass ich auch ein Datumsloch hatte. Wie sieht eure Schweiz-Einteilung momentan aus? Das GSAK Makro schlägt mir volgendes vor:

 

Placed by date PQ Generation

PQ From To Count Done

01 21.07.2001 18.04.2008 990

02 19.04.2008 04.10.2008 988

03 05.10.2008 02.05.2009 983

04 03.05.2009 29.08.2009 990

05 30.08.2009 19.01.2010 989

06 20.01.2010 21.05.2010 976

07 22.05.2010 28.08.2010 985

08 29.08.2010 11.12.2010 986

09 12.12.2010 18.03.2011 982

10 19.03.2011 Maximum date 839

 

Insgesamt habe ich derzeit 9700 plus/minus Waypoints in meiner DB. Was habt ihr?

 

Ich bin etwas verunsichert wie das mit den PQ's nochmals "richtig" konfiguriert wird. Gabs nicht irgendwo eine Erklärung aller Einstellungen für eine PQ, wenn man die wie oben in so Zeitslices einteilt?

 

Ich pröble grad an einem PQ rum, das täglich erzeugt werden soll mit den aktuellsten Änderungen. "Found in the last 7 days" und "Updated in the last 7 days" ist mir nicht ganz klar. Gibt denn ein "Found in the last 7 days" nicht auch automatisch ein "Updated in the last 7 days"? Found ist klar = Logeintrag. Update = (nur Listingupdate? Keine Logs zusätzlich?) Und ganz neue bekomme ich mit Updated? Hui, uiui.

Bearbeitet von neisgei
Link zu diesem Kommentar
Auf anderen Seiten teilen

Insgesamt habe ich derzeit 9700 plus/minus Waypoints in meiner DB. Was habt ihr?

 

Also ganz genau weiss ich es auswendig nicht, aber inkl. Funde sind es über 11'000.

 

Ich habe mittlerweile 27 PQ's (500er), eines davon läuft täglich und bringt die 500 nächsten rund um die Home-Koordinaten (inkl. der Eigenen).

 

Gruss Frienisberger

Link zu diesem Kommentar
Auf anderen Seiten teilen

Also ganz genau weiss ich es auswendig nicht, aber inkl. Funde sind es über 11'000.

 

Ich habe mittlerweile 27 PQ's (500er), eines davon läuft täglich und bringt die 500 nächsten rund um die Home-Koordinaten (inkl. der Eigenen).

 

Gruss Frienisberger

 

 

Ich machs mittlerweile anders: Ich habe 13 "Tradi" Pocket Queries, welche mir nur Traditional, Earth- Virtual- und Webcam Caches importiert.

 

Dann importiere ich manuell gelöste Mysteries und auf Wunsch Multis.

 

Es hatte mir schlicht zuviele Waypoints auf dem GPS, mit welchen ich nichts anfangen kann.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Ich habe gerade meine PQ's überprüft und neue erstellt. Mit schrecken habe ich festgestellt, dass ich auch ein Datumsloch hatte. Wie sieht eure Schweiz-Einteilung momentan aus? Das GSAK Makro schlägt mir volgendes vor:

 

Placed by date PQ Generation

PQ From To Count Done

01 21.07.2001 18.04.2008 990

02 19.04.2008 04.10.2008 988

03 05.10.2008 02.05.2009 983

04 03.05.2009 29.08.2009 990

05 30.08.2009 19.01.2010 989

06 20.01.2010 21.05.2010 976

07 22.05.2010 28.08.2010 985

08 29.08.2010 11.12.2010 986

09 12.12.2010 18.03.2011 982

10 19.03.2011 Maximum date 839

 

Insgesamt habe ich derzeit 9700 plus/minus Waypoints in meiner DB. Was habt ihr?

 

Ich bin etwas verunsichert wie das mit den PQ's nochmals "richtig" konfiguriert wird. Gabs nicht irgendwo eine Erklärung aller Einstellungen für eine PQ, wenn man die wie oben in so Zeitslices einteilt?

 

Ich pröble grad an einem PQ rum, das täglich erzeugt werden soll mit den aktuellsten Änderungen. "Found in the last 7 days" und "Updated in the last 7 days" ist mir nicht ganz klar. Gibt denn ein "Found in the last 7 days" nicht auch automatisch ein "Updated in the last 7 days"? Found ist klar = Logeintrag. Update = (nur Listingupdate? Keine Logs zusätzlich?) Und ganz neue bekomme ich mit Updated? Hui, uiui.

Keep it simple

Das einzige was du filtern musst sind die founds (die bekommst du mit

den myfinds) und die ignorelist falls du solche hast. Finger weg von

den 7 days not updated aus folgendem grund:

Wenn du alle 7 Tage updatest ist die einzige effektive Methode um

archiverte zu erkennen dass du ein Gsak filter "Gpx update älter als 8

Tage" machst und das resultat löscht oder in eine andere "deleted" DB kopierst.

 

Du hast viel zuwenig in der DB . Ich hab das Sackmesser gerade nicht

bei mir, aber Znuk lag im september sicher richtig, heute sinds schon

wieder mehr.

 

Das mit dem einteilungmacro funtz nur wenn du alle gewüschten caches

schon in der db hast.

Die strategie wäre dass du einmal verschwenderisch mit den Zeiträumen

umgehst und dadurch sicherstellst dass du alle caches in die db

kriegst. Nacher das macro laufen lassen um die finalen pq's zu machen.

Dann dies alle paar monate wiederholen um zu optimieren.

 

 

Ich mache übrigens auch 500er dass sie via Mail geliefert werden. Das

mit den anzahl PQ's zu vergleichen bringt nicht viel, je nach Anzahl finds

sehen die anders aus. Ich brauche 27 500er bei 1890 gefundenen.

Dasaktuellste PQ läuft immer 2 bis drei mal pro woche um die neusten immer zu haben

Bearbeitet von gzxto
Link zu diesem Kommentar
Auf anderen Seiten teilen

Merci für die ausführliche Antwort!

 

Keep it simple

Das einzige was du filtern musst sind die founds (die bekommst du mit

den myfinds) und die ignorelist falls du solche hast. Finger weg von

den 7 days not updated aus folgendem grund:

Wenn du alle 7 Tage updatest ist die einzige effektive Methode um

archiverte zu erkennen dass du ein Gsak filter "Gpx update älter als 8

Tage" machst und das resultat löscht oder in eine andere "deleted" DB kopierst.

Ok, glaube soweit hab ich das verstanden. Ich filtere bei den Datums-Querys nichts, nicht mal meine founds. Was aber eigentlich nicht schlimm ist oder? Ich habe dann halt einfach die aktuellsten Logs auf den Caches die ich auch geloggt habe. Bei mir sinds so wenige, da macht das Anzahlmässig noch nichts aus ;)

 

Ich mache übrigens auch 500er dass sie via Mail geliefert werden. Das

mit den anzahl PQ's zu vergleichen bringt nicht viel, je nach Anzahl finds

sehen die anders aus. Ich brauche 27 500er bei 1890 gefundenen.

Dasaktuellste PQ läuft immer 2 bis drei mal pro woche um die neusten immer zu haben

Aber mit den 27 PQ's wirds wohl langsam knapp, Du hast noch 8 übrig bis 35. Wie genau ist denn Dein "aktuellste PQ" konfiguriert (dasjeniege was bei dir 2-3mal läuft)? Gäbe es denn eine PQ Konfiguration, die alles Aktualisierte (Logs, Listing) der letzten 7 Tage holt? Anders gefragt; wie bleibe ich Tagesaktuell (wenn ich das denn wollte)?

 

Wenn es die PQ geben würde, die alle Aktualisierungen bringt, dann müsste man ja EIGENTLICH nur einmal die Datumsbereichs-PQ's holen und einspielen und die Aktualisierungen würden dann eben mit diesem einen PQ gemacht. Geht das denn nicht?

Link zu diesem Kommentar
Auf anderen Seiten teilen

Ok, glaube soweit hab ich das verstanden. Ich filtere bei den Datums-Querys nichts, nicht mal meine founds. Was aber eigentlich nicht schlimm ist oder

Bei mir spare ich 4 500er queries, aber stimmt ausser dass du ein bisschen verschwendest macht es nix

 

Aber mit den 27 PQ's wirds wohl langsam knapp, Du hast noch 8 übrig bis 35.

Immer noch genügend um PQ’s für z.B, Wochenend Trips nach DE zu machen

 

Wie genau ist denn Dein "aktuellste PQ" konfiguriert (dasjeniege was bei dir 2-3mal läuft)?

Gleich wie die anderen auch, der Datumsrange endet einfach in der Zukunft. Sobald dieses 500 erreicht wir der aktuelle Range fixiert und ein neues erstellt. Weil wir vorallem Wochenendcacher sind laufen diese kurz davor um sicher zustellen dass die neusten Caches bei der planung im Map Source sehen. Es geht weniger um die neusten logs sondern dass man die neusten Caches hat .

 

 

Wenn es die PQ geben würde, die alle Aktualisierungen bringt, dann müsste man ja EIGENTLICH nur einmal die Datumsbereichs-PQ's holen und einspielen und die Aktualisierungen würden dann eben mit diesem einen PQ gemacht. Geht das denn nicht?

Du kannst natürlich ein PQ über die ganze CH machen „Updated in the last 7 days“ doch dieses wäre extrem variabel, so dass in einer schönen Woche über 1000 Caches betroffen sein würden. Du müsstest die CH irgendwie wieder aufteilen.

Und dann noch das grösste Problem ….die archivierten zu erkennen… Die archivierten erscheinen einfach nicht mehr im GPX file und genau so erkennst du sie und entfernst sie. Wenn ein Cache über eine Woch nicht mehr ein einem deiner PQ’s erscheint ist er archiviert.

Wenn du nur noch die „Updated in the last 7 days“ caches hättest geht dieser Mechanismus nicht mehr.

 

Es ist einfach so… die PQ wurden nicht für GSAK gemacht, wir machen einfach das beste daraus ……und hoffen auf ein API das endlich kommt

Link zu diesem Kommentar
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde Dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde Dich hier an.

Jetzt anmelden

×
×
  • Neu erstellen...