Zum Inhalt springen

CH.GPX, GSAK und POI's


Tiago!

Empfohlene Beiträge

Besten Dank! Ich denke nun habe ich das kapiert. Speziell das mit den Archivierten ist nun klar, warum man das eigentlich so machen muss.

 

Grummel, nachdem ich alles auf 1000er umgestellt habe überlege ich mir es tatsächlich auch wieder 500er via E-Mail zu nehmen. Das handling ist halt schon etwas bequemer. Aber ich weiss nicht ob ich es mag, dass mir dann nur eine PQ "Reserve" pro Tag reicht... ich muss mir das mal gaaaaanz genau abwägen.

Link zu diesem Kommentar
Auf anderen Seiten teilen

  • Antworten 82
  • Erstellt
  • Letzte Antwort

Top-Benutzer in diesem Thema

Top-Benutzer in diesem Thema

Veröffentlichte Bilder

Ich weiss nicht ob mein Posting von heute beachtet wurde, aber das Problem der "eine PQ pro TAG Reserve" hab ich damit auch gelöst.

 

 

Besten Dank! Ich denke nun habe ich das kapiert. Speziell das mit den Archivierten ist nun klar, warum man das eigentlich so machen muss.

 

Grummel, nachdem ich alles auf 1000er umgestellt habe überlege ich mir es tatsächlich auch wieder 500er via E-Mail zu nehmen. Das handling ist halt schon etwas bequemer. Aber ich weiss nicht ob ich es mag, dass mir dann nur eine PQ "Reserve" pro Tag reicht... ich muss mir das mal gaaaaanz genau abwägen.

 

 

Ich machs mittlerweile anders: Ich habe 13 "Tradi" Pocket Queries, welche mir nur Traditional, Earth- Virtual- und Webcam Caches importiert.

 

Dann importiere ich manuell gelöste Mysteries und auf Wunsch Multis.

 

Es hatte mir schlicht zuviele Waypoints auf dem GPS, mit welchen ich nichts anfangen kann.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Ich weiss nicht ob mein Posting von heute beachtet wurde, aber das Problem der "eine PQ pro TAG Reserve" hab ich damit auch gelöst.

 

Ich möchte halt alles komplett im GSAK haben. Ich versteh Dich glaub nicht ganz, aber ich möchte ja nicht nur die Tradis in GSAK haben. Auf dem GPS ists dann wieder eine andere Geschichte.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Besten Dank! Ich denke nun habe ich das kapiert. Speziell das mit den Archivierten ist nun klar, warum man das eigentlich so machen muss.

 

Grummel, nachdem ich alles auf 1000er umgestellt habe überlege ich mir es tatsächlich auch wieder 500er via E-Mail zu nehmen. Das handling ist halt schon etwas bequemer. Aber ich weiss nicht ob ich es mag, dass mir dann nur eine PQ "Reserve" pro Tag reicht... ich muss mir das mal gaaaaanz genau abwägen.

 

Bevor du umstellst schau dir mal pqdl an. Ich benutze das Tool seit Monaten um meine PQs automatisch herunterzuladen. Ich habe mir eine kleine Prozedur geschrieben, welche pqdl mit meinen Parametern startet, so dass nur die neuen PQs heruntergladen werden etc.. Nach dem Download starte ich GSAK und importiere :D :D .

Da pqdl immer eien PQ lädt, habe ich auch kein übermässig schlechtes Gewissen von wegen Zugriff mit einer Software. Interaktiv kann ich den Download von mehreren PQs parallel anstossen und belaste so den GS Server mindestens so stark.

 

So long,

FamWa

Link zu diesem Kommentar
Auf anderen Seiten teilen

Seh ich auch so, in GSAK immer alle Caches, für den export aufs oregon hab ich dann ein kombinierter Filter

-Alle Tradis bis und mit T4 (weil ich kein kletterer bin)

-Mysteries mit correctet cordinates (gelöst)

-Multis die in den UserNotes ein Kommentar haben. Will heissen ich habe mal bestimmt dass wir die machen wollen

Ein Knopfdruck generiert dann die Liste, bei mir ca 5400 Caches also nur 400 zuviel fürs 550er Oregon

 

Das PQdl hab ich auchmal angeschaut, doch es hat gegenüber dem Mail auch den Nachteil dass es mindestens einmal die Woche laufen gelassen werden muss sonst sind die älteren PQ auf dem Server Weg. und es ist halt illegal

Link zu diesem Kommentar
Auf anderen Seiten teilen

Hallo zusammen

 

Ich lade meine 1000er PQ's mit DownThemAll (FireFox Erweiterung) runter, da kann man einen Filter einstellen und dann werden mit 3 Klicks alle von der Site runtergeladen.

 

Wenn mann dann noch ein Tastenkürzel (z.b. F5) für den Load im GSAK einstellt ist man recht zügig. Aber man muss es halt doch häufiger machen als via Mail.

 

Gruess Salbedo

Link zu diesem Kommentar
Auf anderen Seiten teilen

Ich möchte halt alles komplett im GSAK haben. Ich versteh Dich glaub nicht ganz, aber ich möchte ja nicht nur die Tradis in GSAK haben. Auf dem GPS ists dann wieder eine andere Geschichte.

 

 

Nö nicht nur die Tradies. Ich will in GSAK

 

- Tradies (automatisch, alle 7 Tage)

- Webcams (dito)

- Earthcaches (dito)

- Virtuals (dito)

- gelöste Misteries (werden manuell ins GSAK genommen, nur wenn ich ihn gelöst habe. Plus Corrected Coordinates)

- WunschMulties (ich lade nur die welche ich machen will)

 

Falls ich mal spontan irgendwo hinfahre, kann ich die Region setzen und alles laden was im Umkreis von 5-10 Km ist. Und muss nicht noch gross selektieren, welche Multies will ich jetzt machen, welche Misteries kann ich noch lösen? Was gibts noch was gibts nicht mehr.

Link zu diesem Kommentar
Auf anderen Seiten teilen

ich habe mittlerweile 16 1000er PQs, die mind 1 x pro woche laufen 219f37b4-26bb-4a3a-8177-226cc615d194.jpg

sie sind wie folgt parametrisiert:

any type

any container

that (nichts angekreuzt)

diff >= 1

terr >= 1

within countries = switzerland

from origin (none selected)

placed during 01.januar2001 - 04.november 2005 (für CH-01)

und die daten der PQs bestimme ich mit der GSAKmakro.

der letzte PQ (CH-14) hat ein datum in der zukunft und den passe ich an, wenn GSAK bei der 1000er grenze motzt.

die CH-T5 sind auch speziell, da es mit einem radius über die ch-grenzen raus sucht.

 

täglich läuft "CH-NotFound". damit wird sichergestellt, dass alle neuen schweizweit in der DB angelegt werden.

 

leider klappt's mit den temp.disabled, die dann archiviert werden mit dem status nicht.

also mache ich bei einem bier einen manuellen update, bei dem ich alle temp.unavail. via die onlinepage den status verifiziere und ggf ein gpx runterlade. diese GPXs importiere ich anschliessend, was den status updated (archiviert oder wieder verfügbar)

die archivierten move ich dann in eine separate DB rüber.

 

wenn ich nun noch einen weiteren PQ benötige (ferien), dann disable ich einen der CH-xx und habe wieder platz um ihn laufen zu lassen.

 

wenn ich nun irgendwo hin gehe (CH) setze ich entweder einen cache dort als mittelpunkt und mache einen 15km-radius oder mache via die polygon möglichkeit einen angepassten ausschnitt.

diese kommen dann aufs 60er und einen grösseren radius (25km) lade ich auf's iPhone (Geosphere). so bin ich flexibel und habe alle infos offline bei mir.

 

viel spass beim 'nachbauen' :blush:

Link zu diesem Kommentar
Auf anderen Seiten teilen

kleiner nachtrag:

POIs mache ich mit allen gefundenen aus einem "My Finds" request, aus dem ich auch die statistik generiere.

da die POIs in der grösse nicht beschränkt sind, sind diese (fast) aktuell im tschiipii und natürlich auch im phoni

Link zu diesem Kommentar
Auf anderen Seiten teilen

täglich läuft "CH-NotFound". damit wird sichergestellt, dass alle neuen schweizweit in der DB angelegt werden.

Funktionert das zuverlässig ? Was ist wenn der Cache bevor der PQ läuft schon Published und gefunden wurde ? Ist ja nicht unmöglich bei all diesen FTF Huntern geht das schnell.

Ich glaube ein in die Zukunft offener Placed Datumsrange ist zuverlässiger.

 

leider klappt's mit den temp.disabled, die dann archiviert werden mit dem status nicht.

also mache ich bei einem bier einen manuellen update, bei dem ich alle temp.unavail. via die onlinepage den status verifiziere und ggf ein gpx runterlade. diese GPXs importiere ich anschliessend, was den status updated (archiviert oder wieder verfügbar)

Wenn die PQ Wöchendlich gemacht werden findest du die Archiverten zuverlässig mit einem "Last GPX Update not during the last 8 Days" Filter. Die Temp disabled bleiben dabei schön drin. Das filtern und den move in die deleted DB mach ich mit diesem Macro

Link zu diesem Kommentar
Auf anderen Seiten teilen

Musste gerade die vierzehnte 1000er anlegen, nachdem die Nummer 13 gerade mal den Datumsbereich seit dem 12. März umfasst... Unglaublich, wie viel in letzter Zeit publiziert wird! :blink:

Ok ok, habe auch einen, der gerade auf Review wartet... :rolleyes:

Link zu diesem Kommentar
Auf anderen Seiten teilen

Ich machs mittlerweile anders: Ich habe 13 "Tradi" Pocket Queries, welche mir nur Traditional, Earth- Virtual- und Webcam Caches importiert.

 

Dann importiere ich manuell gelöste Mysteries und auf Wunsch Multis.

 

Es hatte mir schlicht zuviele Waypoints auf dem GPS, mit welchen ich nichts anfangen kann.

 

Da ich zum Exportieren der Caches auf mein Colorado das Makro GarminExport benutze, habe ich das Problem mit den Waypoints nicht mehr. Ich habe dort "Send Child Points as POIs" angeklickt und betreffend POIs gibt es ja, soviel ich weiss, keine Limite.

 

 

<snip>

also mache ich bei einem bier einen manuellen update, bei dem ich alle temp.unavail. via die onlinepage den status verifiziere und ggf ein gpx runterlade. diese GPXs importiere ich anschliessend, was den status updated (archiviert oder wieder verfügbar)

die archivierten move ich dann in eine separate DB rüber.

 

Ich habe mir in den Optionen von GSAK auf die Taste F12 die Funktion "Waypoint>Status Check" gelegt. Dann geht das Prüfen des selektierten Caches innert einer Sekunde mit einem Tastenklick und der Cache ist dann als archived markiert, so er es dann wirklich ist. Bei mir hatten sich nämlich auch schon Lücken in den PQs eingeschlichen oder ich war in den Ferien und hatte nicht alle PQs runterladen können.

 

So long,

FamWa

Link zu diesem Kommentar
Auf anderen Seiten teilen

Musste gerade die vierzehnte 1000er anlegen, nachdem die Nummer 13 gerade mal den Datumsbereich seit dem 12. März umfasst... Unglaublich, wie viel in letzter Zeit publiziert wird! :blink:

Ok ok, habe auch einen, der gerade auf Review wartet... :rolleyes:

 

Nur die Schweiz? Ich bin beim meinem PQ 13 - 31.03.2011 bis OPEN noch bei ca. 700 caches (bis Datum Heute) Aber das machen wohl auf 13PQ's halt mal 10, 20 mehr oder weniger Caches dann halt eine neue PQ aus...

Link zu diesem Kommentar
Auf anderen Seiten teilen

Nur die Schweiz? Ich bin beim meinem PQ 13 - 31.03.2011 bis OPEN noch bei ca. 700 caches (bis Datum Heute) Aber das machen wohl auf 13PQ's halt mal 10, 20 mehr oder weniger Caches dann halt eine neue PQ aus...

 

Momentan habe ich in meiner DB für die Schweiz 12855 Caches (inkl. alle Arten, inkl. gefundene, ohne archivierte).

 

PlacedPQ.gsk macht folgenden Vorschlag:

 

post-1996-0-93787000-1305388099_thumb.jpg

Link zu diesem Kommentar
Auf anderen Seiten teilen

Heieieieie...

 

Geocaching.com weist 12880 Caches für die Schweiz aus. Da liegst Du also ganz nah dran. Ich vermisse da mit meinen 12544 wieder einige. Muss ich jetzt also nochmals meine PQ's durchgehen. Irgendwo muss ich also noch eine gravierende Lücke haben :angry:

 

Jaja klar, da gabs noch PQ's mit "That: Is Enabled" Das klärt einiges :blush:

Bearbeitet von neisgei
Link zu diesem Kommentar
Auf anderen Seiten teilen

Funktionert das zuverlässig ? Was ist wenn der Cache bevor der PQ läuft schon Published und gefunden wurde ? Ist ja nicht unmöglich bei all diesen FTF Huntern geht das schnell.

Ich glaube ein in die Zukunft offener Placed Datumsrange ist zuverlässiger.

 

 

Wenn die PQ Wöchendlich gemacht werden findest du die Archiverten zuverlässig mit einem "Last GPX Update not during the last 8 Days" Filter. Die Temp disabled bleiben dabei schön drin. Das filtern und den move in die deleted DB mach ich mit diesem Macro

 

ok, "CH-NotFound" bezieht sich natürlich auf "Ich habe den nicht gefunden" :rolleyes:

und das offene datum ist ja im letzten "CH-xx" drin

 

und mit dem "update not" habe ich schlechte erfahrung gemacht, da manchmal der status der "temp. not avail" nicht korrekt zurückgesetzt wird und die dann eben auch weg sind

 

so hat eben jeder seine eigene eingeschworene arbeitsweise :D

Link zu diesem Kommentar
Auf anderen Seiten teilen

  • 4 Wochen später...

Hallo,

 

ich denke ich bin in diesem Thread richtig. Ich habe insgesamt 264 Waypoints aus meiner Datenbank in GSAK gefiltert die ich auf mein Oregon 300 übertragen möchte. Die Übertragung mit "Send Waypoints..." funktioniert problemlos. Ich möchte allerdings das Makro "GarminExport" nutzen. Beim Erstellen der GPX / POI - Dateien, genauer "Export Active Found Caches as POI" erhalte folgende Feherlmeldung: GPX: XML Parse Error at line 23389 of 'c:\user\Volker\Appdata\Roaming\GSAK\temp\gpi.gpx' : not well formed (invalid token).

 

Aus dem GSAK-Forumerhielt ich den Hinweis, daß Problem im Zusammenhang mit den Sonderzeichen "ÄÜÖ" o.ä. Kennt jemand diese Fehlermeldung ? Kann jemand das Problem beseitigen ?

 

Gruß, Volker

Link zu diesem Kommentar
Auf anderen Seiten teilen

Ich kann es bestätigen. Eine Lösung ist, das gpx zuerst mit einem Text-Editor zu bearbeiten (suchen/ersetzen) und dann auf das Geräte laden. Es sind aber nicht immer nur Umlaute, es handelt sich evtl. ganz generell um "Sonderzeichen" irgendwelcher Art, die dann nicht XML Valid sind. ( = < > ' " können z.B. solche Kanditaten sein.)

Link zu diesem Kommentar
Auf anderen Seiten teilen

puhh - das wäre natürlich möglich, aber umständlich.

 

Es ist ja GSAK. Da steckt ja Swiss Army Knife, also ein Universal-Tool in der Abkürzung. Gibt es ausser der Text-Editor-Idee noch eine, eine GSAK-entsprechendere, Variante ?

 

Gruß, Volker

Link zu diesem Kommentar
Auf anderen Seiten teilen

??? Von dem hör ich das erste mal :unsure: .

Die CH Caches sind voll von Sonderzeichen, ob Deutsche oder Französische. Ich exportiere sowohl die Finds als auch die Placed als POI und habe nie das geringste Probleme gehabt. GSAK läuft bei mir auf Vista und beim Netbook auf Windows7. Das einzige was bei mir vielleicht speziell ist, ist dass ich dass ich beim Oregon die Original Englischen Settings habe(ob dies ein Einfluss hat? glaub ich nicht).

Mit einem Editor zuerst die Sonderzeichen rausputzen kann ja nicht sein, da hätte ich das Ding längstend aus dem Fenster geschmissen!

Ich kann dich beruhigen (oder eben beunruhigen) das dies kein generelles Problem sein kann, fragt sich nur was???.

Das Macro ja wird international ohne Probleme benutzt, und es soll auch Amis geben die Ihr Land verlassen und mal listings von Ländern mit Sonderzeichen laden.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Parse Error at line 23389 of 'c:\user\Volker\Appdata\Roaming\GSAK\temp\gpi.gpx

Hast du das file mal in ein editor geladen z.B. Notepad++ (der zeigt die Zeilennr.) und diese Zeile angeschaut ? Welcher Cache ist es ? Dann könnte ich den auch mal laden

Das Problem ist vielleicht nur wegen einem "Killer.Cache"

Link zu diesem Kommentar
Auf anderen Seiten teilen

Wie gzxto schreibt, wäre es Interessant irgendwie an das PQ zu kommen. (Es sind ja wohl zahlreiche Caches drin). Ich weiss ich hatte das einmal ganz am Anfang als ich mit Oregon und GSAK angefangen habe. Keine Ahnung was es war und warum ich es bisher nicht mehr hatte. :huh:

Link zu diesem Kommentar
Auf anderen Seiten teilen

V1.01 ist eh ein "must" wenn man mit GSAK arbeitet, nur schon wegen den zusätzlichen Attribute Informationen. Sollte aber nix mit Sonderzeichen zu tun haben... aber "sag niemals nie" auf jedenfall im GC Profile auf 1.01.

Bald wird es noch eine V1.x geben, mit zusätzlichen Favotitepunkt und Usernotes Informationen. Sind wir mal gespannt.

Bearbeitet von gzxto
Link zu diesem Kommentar
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde Dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde Dich hier an.

Jetzt anmelden

×
×
  • Neu erstellen...