psnokia Geschrieben 16. September 2015 report Teilen Geschrieben 16. September 2015 Hallo zusammen Ich aktualisiere meine GPX Datei in GSAK Dabei setze ich die Maximalzahl der Fundlogs auf 5 Ich möchte nun die Gesamtzahl der Funde haben. Gsak zeigt mir aber eben nur 5 Funde an da ja nur 5 Logs IN DER DATENBANK vorhanden sind. Es ist ja leider fast unmöglich zu allen Caches alle Logs herunter zu laden. Das Ziel ist, irgendwie die Fundzahl durch 2.5 zu teilen und nur die Caches z.b. mit grösser 40% blauen Schleifchen zu Filtern. Ich hab ein Makro gefunden, das eine HTML Seite generiert, aber eben auch da müssten ich alle Logs zu allen Caches herunter laden. Es scheint als ob man die gesamt Loczahl nicht auslesen kann..... Ich weiss, dass man anhand der blauen Schleifchen sortieren kann, aber eben nicht im Verhältnis. FALLS Jemand ein einfaches Makro generieren kann, bin ich dankbar, so im Stiel Gesamtfundzahl auslesen / 2.5 = xx irgendwie Filter in gsaka setzen z.b. xx grösser 40 fertig gruess Peter Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
Mausebiber Geschrieben 16. September 2015 report Teilen Geschrieben 16. September 2015 (bearbeitet) So was? http://gsak.net/board/index.php?showtopic=22995&st=0&&do=findComment&comment=218407 Gruß, MB Gerade gelesen: the macro generated ratio is only accurate if you have all Found Logs for caches with Favorite Points in your database Also ist das Makro doch nicht so gut. Bearbeitet 16. September 2015 von Mausebiber Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
psnokia Geschrieben 16. September 2015 Autor report Teilen Geschrieben 16. September 2015 So was? http://gsak.net/board/index.php?showtopic=22995&st=0&&do=findComment&comment=218407 Gruß, MB Gerade gelesen: the macro generated ratio is only accurate if you have all Found Logs for caches with Favorite Points in your database Also ist das Makro doch nicht so gut. Genau, es nimmt nur die Anzahl Logs im GSAK, aber danke trotzdem. Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
Hinni&Simo Geschrieben 16. September 2015 report Teilen Geschrieben 16. September 2015 Also wenn es Dir nur um das Finden von Caches geht mit > x% FPs und nicht zwingend darum das mit GSAK zu machen, dann hilft Project-GC: http://project-gc.com/Statistics/TopFavPct Gruss Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
sbeelis Geschrieben 16. September 2015 report Teilen Geschrieben 16. September 2015 Wenn Du ein präzises Verhältnis in GSAK haben willst, führt kein Weg am herunterladen aller Logs aller Caches vorbei... Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
Mausebiber Geschrieben 16. September 2015 report Teilen Geschrieben 16. September 2015 Wie kommt man denn zu allen Logs? Wenn ich nur die vorhandenen Daten "refreshe" bekomme ich maximal 30 Logs Gruß, MB Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
sbeelis Geschrieben 16. September 2015 report Teilen Geschrieben 16. September 2015 (bearbeitet) Geocaching.com access->Get recent logs Bearbeitet 16. September 2015 von sbeelis Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
Mausebiber Geschrieben 16. September 2015 report Teilen Geschrieben 16. September 2015 (bearbeitet) Super, wieder was gelernt, die Funktion hatte ich bisher noch nicht beachtet. Edit: Wollte mal wissen, wie lange so etwas dauert, hier meine Messung als groben Anhaltspunkt: 5 Cache, mit etwa 100, 1000, 700, 600 und 1750 found, wobei die Funktion alle Logeinträge lädt, also auch DNF, Notes etc. Zeit für den Download von 4477 Logs war 4:30 Minuten, also ca. 6 Sekunden für 100 Logs. Das kann natürlich je nach Zugriffszeit auf den Server stark variieren, ich hatte heute eine recht gute Verbindung. Bearbeitet 16. September 2015 von Mausebiber Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
Hinni&Simo Geschrieben 17. September 2015 report Teilen Geschrieben 17. September 2015 Das bläht allerdings die DB massiv auf... meine Schweiz-DB (seit mehreren Jahren wöchentlich aktualisiert) war mit 30'000 Caches zu Spitzenzeiten auf >2GB. Ich habe dann bewusst letztes die alten Logs gelöscht und kam so auf 500MB. Da ich meine DB für GDAK täglich auf's Handy synchronisiere macht das noch was aus . Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
Empfohlene Beiträge
Erstelle ein Benutzerkonto oder melde Dich an, um zu kommentieren
Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können
Benutzerkonto erstellen
Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!
Neues Benutzerkonto erstellenAnmelden
Du hast bereits ein Benutzerkonto? Melde Dich hier an.
Jetzt anmelden