Hi,
die Frage ist mir schon peinlich , aber ich weiß es wirklich nicht. In meiner Vorstellung ist eine Webseite etwas "passives" das erst nachdem der User die Adresse in den Browser eintippt "aufwacht".
Ich entdecke gerade, dass ich Api`s von anderen Servern abfragen kann und die Daten in meinem Webprojekt anzeigen kann
Fürs erste hab ich diverse Wetter Api Abfragen von (openweathermap. org und climacell.co) verarbeitet. Funktioniert auch alles.
Meine Frage ist jetzt:
Im Moment hab ich es so gemacht, dass meine Webseite die Wetterdaten per ApiCall vom Server bei z.B. ClimaCell abfragt und auf meinem eigenen WebServer in ein File speichert inkl. des Datums/Zeit der Abfrage (UTC etc.). Bei jedem Besuch/Aufruf meiner Webseite schaue ich dann, ob das File älter als 15 Min. ist falls ja werden die Daten wieder neu vom ApiServer abgefragt. Hintergrund ist der, dass ich nur die kostenlosen Api Zugriffe nutzen möchte und diese pro Tag zahlenmäßig begrenzt sind.
Damit die Ladezeiten für den Seitenbesucher noch kürzer werden, wäre es besser, wenn mein Seite automatisch alle 15 Minuten die Daten abruft und das File schreibt (auch wenn die Seite gar nicht "besucht" wird).
Das würde ja bedeutet, dass meine Webseite sobald sie vollständig hochgeladen ist ohne Unterbrechung alle 15 Min automatisch einen Api Call starten müsste, ohne das die Website theoretisch jemals in einem Browser angezeigt worden wäre. Geht so was ?Wie macht man so was? Wie startet den dann der
Prozess? Oder bin ich da so was von auf dem Holzweg?
Ziel ist es, dass immer "frische" Daten (nicht älter als 15) auf meiner Seite in einem File bereitstehen, so das der Seitenbesucher nicht auf die Antwort des ApiCalls warten muss!
Ich benutze Asp.Net mit Blazer als UI (alles in einer Solution).
Hoffentlich versteht Ihr was ich meine, Danke für Antworten LG nogood
*Topic verschoben*
die Frage ist mir schon peinlich , aber ich weiß es wirklich nicht. In meiner Vorstellung ist eine Webseite etwas "passives" das erst nachdem der User die Adresse in den Browser eintippt "aufwacht".
Ich entdecke gerade, dass ich Api`s von anderen Servern abfragen kann und die Daten in meinem Webprojekt anzeigen kann
Fürs erste hab ich diverse Wetter Api Abfragen von (openweathermap. org und climacell.co) verarbeitet. Funktioniert auch alles.
Meine Frage ist jetzt:
Im Moment hab ich es so gemacht, dass meine Webseite die Wetterdaten per ApiCall vom Server bei z.B. ClimaCell abfragt und auf meinem eigenen WebServer in ein File speichert inkl. des Datums/Zeit der Abfrage (UTC etc.). Bei jedem Besuch/Aufruf meiner Webseite schaue ich dann, ob das File älter als 15 Min. ist falls ja werden die Daten wieder neu vom ApiServer abgefragt. Hintergrund ist der, dass ich nur die kostenlosen Api Zugriffe nutzen möchte und diese pro Tag zahlenmäßig begrenzt sind.
Damit die Ladezeiten für den Seitenbesucher noch kürzer werden, wäre es besser, wenn mein Seite automatisch alle 15 Minuten die Daten abruft und das File schreibt (auch wenn die Seite gar nicht "besucht" wird).
Das würde ja bedeutet, dass meine Webseite sobald sie vollständig hochgeladen ist ohne Unterbrechung alle 15 Min automatisch einen Api Call starten müsste, ohne das die Website theoretisch jemals in einem Browser angezeigt worden wäre. Geht so was ?Wie macht man so was? Wie startet den dann der
Prozess? Oder bin ich da so was von auf dem Holzweg?
Ziel ist es, dass immer "frische" Daten (nicht älter als 15) auf meiner Seite in einem File bereitstehen, so das der Seitenbesucher nicht auf die Antwort des ApiCalls warten muss!
Ich benutze Asp.Net mit Blazer als UI (alles in einer Solution).
Hoffentlich versteht Ihr was ich meine, Danke für Antworten LG nogood
*Topic verschoben*
codewars.com Rank: 4 kyu
Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von „Marcus Gräfe“ ()