Ich habe auf einem Linux System bei mir Zuhause eIn
Tool laufen, das seine Werte in eine sqlite Datenbank
schreibt (alle 10 Minuten einen neuen Datensatz).
diese Daten möchten ich gleichzeitig auch in meiner
mysql Datenbank auf meinem Webserver haben. Wie
könnte man das am besten umsetzen?
Hatte erst die Idee das über ne CSV zu machen, aber das
scheint mir nicht die beste Lösung weil halt alle 10 Minuten
ein neuer Datensatz kommt.
vor allem kann aus mal vorkommen, das der webhoster ausfällt, warum auch immer.
dann wäre vermutlich ein oder mehrere datensätze futsch auf der mysql-db.
Ein Cronjob auf der lokalen Maschine sollte den URL-Aufruf komfortabel erledigen können.
Du meinst wohl Zugriff auf den MySQL-Server. Die Zugriffsberechtigung ist auch nicht nötig, schließlich wird eine Datei des Webservers aufgerufen, die internen Zugriff auf die MySQL-Datenbanken hat. Demnach wäre eine Lösung mit PHP möglich.
Der Datenverkehr würde exponentiell ansteigen. Täglich dürften rund 150 Datensätze hinzukommen. Nach nur einem Monat sind das über 4000 Zeilen, die alle zehn Minuten (!) übermittelt würden.
Ok, das wäre Blödsinn
Andere Möglichkeit wäre nen SSH Tunnel zum Server, dann kannst du von deinem lokalen System auch direkt die DB ansprechen wenn dein Provider sowas zulässt. So arbeiten wir hier bei uns auch.
bevor ich mich an die Arbeit mache, das wäre das sinnvollste?
→ Neuste Daten aus SQlite oder mySQL per Cronjob mit nem PHP Script auslesen und in eine CSV schreiben
→ CSV per FTP mit Cronjob auf Server schieben (Geht das überhaupt mittels Cronjob?)
→ CSV auf Server per Cronjob und PHP Script wieder einlesen