Was, wenn Ihr Hosting-Provider Sie eines Tages anruft und Ihnen mitteilt, dass es in seiner Einrichtung ein katastrophales Feuer gab und jedes Bit an Daten auf seinen (Ihren!) Servern verloren gegangen ist!

Es ist natürlich höchst unwahrscheinlich und es ist wahrscheinlicher, dass Ihr Hoster die Daten besser sichert als Sie. Aber... es ist durchaus möglich und letztendlich sind Sie für Ihre Websites verantwortlich. Wenn Sie Kundenarbeit leisten, ist die Pflicht zur Sicherung noch wichtiger!
Also, was sagen Sie dazu, Leute? Wie sichern Sie Websites? Tun Sie es überhaupt? Ich muss zugeben, ich bin nicht so gut darin, wie ich sein sollte. Was ich tue, ist, gelegentlich den gesamten Inhalt einer Website herunterzuladen (einschließlich Datenbank-Dumps) und ihn lokal in einen Backup-Ordner zu legen. Mein gesamtes System ist redundant gesichert, also dachte ich, ich bin da sicher. Ich wünschte, ich würde etwas Automatisierteres verwenden.
Und die Auswahlmöglichkeiten sind...
- Ich mache es nicht. (sollten Sie!)
- Ich lade die Dateien lokal herunter. (und sichere diese)
- Macht mein Hoster das nicht für mich? (vielleicht sollten Sie nachsehen)
- Mein Hoster macht das für mich. (ich habe nachgesehen)
- Ich habe irgendeine Art von automatisierter Lösung. (teilen Sie sie mit!)
Die eigentliche Umfrage ist in der Seitenleiste! RSS-Leser müssen zur Website springen, um ihre Stimme abzugeben.
Ich lade einfach alle Dateien lokal herunter. Brenne sie auf eine CD und beschrifte sie sehr deutlich. Ich mache das normalerweise alle 2 Wochen. Abhängig von den vorgenommenen Änderungen an den Websites. Wenn ein Kunde nicht aktualisiert, ist es irgendwie sinnlos, es zu sichern... ;)
Wir verwenden eine App, die ein cPanel-Backup der gesamten Website (für jede einzelne) erstellt und es auf diesen Rechner herunterlädt. Dann verwenden wir jungledisk, um auf Amazon S3 hochzuladen. Auf diese Weise haben wir eine Kopie auf einem Rechner in unserem Büro sowie eine, die extern gespeichert ist.
Webserver hat Kopie der Produktionsdateien und Datenbanken.
Produktions- und Inhaltsdateien werden lokal auf gespiegelten Laufwerken aufbewahrt; dann synchronisiere ich auch mit einem Laptop (MS SyncToy).
Datenbanken werden regelmäßig in lokale Inhaltsordner heruntergeladen.
DVD-Backups werden regelmäßig erstellt.
Mein Hoster erledigt das für mich, und ich speichere wöchentlich lokale Backups. Und jeden Monat brenne ich sie auf DVD-R.
„Ich lade die Dateien lokal herunter. (und sichere diese)“
Ich lade die Dateien über FTP herunter (mit dem Komprimierungstool für Website-Backups meines Hosts) und sichere dann die lokalen Dateien mit Carbonite.
Ich verwende Subversion für den Code jeder Website. Für tatsächliche Inhalte mache ich automatisierte Datenbank-Dumps, die ebenfalls in Subversion committet werden. Für Dateien gibt es eine .zip-Datei, die alles enthält und manuell gespeichert wird.
Mein Hoster (Dreamhost) macht das automatisch für mich.
Wenn Sie Transmit haben, können Sie Automator verwenden, um die Online-Dateien mit einem bestimmten lokalen Ordner zu synchronisieren. Fügen Sie diese Aktion in iCal ein und Sie haben eine automatisierte Backup-Lösung. Ich glaube, Sie können auch ein Spiegelungs-Skript mit Fetch erstellen und dieses in iCal verwenden.
manuelle Downloads & dann verlasse ich mich auf mozy, um das zu sichern. Funktioniert bisher ziemlich gut.
Ich führe ein Ruby-Skript auf meinem Webserver aus, das meine Domain-Ordner und Datenbanken komprimiert und automatisch auf mein Amazon S3-Konto hochlädt. Es war unglaublich einfach zu tun (und ich habe hier vollständige Anleitungen/Screencasts http://www.christinawarren.com/2008/06/24/s3-backup-media-temple-gs/ — sie richten sich an (mt) Media Temple-Kunden, aber das Skript kann modifiziert werden, um auf jedem Server ausgeführt zu werden, auf dem Ruby installiert ist), und ich erhalte täglich eine aktualisierte Kopie auf S3. Ich habe es so eingestellt, dass es eine vorhandene Kopie ersetzt (ich mache nichts, wofür ich rekursive Backups benötige), aber es wäre einfach, es so einzustellen, dass es 7 Tage speichert, bevor es überschrieben wird.
Donnie — Sie könnten Jungledisk komplett vermeiden und einfach einen separaten CRON-Job haben, der das Backup direkt an S3 sendet. Es wäre sicherlich schneller/automatisierter. Ich glaube, jemand hat sogar etwas für Leute aufgeschrieben, die CPanel und S3Sync (das Ruby-Utility, auf dem mein Skript basiert) verwenden.
Ich kann nicht genug betonen, wie wichtig es ist, Backups zu haben. Selbst wenn Ihr Hoster es tut, sollten Sie mindestens monatlich eine Datenbank-Sicherung in Betracht ziehen, nur für den Fall.
Ich verwende rdiff-backup für Websites und Datenbanken.
Ich entwickle meine Website offline und verwende einen lokalen Webserver, um die Skripte auszuführen, die sie antreiben. Dann lade ich Änderungen über FTP auf die Live-Site hoch. Dieser Ansatz gibt mir einen vollständigen Offline-Spiegel der Website, der in meine (zugegebenermaßen sporadischen) Sicherungen der Festplatte einbezogen wird.
rdiff-backup, cronjobs und ssh erledigen das für mich. Die Datenbanken werden täglich mit mysqldumper gedumpt...
Verwendung von Cron-Jobs zur Erstellung von Backups alle 24 Stunden, Erstellung von Datenbank-Dumps, Sicherung aller Server- und Softwareeinstellungen, Sicherung von Maildir... Erstellung von Tarballs für jedes Backup und anschließendes Zippen aller.
Laden Sie diese regelmäßig herunter und brennen Sie sie dann gelegentlich auf DVD.
Verlassen Sie sich nicht darauf, dass "der Hoster das für mich tut". Ich kenne ein paar Leute, die dadurch all ihre Arbeit verloren haben.
Ich sichere meinen Website-Ordner jeden Sonntag um 2 Uhr morgens automatisch auf meine 500 GB externe Festplatte.
Ich brenne sie gelegentlich auf DVD, 2 Kopien, eine für dieses Haus und die andere bei meinem Onkel.
Ich schaue mir auch idrive und xdrive an, dort können Sie bis zu 2 GB oder 5 GB Dateien kostenlos speichern.
Rsync auf einen Linux-Server zu Hause.
Carbonite! Online-Backup-App für etwa 50 US-Dollar pro Jahr. Darüber hinaus bieten die meisten Hosting-Unternehmen, die wir nutzen, Backups an. UND, ich erstelle normalerweise Archivkopien lokal, wenn die Website größere Änderungen erfährt.
Ich benutze ein WordPress-Plugin, um meinen Inhalt zu sichern. Dann habe ich meine Theme-Dateien auf meinem lokalen Rechner, da ich die Themes lokal entwickle.
Mein Hoster macht das für mich. (ich habe nachgesehen)
Ich sehe hier einige großartige Ideen. Ich hoffe, Chris Coyier probiert einige davon aus und macht einen "How-to"-Post über diejenige, die für ihn am besten funktioniert hat.
Ich " mache eine einsatzbereite Verteidigung, indem ich für den Fall eines Versagens plane" ... das heißt, ich erstelle jeden Abend einen kleinen Bash/MySQLDump-Lösung per Crontab ...
... monatlich speichere ich einfach alle Markup-Änderungen an meinen Websites durch das Wunder des Tar-Befehls.
Erstens behalte ich alle meine Websites in SCM. Git ist mein bevorzugtes SCM. Ich behalte meine Git-Repositories auf meinem Linux-Server hier im Büro. So ist nicht nur alles dort gesichert, sondern ich habe auch eine vollständige Historie von Hinzufügungen, Löschungen und Änderungen. SCM mag für statische Websites wie Overkill klingen, aber das ist es nicht. Subversion ist auch gut, aber das Branching ist mühsam.
Zweitens liebe ich Time Machine. Zuerst dachte ich, es sei nur ein Gimmick und zu simpel für meine Arbeitsweise. Ich wurde korrigiert. TM macht das Zurückkehren zu einem bekannten Zustand oder einer früheren Version einer Grafik nicht nur einfach, sondern sehr schnell. Und es ist ziemlich unaufdringlich.
Schließlich verwende ich Capistrano, um die meisten meiner Websites zu verwalten. Capistrano wird typischerweise von Ruby on Rails-Entwicklern verwendet, funktioniert aber genauso gut für jede Website. Es ermöglicht mir, eine Reihe von Remote-Skripten über SSH auf dem Server auszuführen, um alles in einem Tarball zu verpacken und es per SCP an mich zurückzusenden. SQL-Datenbanken inklusive. Ich kann die Seite für Wartungsarbeiten herunterfahren, Updates einspielen, zu früheren Versionen zurückkehren. Glauben Sie mir, wenn Sie einmal Capify verwenden, werden Sie nicht mehr zurückkehren wollen. Wo ist also das Backup in Capistrano? Auf dem Webserver. Sie können Capistrano anweisen, X Versionen auf dem Server zu behalten, gegebenenfalls komprimiert.
Ich behalte lokale Kopien auf mehreren Rechnern (Arbeit, Zuhause) und auf Wechselmedien und halte alles mit Subversion organisiert, das von meinem Webhoster gehostet wird. Alte Sachen werden aus der lokalen Kopie gelöscht und halbjährlich auf eine stark komprimierte DVD-Sicherung geschoben.
Und ich habe Mean Deans Rat vor einiger Zeit befolgt – Crontab und Bash/MySQLDump täglich. Ist das übermäßig schützend?
Ich bin ziemlich besessen von Backups. Für jede meiner Websites sichere ich zwei Kopien (Zip und Gzip) meiner Datenbanken nach jedem Beitrag, jeder größeren Kommentarrunde und/oder Plugin-Änderung. Diese Backup-Dateien werden auf meinem lokalen Rechner gespeichert, der mit einem sekundären externen Laufwerk gesichert wird. Einmal pro Woche synchronisiere und sichere ich auch alle Dateien meiner Websites. Schließlich, ungefähr einmal im Monat, sichere ich alles auf ein drittes externes Laufwerk, das in einem feuerfesten Safe verschlossen aufbewahrt wird. Tolles Thema, Chris – es verdient auf jeden Fall mehr Beachtung...
Ich drucke es binär aus und zwinge die fünfzig koreanischen Kinder, die in meinem Keller eingesperrt sind, sich die Ziffern zu merken (sonst bekommen sie nichts zu essen). Der Keller wird dann durch eine Tresortür gesichert, die nur von Atomraketen oder tobenden Pinguinen mit Kettensägen durchdrungen werden kann.
Okay, im Ernst, ich sichere normalerweise automatisch über die Plugins des CMS oder richte einen Cronjob mit automatisierter E-Mail-Funktion ein. Auf diese Weise erhalte ich Backups per E-Mail, die automatisch im richtigen Ordner abgelegt werden. Einfach und es funktioniert.
Ich benutze das wp-backup Plugin für WordPress ;)
Und für die Dateien lade ich sie herunter :D
Die von mir erstellten Websites bestehen meist nur aus HTML/CSS, manchmal mit einfachem PHP. Ich verwende all meine Website-Projekte als Referenz, wenn ich an neuen Projekten arbeite (Sie wissen schon, wenn Sie diesen Moment haben: "Wie habe ich das früher gemacht?") und ich arbeite freiberuflich zu Hause und bei der Arbeit, wenn ich Zeit habe. Ich habe eine Kopie aller meiner Websites lokal auf meinem Heimcomputer und meinem Arbeitscomputer – ich denke, das sollte mich sicher genug halten.
„Ich habe irgendeine Art von automatisierter Lösung. (teilen Sie sie mit!)“
Ich verwende ein WordPress-Plugin namens [BackUpWordPress][1], das automatisch meine Datenbank und alle Dateien auf meinem Server sichert und sie mir als tar.gz-Dateien zur Verfügung stellt, die ich dann herunterladen kann. Die tar.gz-Dateien werden zusätzlich mit Jungle Disk gesichert, das ich zur Sicherung meines Laptops verwende.
[1]: http://wordpress.designpraxis.at/plugins/backupwordpress/
Wir verwenden Dropbox, das uns Synchronisierung auf mehreren Computern und Dateiversionierung bietet. Es ordnet einen Ordner in Ihrem System (Mac, Win, Linux) zu und Sie arbeiten direkt mit diesem Ordner, und die geänderten Dateien werden automatisch auf dem Server und allen anderen Computern im gemeinsam genutzten Dropbox-Ordner committet. Nützlich.
Mein Hoster sichert wöchentlich, aber diese Umfrage bringt mich zum Nachdenken...
Es scheint ziemlich einfach zu sein, eine Webseite (in meinem Fall PHP) zu erstellen, die einfach die gesamte Datenbank der Website sichert, z.B. als XML-Datei. Erstellen Sie dann eine Google App Engine-Anwendung, die deren Fetch URL API verwendet, um diese Seite abzufragen und die Ergebnisse im Google App Engine Datastore zu speichern. Das kostenlose Konto ist auf 500 MB begrenzt, aber das sollte für viele Websites ausreichen.
Die einzige Frage ist, wie man am zuverlässigsten die Google App Engine-Abfrage periodisch auslöst. Man könnte eine Seite in der Google App einrichten, die dies auslöst, und dann einen Cronjob, um die Google App-Seite periodisch abzufragen, aber das erscheint umständlich. Vielleicht gibt es eine Möglichkeit, nativ in der Google App Engine API periodisch einen Befehl auszuführen. Ich habe keine Python-Erfahrung, daher weiß ich nicht, wo ich anfangen soll zu suchen.
Dies würde Ihnen ein automatisiertes Offsite-Backup auf Google-Servern geben. Wahrscheinlich zuverlässiger als die lokale Speicherung, es sei denn, Sie haben ein RAID-Array eingerichtet.
Früher habe ich einfach eine Kopie auf meiner Festplatte aufbewahrt.
Aber jetzt benutze ich Subversion.
Ich habe immer noch keine gute Methode gefunden, eine Datenbank zu sichern... Ich muss wahrscheinlich lernen, wie das mit einem Cronjob funktioniert.
Ich arbeite tatsächlich von meinem Computer aus und lade die Änderungen, die ich vornehme, auf die Server meines Hosts hoch. Ich sichere meinen Computer auf einer externen Festplatte.
Mein Hoster macht das für mich (Host Europe). Ich lade einfach die komprimierten Backups von FTP herunter – sehr bequem.
Ich verwende eine automatisierte Lösung für Datei-Backups vom/zum Server. Die Software heißt Allway Sync, sie ist einfach und funktioniert.
Eine Software zur automatischen Sicherung von MySQL und MsSQL wäre großartig.
Ich verwende derzeit r-sync, um bei BQInternet.com zu sichern, das in New York hostet. Mein dedizierter Server befindet sich in Dallas, TX.
Ich bin dabei, meinen eigenen Server zu kaufen und ihn in Dallas, TX, unterzubringen, aber der neue Server wird mit (4x) 146 GB SCSI-Laufwerken in RAID 10 ausgestattet sein, was ein gewisses Maß an On-Site-Backups bietet und weiterhin den Server von BQInternet für Off-Site-Backups nutzt.
Ein paar Dinge
Erstens verwende ich Subversion, um ein Server-lokales Backup zu erstellen, falls ich von einer anderen Kopie einer Website booten muss (und manchmal behalte ich sie auch auf dem Server einer separaten Domain). Zweitens wird mein Server automatisch von meinem Hosting-Unternehmen gesichert. Drittens behalte ich alle meine Websites in einer lokalen Kopie auf meinem iMac. Viertens wird diese lokale Kopie über Time Machine auf einer externen Festplatte gespeichert. Fünftens behalte ich eine weitere Kopie auf meinem MacBook, die über Unison automatisch mit dem iMac synchronisiert wird, so dass es immer ein aktuelles oder fast aktuelles Backup ist.
Nun, da ich fast 99 % meiner Sachen offline entwickle, werden meine Daten lokal gespeichert und täglich gesichert (Time Machine rockt! ;) ). Außer den Datenbanken. Ich benutze mysqldumper, um jede Woche einfach Backups zu erstellen, sie herunterzuladen und auf einer Backup-Festplatte zu speichern. Also ... nun, doppelt gesichert, weil sich mein Hoster auch um solche Dinge kümmert. :)
Ich behalte eine lokale Kopie und benutze ein Programm namens Syncback, um eine redundante Kopie auf einem Wechseldatenträger (USB) zu erstellen.
Ich bin ziemlich einfach, was das angeht... ich lade einfach alle Dateien in einen lokalen Ordner herunter. Manchmal lege ich sie dann auf eine externe Festplatte, je nachdem
@Alle: Danke an alle fürs Teilen! Wow, viele gute Ideen hier. Wie ich bereits im Artikel erwähnt habe, lade ich einfach periodisch lokale Kopien herunter und lasse meine normalen Backups erledigen. Aber... ich glaube, das hat mich inspiriert, etwas Automatisierteres und Härteres zu tun.
Die Datenbank meines Blogs wird jede Nacht gesichert (ich bekomme die SQL-Datei täglich per E-Mail), und ich lade alle meine wichtigen Dateien einmal im Monat herunter. Die SQL-Dateien werden auch von Google gespeichert, da ich Google Apps für meine E-Mail verwende, und die Theme-Dateien werden auf einem anderen Server (von einem anderen Hoster, den ich aus einem anderen Grund verwende) und auf meiner externen Festplatte gesichert. Gelegentlich lade ich ein Backup meines Themes + WP-Images-Ordners + SQL-Datei nach Dropbox hoch. Ich bin ein wenig besessen. ;)
Ich entwickle tatsächlich alles auf meinem Mac unter Leopard und ähnlich wie auf Ihrem Bild wird alles mit Time Machine gesichert. Mit MAMP entwickle ich mehrere Blog-Projekte, was es mir ermöglicht, alles in einer lokalen WordPress-Installation zu belassen, und es wird automatisch gesichert.
Was die Datenbank betrifft, so mache ich das im Moment alles manuell, aber ich schaue mir Automatic MySQL Backup an, um zu sehen, wie gut es funktioniert.
Plesk für wöchentliche Backups von Serverkonfigurationen und Quellcode, und ein kleines Skript, das ich geschrieben habe, um meine Datenbanken jede Nacht zu dummen und sie an einen Remote-Server zu senden: http://nicksergeant.com/blog/programming/quick-shell-script-backing-databases-ftping-them-remote-server-and-notifying-me-any-file-changes
Oh, und alles ist auch Subversioned-up. Obwohl das Repo auf demselben Server wie mein Prod-Server liegt, ist das ein Fehlerpunkt, aber ich habe den Code lokal ausgecheckt (und mit Time Machine gesichert).
Im Moment passiert nicht viel außer meinem Blog, also lade ich einfach die Export-/Backup-Datei herunter, die WordPress erstellen kann.
Ich plane, ähnliche Funktionalität in mein eigenes CMS einzubauen, wenn ich dazu komme.
Ich entwickle offline. Ich muss nur die Datenbanken manuell sichern.
Ich lade Kopien lokal herunter und habe dann ein mozy.com-Konto, das sie für mich sichert. Während der Entwicklung einer neuen Website verwende ich mein Dropbox-Konto, um sie auf 3 verschiedene Computer zu synchronisieren. Selbst wenn eine Festplatte abstürzt, habe ich 2 weitere Optionen mit sehr aktuellen Versionen der Website, an der ich gearbeitet habe. Das Einzige, was die Synchronisierung mit Dropbox wirklich lange dauert, ist eine .psd-Datei. Alles andere ist nahezu sofort.
SVN.
Jede Version wird manuell gesichert und mit Anmerkungen versehen, eine Sicherung der Sicherung wird automatisch auf einem unserer Server erstellt.
Um all unsere Arbeit zwischen den verschiedenen Personen, die an einem bestimmten Projekt arbeiten, auf dem neuesten Stand zu halten, checken wir das Repository aus oder laden es in das Repository hoch. So arbeiten wir immer an einer gemeinsamen, aktuellen Version.
Ich benutze die normale Exportfunktion von WordPress. Manchmal (etwa 3 Mal im Jahr) lade ich den vollständigen lokalen Ordner herunter. Wenn mein Hoster das für mich tut, brauche ich es nicht :)
Ich glaube, ich habe ein bisschen zu viel des Guten, wenn es um Backups geht.
Mein Hoster macht Backups (ich habe nachgeprüft).
Ich habe ein Automator-Skript, das Transmit verwendet, um Dateien jede Nacht mit meinem Mac zu synchronisieren, und der Mac wird mit Time Machine gesichert. Die WordPress-Plugin-Datenbank-Sicherung läuft ebenfalls jede Nacht und sendet sie an mein Gmail-Konto.
Damit ich meine Website verliere, müsste eine Katastrophe sowohl meinen Mac als auch das TimeMachine-Laufwerk zerstören, während mein Hoster zerstört wird. Damit das passiert, passiert etwas sehr Schlimmes auf der Welt, und ich denke, ich hätte größere Sorgen als meine Website.
Ich mache immer DVDs als Backup meiner Websites auf monatlicher Basis, einschließlich aller Dateien und Datenbanken.
Ich sichere meine Webdateien auf einer externen WD-Festplatte in meinem Büro und ich sichere oft. Ich komprimiere die Dateien auch und lade sie in einen sicheren Ordner auf einer meiner persönlichen Domains hoch.
Ich habe den Fehler gemacht, nicht zu sichern, wie viele Leute. Ich habe nicht die Absicht, diesen Fehler zu wiederholen.
Ich würde gerne Subversion zum Sichern verwenden, besonders jetzt, da Coda dafür Unterstützung hat.
Das einzige Problem ist, dass ich um mein Leben herum nicht verstehe, wie ich es einrichten kann. Jeder "Einrichtungs"-Artikel sieht so aus, als wäre er für Entwickler geschrieben, die ihr ganzes Leben im Terminal verbringen. All diese SSH-Strings sind Unsinn für mich.
Wenn nun jemand einen Artikel schreiben möchte, den normale Leute (d.h. Front-End-Designer!) tatsächlich verstehen können – das wäre spitze.
@Nathan
SSH ist etwas, an das Sie sich bei Subversion gewöhnen müssen. Ich würde empfehlen, zuerst ein wenig SSH zu lernen (es ist eigentlich recht einfach, sobald man den Dreh raushat) – es gibt wirklich nicht viel zu lernen.
Was Subversion betrifft, das kann etwas komplexer sein. Ich verstehe nicht alles damit, nur genug, um das zu tun, was ich brauche. Einchecken (ci), Auschecken (co), Export, das ist so ziemlich alles. Capistrano erledigt normalerweise den Rest für mich.
@Nathan
Es gibt mehrere GUIs für Subversion, die die Verwaltung eines Repositories etwas erleichtern. Aber ehrlich gesagt müssen Sie die Grundlagen von SVN verstehen, bevor die GUIs einen Sinn ergeben. Beachten Sie, dass nur weil Sie ein Projekt unter Versionskontrolle haben, das nicht bedeutet, dass es gesichert ist, es sei denn, Sie verwenden ein Remote-Repository und/oder einen Server.
Der eigentliche Vorteil einer Versionskontrolle Ihres Projekts ist, dass Sie vorgenommene Änderungen rückgängig machen können (z.B. einen riesigen Fehler gemacht, über den sich der Kunde ärgert). Mit nur wenigen Befehlen können Sie zu einem funktionierenden TAG zurückkehren. Dann können Sie Ihre Probleme im TRUNK beheben oder einen BRANCH erstellen, um ein spezifisches Problem zu beheben. Dann MERGE Sie alle Ihre Änderungen wieder zusammen. Klingt schwierig, aber es passiert mehrmals täglich, also wird man darin ziemlich schnell gut.
Ich habe all meine Projekte auf GIT umgestellt und mag es ziemlich gut. Es ist viel schneller als SVN und ich mag die visuellen Werkzeuge, die Branches zeigen. GIT wurde entwickelt, um die Versionskontrolle für den Linux-Kernel zu verwalten, daher hat es eine Menge Gewicht hinter sich.
Also legen Sie los, tauchen Sie ins Terminal ein, das Wasser ist schön!
Gibt es also Alternativen zu den Versionssystemen, die einfacher sind, anstatt direkt ins Terminal zu springen?
Sie können einfache webbasierte Setups finden (manchmal sogar mit einem Klick!) für Dinge wie Content-Management-Systeme, Datenbanken usw. – warum gibt es nichts Ähnliches für das Einrichten von Versionierung? Es erscheint mir wirklich viel komplizierter und aufwändiger, als es sein müsste. Ich habe versucht, das SSH-Setup über das Terminal zu machen, und a) es hat nicht funktioniert, b) ich hatte keine Ahnung, warum es nicht funktionierte, weil ich keine Ahnung hatte, was ich tat, und c) die Anleitungen für meinen Server zum Einrichten (und jede Anleitung im Allgemeinen) gehen immer davon aus, dass Sie wissen, was Sie tun.
Ich verwende mediatemple zum Hosten. Ich habe eine lokale Kopie von allem (ich habe eine Ubuntu-Installation mit RAID 5). Ich checke alles in Subversion auf MT ein. Ich führe einen Cron-Job aus, um die Datenbank zu dummen und sie in SVN einzuchecken (täglich, wöchentlich oder monatlich, je nachdem, wie häufig die Website aktualisiert wird). Ich sichere alles alle 6 Monate auf DVDs und bewahre sie dann in meinem persönlichen Schließfach bei der Bank auf.
Ich habe auch einen Entwicklungsserver (ebenfalls Raid 5), der seine lokale SVN-Kopie jede Woche in Tarballs packt. Nur zur zusätzlichen Beruhigung.
Ich gebe auch allen meinen Kunden SSH-Zugriff und packe ihre Dateien/DBs täglich in Tarballs und sage ihnen, dass es ihre Verantwortung ist, ihre Backups durchzuführen.
Da ich mich nicht besonders gut mit Cron-Jobs auskenne, benutze ich SiteVault 2.2 (http://www.site-vault.com), das DBs und FTP sichert. Dank dieses Threads habe ich gerade entdeckt, dass V.3 jetzt Secure FTP unterstützt. Ich habe überlegt, zu Handy Backup (http://www.handybackup.net) zu wechseln, aber es ist wirklich teurer und ich bin mir bei den Funktionen nicht sicher. Ich werde es vielleicht herunterladen, um es auszuprobieren, da ihre neueste Version ziemlich aktuell ist (Juni).
Dann sichere ich offensichtlich den gesamten Ordner mit Mozy. Das mache ich für alle meine Kunden.
Sie sollten sich das hier ansehen: http://davidwalsh.name/backup-mysql-database-php
Es gibt viele großartige Ressourcen, die Ihnen helfen können, Ihre Website-Informationen zu sichern. Recherchieren Sie einfach, um sicherzustellen, dass Sie ein gutes Angebot von einem seriösen Unternehmen erhalten.