Von jetzt auf gleich fällt eine komplette SSD oder Festplatte aus. Was war drauf? Waren die Sachen gesichert? Bekommt man die Daten wieder? Ein ganz aktuelles Beispiel aus meinem Alltag, mit Ideen für eure eigene Backup-Strategie.
Heute Morgen schalte ich meinen Rechner ein und er fährt nicht hoch. Gestern Abend war noch alles in Ordnung, ich habe ihn ordnungsgemäß heruntergefahren.
Erstmal stehe ich auf dem Schlauch. Windows zerschossen? Einen Virus eingefangen? Beides halte ich für eher unwahrscheinlich. Nach den üblichen Versuchen (abgesicherter Modus, Desinfec’t) fällt mein Verdacht auf einen defekten Datenträger. Dass eine Festplatte so komplett ausfällt, dass der Rechner nicht mehr hochfährt ist zwar eigentlich auch unwahrscheinlich, aber ich muss es zumindest testen. Also, Rechner aufgeschraubt, ein Laufwerk nach dem anderen abgezogen und siehe da, als ich meine zweite SSD abgezogen habe, fährt der Rechner wieder hoch.
Was ist passiert?
Meine Daten-Organisation
Kurz dazu, wie ich meine Laufwerke organisiert habe. Und zwar habe ich das Betriebssystem (Windows 10 Pro 64) und die Anwendungen auf einer ersten 512 GB großen SSD installiert.
Auf einer zweiten, gleichgroßen SSD habe ich die Windows Auslagerungsdatei, die Windows Hibernate Datei, meinen Lightroom Katalog, meinen temporären Ordner und Platz für Weiteres, das temporär schnelle Zugriffe erfordert, vorgesehen.
4 weitere größere Festplatten sind jeweils in zwei Raid 0 Verbünden eingerichtet, das eine dient zum Aufnehmen von meinen Originalen Zeitraffer-Sequenzen die ich gerade bearbeite und das zweite für die fertig gerenderten Clips.
Alles Weitere (Fotos, bereits abgeschlossene Zeitrafferprojekte, Daten, Buchhaltung, etc.) liegt in unterschiedliche virtuelle Laufwerke aufgeteilt auf dem NAS.
Das heißt, ich habe eine «Speed-Hierarchie» – am schnellsten sind die zwei SSDs, danach kommen die beiden Raids und am langsamsten ist der Zugriff auf das NAS. Der Speed-Vorteil der schnellen SSDs geht allerdings auch einher mit einer etwas größeren Anfälligkeit, wie ich ja nun schmerzhaft feststellen sollte.
Der Grund für den Ausfall
Als Grund, warum der Rechner nicht mehr hochfährt stellt sich nun heraus, dass die zweite SSD so vollständig kaputt ist, dass sie sich überhaupt nicht mehr ansprechen lässt. Auch nicht an einem anderen Rechner, auch nicht über einen externen SSD-Adapter (meiner Meinung nach übrigens ein unverzichtbares Werkzeug).
Das Problem, dass der Rechner nicht startet, ist also nun behoben – und zwar durch Abziehen der SSD. Der Grund für die Startblockade war einfach die nun nicht mehr erreichbare Hibernate-Datei. Darin speichert Windows beim «Herunterfahren» (das seit Windows 10 eben kein richtiges Herunterfahren mehr ist) den Inhalt des Speichers und stellt ihn beim Einschalten des Computers wieder her. Das geht schneller, als jedes Mal komplett durchzubooten. Wenn nun aber diese Datei auf einem korrupten Datenträger liegt, kann es offenbar passieren, dass sich alles verklemmt und das System nicht mehr startet. Nachdem der Datenträger weg war, hat Windows das bemerkt und halt konventionell gestartet. Kein Problem.
Dass aber nun die gesamte 2. SSD völlig über den Jordan war, hat mich schon getroffen. Nicht nur, dass das gute Stück ja nicht gerade günstig war und erst 3 1/2 Jahre alt, nein, die Frage war – was hatte sich darauf noch so alles an Daten im Laufe der Zeit angesammelt?
Das Blöde ist, wenn ein Laufwerk ausfällt, hat man oft keine Ahnung mehr, was da jetzt genau alles drauf war, wenn man sich nicht immer streng an seine selbst-auferlegte Disziplin gehalten hat. In meinem Fall mutmaße ich, dass es nichts Wichtiges war – außer eben mein Lightroom Katalog.
Sicherung – das A und O!
«Und was ist mit Sicherung?» – werdet ihr euch jetzt sicher fragen – der Gunther wird doch hoffentlich eine Sicherung seiner wichtigen Daten inklusive des Lightroom Kataloges haben?!
Ja, natürlich. Selbstverständlich ist mir das Sichern meiner Daten ein wichtiges Anliegen und ich habe eine einigermaßen durchdachte Sicherungsstrategie. Je wichtiger und unwiederbringlicher die Daten, umso besser und aufwändiger sind die Sicherungsvorkehrungen.
- Ich habe z.B. einen separaten Sicherungsdienst (Duplicati) auf einem Server laufen, der meine Business-Daten auf ein separates kleines Raid, das in meinem Serverschrank steht, sichert.
- Weiterhin sichere ich diese, sowie alle Fotos, Timelapse und Videos per Crashplan Small Business (10 € im Monat, unbegrenzter Speicherplatz, auch für Privatnutzer interessant!) off-site. Da landet alles, was unwiederbringlich ist. Also vor allem Business-Daten, Original-Fotos (RAW Dateien) und andere eigene Arbeiten.
- Darüber hinaus habe ich die wichtigsten Daten (nicht Bilder) auch noch per Resilio-Sync auf alle meine Geräte (Notebooks, Rechner etc.) als «Lokale Cloud» gespiegelt. Das ist zwar keine Sicherung, aber ein Plus an Sicherheit und es ermöglicht mir von überall aus darauf zuzugreifen ohne meine Daten bei Dropbox und Konsorten auf US-Servern zu deponieren. Bei Bedarf kann ich dazu gerne mal einen separaten Artikel schreiben.
- Der Lightroom Katalog wurde bisher mit Adobes Backup Funktion auf ein zweites Laufwerk gesichert, aber dazu gleich mehr.
- Exportierte Zeitraffer-Clips und Fotos z.B. sichere ich nicht, da ich diese jederzeit (mit etwas Rechenzeit) wieder neu erzeugen kann.
- Das Betriebssystem und installierte Anwendungen sichere ich auch nicht, da ich diese innerhalb von nicht mehr als 2 Stunden ohne Weiteres wiederherstellen kann.
Wichtig ist mir, dass ich jederzeit weiß, welcher Dateiablageplatz (Laufwerk) wie gesichert ist und mir so klar ist, welches Risiko ich eingehe, wenn ich Daten auf einem bestimmten Laufwerk ablege.
Achilles-Ferse Lightroom-Katalog
Den Lightroom Katalog habe ich bisher eher sporadisch gesichert, wenn Lightroom gefragt hat. Ziel war dann mein lokales Backup-Laufwerk. Ich gebe zu: viel zu oft habe ich den Dialog weggeklickt, weil ich meinen Rechner abends runterfahren und ich nicht noch auf die Sicherung warten wollte. Im Endeffekt habe ich die Sicherung dann vielleicht einmal im Monat gemacht… Tja – jetzt kommt das schmerzhaft zurück…
Ich gebe zu, der Lightroom-Katalog ist bei mir irgendwie schon immer die Achillesferse gewesen, da dieser Sicherungsprozess immer relativ lange dauert, und ich ihn daher viel zu selten mache. Und genau das hat mir nun bei meinem SSD Ausfall die meisten Schmerzen bereitet. Nämlich die Bearbeitungen meiner Bilder von der Bolivien-Reise, sie waren natürlich in der Sicherung von vor 3 Wochen (das war der letzte Stand im Backup) noch nicht bearbeitet. Selbst schuld. Da kann ich also nun von vorne anfangen.
Aber immerhin – solange weiter nichts weg ist (immerhin ist ja eine SSD mit einer Kapazität von einem halben Terrabyte einfach mal vernichtet worden) – solange will ich mich nicht beschweren!
Aber – ich bin ja jemand, der aus seinen eigenen Fehlern lernt, also habe ich mir einen Weg überlegt, wie ich den Lightroom-Katalog transparent und vollautomatisch, ohne mein Zutun und ohne Warten in Zukunft tagesaktuell sichern kann. Und das auch noch viel platzsparender als mit der Adobe-Methode. Dazu aber dann in Kürze in einem weiteren Artikel mehr.
Die SSD habe ich übrigens noch nicht durch eine gleiche ersetzt, da ich mir in Kürze ohnehin einen neuen Rechner zusammenbauen werde. Stattdessen verwende ich stattdessen derzeit eine meiner Angelbirds dafür – extern per USB3 angeschlossen, liefert sie fast die gleiche Performance, wie die interne Samsung SSD.
Learnings
Also – was lernen wir daraus?
- Festplatten und SSDs können ausfallen. Bei Festplatten merkt man oft (aber nicht immer!) Anzeichen und kann ggf. noch Daten retten, SSDs sind anfälliger und wenn sie ausfallen dann oft komplett und ohne Vorwarnung.
- Ein gut durchdachtes Sicherungskonzept ist ein absolutes Muss. Wenn ihr keines habt oder euch beim Lesen dieses Artikels etwas mulmig wird, dann nutzt die Zeit über die Feiertage, um euch Gedanken darüber zu machen. Wirklich!
- Eine Hierarchie bzgl. der Wichtigkeit der entsprechenden Daten und die Verteilung auf unterschiedliche Partitionen/Laufwerke und Einrichtung entsprechender Sicherungskonzepte macht Sinn.
- Unterschiedliche Partitionen/Laufwerke «Doppelt gesichert» (Lokal und Off-Site), «Einfach gesichert» (Lokal) und «Nicht gesichert» erleichtern es ungemein, die Disziplin zu halten. Am besten ist es, pro Partition/Laufwerk eine Sicherungsstrategie festzulegen, ansonsten wird es schnell zu kompliziert und ihr könnt es euch nicht merken. Wenn ihr z.B. wie ich entschieden habt, dass euer Systemlaufwerk nicht gesichert wird, dann solltet ihr darauf auch keine Daten speichern, die ihr gerne aufheben würdet.
- Wenn etwas auf einem «ungesicherten» Laufwerk landet, dann solltet ihr davon ausgehen, dass ihr darauf verzichten könnt, im Falle eines Falles.
- Man kann und muss nicht alles sichern. Was sich mit vertretbarem Aufwand wieder besorgen lässt, sichere ich nicht. Ich sichere auch keine installierten Anwendungen oder das Betriebssystem.
- Und last but not least – denkt immer daran: Die Frage ist nicht, ob ein Datenverlust eintritt, sondern wann. Quod erat demonstrandum.
Wie sichert ihr eure Daten? Hattet ihr schonmal einen Ausfall? Ich freue mich über eure Kommentare!
Hat Dir der Artikel gefallen?
Dann melde Dich doch bitte zu meinem kostenlosen Newsletter an. Dann bekommst Du eine Nachricht bei neuen Artikeln und Du wirst auch exklusiv als erstes über neue Workshops und Reisen informiert! Außerdem gibt es dort auch immer wieder Hintergrund-Infos, die so nicht im Blog stehen.
Natürlich freue ich mich auch sehr, wenn Du mir bei YouTube, Instagram und Facebook folgst.
Alle Inhalte © Gunther Wegner
*) Mit einem Stern gekennzeichnete Links sind externe Partner-Links. Ihr unterstützt mich, wenn ihr darüber bestellt. Alternativ könnt ihr auch über folgende Direktlinks in die Shops wechseln:
Amazon.de, Amazon.at, Amazon.com, Foto Koch, Augenblicke-Eingefangen, camforpro.com.
Über meine Zusammenarbeit mit externen Partnern habe ich hier ausführlich geschrieben. Danke!
Hallo Gunther,
Danke für den Einblick in deine Datenorganisation.
Welche Platten nutzt/empfiehlst du intern für den PC?
Eignen sich dort auch die Nas-Platten? (RED, IronWolf)?
Danke
NAS Platten sind nicht für den Einsatz im PC geeignet, weil sie nicht darauf ausgelegt sind, ständig rauf und runtergefahren zu werden sondern für den Dauerbetrieb.
Welche Platten nutzt du im PC?
In der Größenordnung um 6TB finde ich fast ausschließlich NAS Platten
Hallo Günter
Ich hab mal noch ne Frage zur Fotoanzeige bei Windows 10.
Wenn ich dort Bearbeitungen vornehme und dann speichere verringert sich die Datenmenge der jpg Datei extrem;
aber ich möchte mein Bild ja nicht verkleinern.
Ich habe für das Speichern aber bisher keine Einstelloptionen gefunden.
Gibt es da etwas einzustellen?
Gruß Dietmar
Sorry, keine Ahnung. Ich nutze das Programm nur zur Anzeige. Zum Bearbeiten gibt es ja wirklich bessere, auch kostenlos, z.B. Paint.Net.
Hallo Dietmar,
Es gibt in der Foto-App keine Optionen für das Speichern.
Vergiss den Windows 10 App-Schrott und verwende Faststone Image Viewer oder XNView, beide funktionieren nicht nur als Bildbetrachter. Gibt fast keinen Parameter, den Du da beim Speichern nicht einstellen kannst.
LG aus IBK
Hallo Gunther,
hattest Du die SSD in GPT oder MSDOS formatiert (also die Partitonstabelle angelegt)?
Weil: erstere hat ja einen Check per Prüfsumme und ein Backup am Ende des Datenträgers mit dabei, während letztere «einfach kaputt ist», wenn mal ein Bit umfällt …
Weiß nicht, was Du mit Backup am Ende des Datenträgers meinst, aber die SSD war sicher als GPT partitioniert.
nach dieser Beschreibung gibt es die Partitionstabelle bei GPT zwei mal: einmal normal im MBR und einmal am Ende des Datenträgers – quasi als Backup:
Abschnitt «MBR VS GPT in Security» in https://www.partitionwizard.com/partitionmagic/mbr-vs-gpt.html
Muss ja nicht die Partitionstabelle gewesen sein, die es zerschossen hat, ggf. war es ein Hardware Problem.
das schließe ich ja nicht aus – ich wollte nur darauf hinweisen, daß man bei der Einrichtung darauf achten sollte bei heutigen Rechnern, weil’s eine zusätzliche Sicherheit einbaut.
Ich hab schon lange kein aktuelles Windows mehr aufgesetzt, bin aber über «Usually, the default setting of Windows is to initialize to MBR and most of you straightly click «OK» to perform this initialization without choosing GPT. » stutzig geworden.
Mein Wissensstand war eigentlich der, daß GPT Voraussetzung bei (U)EFI sei – aber wie gesagt – lange nicht mehr probiert.
Hallo,
Ich bin momentan so unterwegs:
mein Laptop hat eine 250 GB SSD auf der mein Win 7 Pro und alle Programme laufen, in einer Partition der SSD Platte habe ich dann noch den LR Katalog und die aktuell zu bearbeitenden Fotos.
Alles aus der Partition mit Katalog und Fotos kommt auf eine 2,5″ Platte 1x am Tag «gespiegelt». Des weiteren befinden sich da drauf auch die fertig bearbeiteten Fotos aus dem gesamten Jahr (2017 & 2018).
Alles, was sich auf der 2,5″ Platte befindet, kommt 1x pro Woche auf eine 3,5″ Platte gespiegelt. Auf dieser befinden sich dann auch alle weiteren «Jahresordner».
Diese 3,5″ Platte wird dann auch noch 1x pro Monat auf eine weitere 3,5″ Platte gespiegelt und dann wieder bei einem Verwandten zu Hause gelagert.
NAS ist noch keine Option, da in meiner Umgebung das Internet noch mit Upload Raten von 1–5 Mbit/s funktioniert, also kann ich das vergessen.
Was ich aber gerne machen würde, wäre die 2,5″ Platte wo täglich gesichert wird mit einem 3,5″ Raid 1 Verbund zu tauschen. Einfach um da noch etwas mehr Ausfallsicherheit rein zu kriegen (klar kann auch der Raid Kasten den Geist aufgeben und beide Platten killen) und auch um evt. auf die Daten schneller zugriefen zu können und auch damit zu arbeiten, wenn mir auf der SSD der Platz ausgeht bei größeren Aufträgen. Könnte dann auf dem Raid auch mehrere «Jahresordner» drauf lassen da Platz genug wäre.
Was meint ihr dazu? Gibt es Empfehlungen eurerseits zu 2‑Bay Raid 1 Gehäusen bzw. komplett Systemen? Habe da etwa an die Icy Box IB-RD3620SU3 mit 2x WD Red 4TB gedacht oder WD MyBook Duo wo auch 2x WD Red 4 TB verbaut wären. Danke schon mal vorab wenn mir jemand Tipps und Empfehlungen geben kann!
LG Dennis
Ich wäre für Hilfe sehr dankbar
Was hat NAS mit der Internet-Geschwindigkeit zu tun? Solange Du im Haus ein einigermaßen schnelles LAN hast, ist ein NAS die bessere Option, da skalierbar. Und selbst wenn Du kein Netzwerk im Haus hast, kannst Du die meisten NAS auch direkt via eSATA oder gar USB an den Computer anschließen.
Aus meiner Erfahrung heraus sind diese 2‑Bay Raid gehäuse nicht so besonders…
Hi Gunther, habe mich da jetzt wohl zu schnell und zu doof ausgedrückt, mein Fehler ;) Also ich habe zuhause nur die Möglichkeit ein NAS an den Router zu hängen und dann über das (genannt furchtbar langsame) WLAN darauf zu zu greifen. Das hängt dann ja von der Internet Übertragungsrate ab wenn ich vom WLAN zugreifen muss, oder? (Sorry bin da totaler Laie) Der Router könnte ja deutlich mehr.
Bei uns fehlt dann leider eine LAN Verkabelung in weitere Zimmer. Der Router steht nicht im selben Raum wie mein PC, also wäre mein NAS dann leider nicht mit LAN Kabel zu verbinden.
Ich könnte die NAS Gehäuse also auch ohne LAN oder WLAN wie ein von mir beschriebenes Raid 1 Gehäuse mit 2 Platten benutzen?
Die Geschwindigkeit des internen Netzes (WLAN oder LAN) hat nichts mit der Internetgeschwindigkeit zu tun.
Aber ja, meist wir ein Zugriff über WLAN eher langsam sein.
Du kannst aber wie gesagt, ein NAS anschaffen, und das direkt an den Rechner hängen (ähnlich ein solches Raid Gehäuse). Mustt halt mal schauen, welche das unterstützen.
Perspektivisch mal LAN Kabel zu verlegen, ist sicher eine sinnvolle sachen. Gibt auch flache Kabel, die man außen am Haus lang und durch Fenster führen kann, ohne alle Wände aufzustemmen.
Ok, verstehe. Aber wenn ich ein NAS Anschaffe und das dann an den Rechner via USB hänge macht es ja das gleiche wie ein normales Raid Gehäuse mit 2 Einschüben, dann ist der Aufpreis für NAS für meine Anwendung ja Schwachsinn? Korrigier mich wenn ich da falsch liege. Dann tun ja die von mir anfangs genannten Gehäuse den selben Dienst?
Weiters sehe ich jetzt auch nicht den Sinn der NAS über LAN Kabel, wenn ich darauf nur von meinem Rechner zu Hause zu greife und die NAS auch im selben Haus steht?
Im Endeffekt musst du das ja selbst entscheiden. Ein NAS skaliert halt viel besser, ist aber auch teurer. Wenn Du mit einem 2‑Platten Gehäuse hinkommst und kein Netzwerk brauchst, warum nicht. Ich traue den günstigen Dingern halt nicht besonders. Ist ja auch die Frage, was Du für ein Raid fahren willst. Ich persönlich würde mindestens auf Raid 5 setzen, das geht halt mit einem 2‑Platten Gehäuse nicht.
Den Aussagen von Gunther schließe ich mich an. Was ich aber nicht immer so ganz nachvollziehen kann, warum so immens große Festplatten? Klar, die Kapazität ist maßgebend, aber warum nicht auf mehrere kleine Festplatten verteilen, sprich mehr Redundanz und vor allem mehr Performance(Auch bei Raid0+1 oder Raid10)!? Wenn eine 4TB Platte kaputt geht ist viel Geld hinüber. Dagegen mehrere kleinere Festplatten die man günstig nachkaufen kann. Ich verfolge dieser Philosophie schon seit ein paar Jahren, und sagen nur TOI TOI TOI. :)
Kleine Festplatten erzeugen natürlich mehr Organisationsaufwand. Weiterhin ist es so, dass ein Raid mit kleinen Platten, wenn es voll ist, erfordert, dass alle Platten getautscht werden, um mehr kapazität zu erzeugen. Wenn man also ein 4, 6 oder 8‑Bay NAS hat, würde ich eher mit wenigen großen Platten starten und sukzessive dann weitere dazustecken, als mit vielen kleinen. Spart auch erstmal Strom.
Also danke erstmal für die Denkansätze! Was versteht man unter ein NAS skaliert viel besser? Und ist ein NAS nicht deshalb teurer, weil es gegenüber normalen Festplattengehäusen mit Raid halt mehr funktionen besitzt? Ich habe momentan etwa 300–400GB pro Jahr an Fotos die anfallen, Tendenz steigend. Wobei dutchaus vor dem «ausmisten» bei manchen Aufträgen auch mal in 2–3 Wochen 500 GB anfallen, daher brauche ich dann schin Luft nach oben, um nicht nach einem Jahr schon alles voll zu haben.
Das Backup würde ich weiterhin auf den 2 externen Einzelplatten weiter belassen, diese haben jeweils 4 TB und genügt für eine Weile als reines Archiv. Wäre dankbar für konkrete Vorschläge auf meine beschriebene Situation
Skaliert besser heißt, Du kannst es erweitern.
Wenn man jetzt auf 2 oder 4 bay NAS geht, gibt es hier empfehlenswerte Modelle oder Hersteller, wo nur das Gehäuse ich sage mal max. 300 € kostet? Oder muss man dann doch tiefer in die Tasche greifen?
Hallo Günter,
erstmal tut mir das leid für dich ich weiß wie man sich fühlt wenn plötzlich alles weg ist man könnte heulen…
mich hat vor zwei Wochen durch einen Fehler bei der NAS-Migration auch ein Datenverlust getroffen, aber ich habe den Lightroom Katalog noch komplett weil er auf einer anderen Platte gesichert war und ich habe alle 40000 Bilder bei Adobe in der Cloud gesichert.
Leider sind aber alle original Bilder auf dem Quell NAS weg und nicht oder nur lückenhaft wieder herstellbar. Gibt es eine Möglichkeit aus dem unversehrten Lightroom-Katalog in Verbindung mit dem Cloud-Speicher die Bilder wiederherzustellen? Exportieren…?
viele Grüße
Michael
Das was Du bei Adobe in der Cloud hast, solltest Du ja wiederbekommen. Wie das genau geht kann ich Dir leider gar nicht sagen, da ich nicht mit der Adobe Cloud arbeite.
Hallo Günther,
ja, das hat wohl jeder schon mal erlebt. Da ich neben den Fotos auch Musik mache, habe ich nach einigen Ausfällen erst mal die gesamte Fotosache extern aufgebaut. Musik auf Win-Rechner und Fotos auf Mac.
Nun zu meiner Strategie. Da ich negative Erfahrungen mit der Speicherung und Kopieren auf einen RAID- Server ( Spiegelung innerhalb des Servers) gesammelt habe, mache ich es bei den Fotos nun anders.
Was war passiert? Was nützt die der Server im RAID (Spiegelungsmodus), wenn nicht nur eine oder 2 Patten ausfallen, sondern der gesamte Server. Dann sind nämlich alle Platten futsch.
Niemand konnte mir mehr helfen. Mit viel Glück habe ich bei eBay einen baugleichen NAS Server erhalten und konnte wenigstens die Platten wieder nutzen. Mein Glück war, dass ich auch den Server jedes viertel Jahr kopiere-Auf die billigste Big Terraplatte. Viele sagten du bist ja speicherkrank aber ihr seht ja… den aktuellen Rest hatte ich noch auf dem Rechner. Also Platten formatieren und wieder in die NAS zurück- und gut wars.
Die Speicherstrategie mit meinen Fotos geht so leider nicht auf und ich wollte diesen Fehler nicht noch einmal riskieren. Da die Dateien (Nikon D800 und 810) sehr groß sind, arbeite ich also mit Mac und natürlich der schnellen Schnittstelle Thunderbolt. Das hat den Vorteil, ich brauche keine Foto- und Videodateien auf dem Rechner speichern, sondern sie sind immer extern auf der Festplatte. Thunderbolt 2 ist nun so schnell, dass macht absolut Spaß so zu arbeiten. (Ich war mal ein Mac-Hasser-aber in Sachen Fotos möchte ich nun nie wieder zurück.) Auch ist mein Mac noch nie abgestürzt oder hat sich noch nie aufgehängt- aber das nur nebenbei.
So – die externe Festplatte ist natürlich nicht alleine – daneben steht immer eine zweite Platte. Diese Daten werden beim Runterfahren immer gespiegelt.
Inzwischen sind beide voll und nun habe ich einen ‚Würfel‘ von Lacie, der das Spiegeln permanent automatisch macht-alles über Software, somit sind beide Platten immer und überall nutzbar – egal , was mit Rechner passiert ‑2x6TB- das reicht erst mal bisschen.
Den Katalog Lightroom speichere ich ca. 1x in der Woche oder nach großen, wichtigen Arbeiten. So viel Zeit muss sein!
Serversicherungen sind mir zu langsam …oder wenn schnell… viel zu teuer.
Sicher gibt es elegantere Lösungen aber auch mein Tipp – bitte macht es- sichert irgendwie. Herde sollte seine Strategie finden.
Alle Fotos von Reisen habe ich noch unbearbeitet auf kleinen Festplatten (auch 2TB Thunderbolt auch Lacie – mit Macbook) – fast gleiche Performance wie mein Großer!)
Sicher tut es im Gelbbeutel weh, wenn wieder eine neue Platte notwendig wird, aber wer es erlebt hat, wie Günther, ist wirklich erst mal kurz geplättet ‑aber mit dieser ‚Sicherheit‘ – rollt die Träne dann nur kurz.
Hallo zusammen,
so sieht meine Dateistruktur aus: Win 10, Software und LR-Kataloge (als ich noch mit LR arbeitete) sind auf der SSD. Der Rest, also Fotos, Videos usw. liegt auf der HD. Und so sichere ich: Meine LR-Kataloge ließ ich von LR einmal pro Woche sichern. Wiederum einmal pro Woche synchronisiere ich alles mit FreeFileSync auf eine ext. HD, die ich außerhalb der Whg. (könnte ja abbrennen) aufbewahre. Meine beiden Blogs sichere ich ebenfalls auf diese Weise. Win 10 und die Programme sichere ich nicht.
Vorteil der Methode: Ich habe keine verschlüsselten Daten, auf die ich nur mit dem jeweiligen Backup-Programm zugreifen kann, sondern kann sie auf jedem PC sofort verwenden. Und hat man erst einmal eine vollständige Kopie aller Daten auf der Sicherungs-HD, dauern zukünftige Backups nur ein paar Minuten, weil FFS nur die neuen / geänderten Daten kopiert.
LG aus IBK
Hallo Günther!
Ich nutze Amazon S3 für meine wichtige Backups. Nach 3 Monate gehen die Photos automatisch zu Amazon Gletscher, der ist billig, die Daten sind aber nicht sofort verfügbar.
Vorteil: kostet nur $0.0045 USD pro GB/Monat
Nachteil: Wiederherstellung ist ein bisschen kompliziert und kostet Geld dazu.
Das Backup des LR-Katalogs geht bei mir recht fix. Er dürfte aber auch lange nicht so gross wie deiner sein, da ich erst seit ca. 4 Jahren mit LR arbeite.
Ich habe auf meinem Rechner ansonsten keinerlei Daten dir für mich wichtig sind. Alles ist auf einem NAS gespeichert. Alles für mich unverzichtbaren Daten werden wöchentlich (das reicht mir aus) auf mein zweites NAS gesichert. Zudem läuft zusätzlich eine weitere wöchentliche Sicherung auf eine externe USB3-Festplatte, welche immer getauscht wird und die andere wird bei meinen Eltern aufbewahrt. So ist auch der WorstCase, ein Hausbrand «abgedeckt».
Sobald meine Eltern einen schnelleren Anschluss nutzen (schon bald), wandert das zweite NAS in ihren Keller und mein NAS wird direkt extern gesichert.
Mehr Sicherheit geht immer, aber ich könnte mit dem möglichen Verlust von wenigen Tagen leben. Wäre es wichtiger, könnte ich auch täglich sichern.
Neue Bilder bleiben meist so lange auf der SD-Karte liegen, bis die Fotos bearbeitet wurden. Nach dem Urlaub habe ich sowieso alle Bilder auf externen Festplatten gesichert und diese werden auch erst nach der Bearbeitung gelöscht. So gesehen, können mir keine Fotos «verloren» gehen.
Hi Gunther
Ich kann dir Veeam Endpoint Protection empfehlen. Kostenlos und sehr effektiv.
Neu kann man auch direkt nach OneDrive sichern (habe ich aber noch nicht getestet)
Ich sichere meinen Rechner komplett mit Veeam auf mein NAS.
Das NAS sichere ich dann nochmals auf einen Blob Speicher in Azure. So habe ich auch bei einem Desaster noch ein Backup.
Veeam ist echt klasse, habe es schon seit längerem im Einsatz.
Man sollte unbedingt regelmäßig prüfen, ob das Backup korrekt durchgeführt wird, damit im Ernstfall kein Aha-Effekt eintritt. Trügerische Sicherheit ist doppelt bitter.
Vielen Dank für Deine unermüdlichen Tests und Anleitungen, auf die ich als Hobbyfotograf beinahe blind vertrauen kann!
Ich wünsche allen einen guten Rutsch und viel Glück und Erfolg im neuen Jahr!
Das Betriebssystem sichere ich nicht, da eine Neuinstallation nicht wesentlich länger dauert und in Zeiten von regelmäßigen Updates von Windows 10 dann erst noch eine weitere Update-Session anstehen würde.
Unwiederbringliche Bilddaten von Hochzeiten, Festen oder Reisen werden grundsätzlich erst auf dem «Immer dabei»-Thinkpad X250, dann auf dem Thinkpad T530 und zur Bearbeitung dann auf dem PC gespeichert. Diese bearbeiteten Daten werden einmal im Monat komplett auf einem NAS gesichert, von dort im Ringtausch auf insgesamt 3 externe HDD gesichert, die ich im Büro (knapp 30 km von zu Hause) aufbewahre.
Ich nutze schon seit knapp 7 Jahren SSDs in meinen verschiedenen Thinkpads bzw. PCs, baue sie auch in die Geräte von Freunden und Bekannten ein und musste bisher erst einen Crash einer OCZ verzeichnen. Damals aber noch nicht unter Toshiba-Führung. HDDs werden nur noch im wahrsten Sinne als «Massenspeicher» genutzt.
Was den Einsatz von SSDs etwas unsicherer macht ist die Tatsache, dass eine ausgefallene SSD in fast 100% der Fälle einen Komplettausfall darstellt, bei einem Ausfall einer HDD die Daten häufig gerettet werden können. Aber deshalb machen wir ja die Backups.
Wie sagte ein weiser Kollege: «Daten ohne Backup werden nicht benötigt!»
Ich wünsche Dir, Gunther, und Diana sowie allen Mitlesern einen guten Rutsch ins neue Jahr 2018 und auch im nächsten Jahr schöne Bilder.
Ich sichere täglich mein Userprofil incl. dem Lightroom-Katalog mit einem einfachen Powershell-Script in ein Verzeichnus auf eine zusätzliche Backup-Platte. Das Powershell-Script sorgt für «nur einmal am Tag» und hängt in einem Scheduled Task, der je nach Anwendungsfall bei «Login» oder bei mir in «Lock Screen» hängt.
Dieses Verzeichnis lasse ich von Resilio-Sync abholen und auf das NAS kopieren, so dass ich auch bei einem Komplettverlust des Rechners die Daten noch habe. Und weil ich Paranoiker bin, lasse ich (via QNAP RTRR Sync mit dem genialen «Backup Versioning» Plugin)) diese Daten einmal die Woche auf ein Offsite-QNAP spiegeln. Inkl. Backup der Bilder.
Sollte mir mal mein LR-Katalog abhanden kommen und einfach nicht mehr brauchbar sein, dann habe ich immer noch die XMP-Dateien, die ich mindestens am Ende jeder Bearbeitungsserie mache. Die Verarbeitungsgeschichte ist mir nicht so wichtig.
Meine Frau hatte mal einen Fehler im Lightroom-Katalog, der mehrere dieser Backups unentdeckt blieb, weil sie LR eine Weile nicht benutzt hatte. Da war ich über die Backup-Generationen im ersten Moment sehr froh. Es war dann aber nur eine kaputte Lock-Datei im Katalog-Folder, die, einmal gelöscht den Katalog wieder zugänglich gemacht hat.
Hallo Gunther,
Deine Sicherungsstrategie ist logisch und in sich schlüssig. Einen Großteil meines Katalogs nehmen SmartPreviews und die Excire Dateien ein. Sicherst Du die auch mit Duplicati oder riskierst Du es, weil wiederherstellest?
Schöne Weihnachten an Alle. Thomas
Previews und Excire sichere ich nicht, die kann man ja jederzeit neu erstellen lassen.
Ich bin ja mal gespannt, mit welcher gegenüber Adobe noch platzsparenderen Backupmethode für den Lightroom-Katalog du um die Ecke kommst :-).
Die Vorschaubilder in den Verzeichnissen «xxx Previews.lrdata» und «xxx Smart Previews.lrdata» außer Acht lassend, da sie ja wieder erstellt werden können, geht es hier doch nur um eine einzige «simple» Datei bei dem Backup-Vorgang. Und der Zip-Algorithmus von Adobe komprimiert meine Katalog-Datei bereits auf nur 10% ihrer Originalgröße – besser geht es doch kaum, oder?
Dass der Backup natürlich besser automatisch angestoßen wird, steht natürlich außer Frage.
Hi Gunther,
wieso sicherst Du nicht gleich alles per Duplicati (geht ja auch offsite)?
Crashplan bietet, wie Du evtl. auch weißt, unter anderem die Möglichkeit, remote auf alle deine verknüpften Rechner zuzugreifen (auch auf nicht explizit freigegebene Dateien und Ordner). Ich vermute, dass Code42 (und ggf. noch andere) ebenfalls darauf Zugriff haben, ohne dass man es mitbekommt.
Bei Duplicati sehe ich dieses Risiko nicht, da es entweder lokal auf deinem Rechner oder deinem eigenen Server läuft.
Grüße
Torsten
Für ganz Paranoide so wie ich.
Mein Desktop verbunden mit einem Samba Server. Verzeichnisse Geschützt gegen Verschlüsselungstools wie z.B. Wannacry!
Server HP Microserver Gen8. Installiert mit Debian 9 und Samba 4.6. Dateisystem Btrfs Raid1 8TB. (Entschuldigt den Staub! (räuspere))
Und nochmals Physikalische Sicherung auf 3 Datenträgern.
Und mein Hauptrechner bestehend nur auf SSD Raid0. Und eine SSD Samsung 960 EVO fürs Betriebssystem.
Mein Hauptrechner:
Ich sag’s ja, Paranoid! ;)
MfG
Olaf Uecker
Hallo Gunther
Der Chef von Angelbird hat uns im Herbst diesen Jahres in unserem Fotoclub die Angelbird Produkte vorgestellt. Im Zuge der anschliessenden Diskussion hat er erwähnt dass, wenn wir mal ein Problem mit einer Festplatte hätten, sie bei ihnen, also bei Angelbird, versuchen würden diese, bzw. die Daten zu retten. Diesen Service bieten sie an. Dies war dir vielleicht bereits bekannt, aber ich dachte mir, ich mach dich darauf aufmerksam.
Grüsse aus Vorarlberg
Hallo Gunther,
ich sichere nachts um 3 Uhr meine gesamten Festplatten ca 6 TB, alle auf eine NAS als inkrementelles Image Backup mit Veeam Endpoint Backup (Kostenlos). Früher nutzte ich dafür Acronis.
Seit ca einem Monat nutze ich auch Crashplan (heißt jetzt code42?), wo gerade meine wichtigen Daten (ca 1,5TB) immer noch hochgeladen werden :). Davor hab ich immer USB Platten als Offsite Sicherung auf der Arbeit deponiert … Das wurde mir aber dann zu umständlich …
Ansonsten synchronisiere ich mir noch diverse Ordner mit FreeFileSync oder eigener Owncloud auf Laptop Smartphone und Tablett …
Tipp für den neuen Rechner. Unbedingt eine m.2 (Samsung 960pro) verbauen :) dann brauchst du auch kein Hybernate Modus mehr, weil Windows derart schnell bootet dass es kaum einen Unterschied mehr macht …
Hallo Thierry
Vom Performancegewinn zwischen einer klassischen SATA-SSD und einer an einem M2-Slot kommt beim Anwender nicht wirklich merkbar etwas an. Wie Gunther schon erwähnt macht Windows10 (und auch schon 8.1) bei einem Shutdown immer eine Art Hibernate, da gibt es keine Wahl.
Hallo Rolf,
nein, bei Windows 10 ist der Hybridstart voreingestellt, man kann ihn aber deaktivieren. Ist bei meinem Windows-Rechner auch deaktiviert. Die Zeit, die ich beim Hochfahren «spare» ist geringer, als die Zeit, die der Rechner beim Runterfahren länger braucht.
was ist denn so eine Art Hibernate? Wenn man eine Kommandozeile als Admin startet und powercfg ‑h off eingibt, dann ist das was ich unter hibernate verstehe ausgeschaltet. Sieht man auch dass die 8GB große hiberfil.sys auf Laufwerk C verschwindet. Dann gibt es da noch den Butten Schnellstart aktivieren unter den Energieoptionen, das habe ich auch deaktiviert. Grund ist zum einen der Speicher der durch die Datei belegt wird, und dass mein Mainboard Anfangs Probleme mit dem Hibernate hatte und mein Rechner öfter mal einen Bluescreen produzierte beim aufwachen …
Ob ich jetzt 5 oder 15 Sekunden zum Hochfahren brauchen macht für mich auch keinen Unterschied …
Warum komplett herunterfahren, wenn man seine Anwendungen offen lassen will? Ich habe jedenfalls keine Lust jedes Mal alles neu öffnen zu müssen.
Ich schließe eigentlich immer die Anwendungen, die ich nicht nutze … Spart Speicher und Ressourcen …
eine meiner samsung 850 pro hat auch vor ein paar Tagen den Geist aufgegeben. Die RMA-Abwicklung ist zwar nicht ganz so komfortabel wie z.B. bei WesternDigital, aber in 3 Tagen war die neue SSD hier. Gottseidank wars bei mir «nur» die Systemplatte meines Storageservers, dank Virtualisierung (Proxmox) schnell ein Backup eingespielt und alles lief in kürze wieder.
Für meine Daten (Fotos, Videos usw) nutze ich neben dem NAS noch LiveDrive als Cloud-Backup. Finde ich sehr praktisch da man neben mehreren Sicherungsständen auch Weltweit auf seine Dateien Zugriff hat ohne das der PC-Server zuhause laufen muss.
Grundsätzlich halte ich meine Daten mehrfach vor, davon 2x identisch auf unabhängigen Rechnern: Laptop und Heimrechner. Diese werden regelmäßig synchronisiert.
Unwiederbringliche Daten (z. B. meine Fotos) werden zusätzlich auf externe Datenträger gesichert.
Nun habe ich aber gelernt, daß dabei auch was schief gehen kann http://blog.bilddateien.de/artikel/2015–01-Gewitterstimmung-und-die-Rettung-toter-RAW-Dateien.html und deshalb meine Strategie um den Punkt «Verifizierung des Backups» erweitert:
Ist zwar mit einem gewissen Aufwand verbunden, aber mir ist es nach der o. a. Erfahrung wichtig zu wissen, daß die Kopien in Ordnung sind.
Und nochwas: in darktable lasse ich grds. xmp-Dateien schreiben – ist mir wohler dabei: Bearbeitungen, aber auch Verschlagwortung machen einfach viel Arbeit – und die Abende sind immer irgendwie zu kurz …
Hallo Gunther,
wenn Du Deine Fotos in LR bearbeitest, lassen sich doch die Anpassungen problemlos in xmp Sidecard Dateien speichern. Einfach die Fotos erneut importieren und schon sind die Anpassungen wieder in der Datenbank. Habe ich bereits mehrfach gemacht und mich immer gewundert, warum man den Katalog überhaupt sichern muss. :-)
Grüße,
Tobias
Zum einen wird nicht alles in XMP sidecars gespeichert (farben, flags, tags, etc.) – und zum anderen ist das aich wieder etwas, woran man denken muss (regenlmäßig «Strg‑S» drücken, um die XMPs zu speichern. Von der Funktion, die XMPs automatisch von lightroom schreiben zu lassen, rate ich dringend ab, wie schon weiter unten geschrieben. Das ist eine echte Performance-Bremse.
Hi Gunter, bei mir werden beim Speichern der Metadaten alle Daten wie Farbe, Rating, Titel, Tags etc. für das Foto gespeichert. Dazu muss ich aber ergänzen, dass ich mit DNG-Dateien arbeite und dort nach Abschluss der Bildbearbeitung das geänderte Vorschaubild und die Metadaten speichere. Vielleicht ist das mit den Sidecar-Dateien ja anders.
Im Katalog werden auch die Bearbeitungsschritte gespeichert, um sie später bei Bedarf noch mal nachvollziehen zu können, in den XMP-Dateien dagegen nur das «Endergebnis».
ist das in Lightroom so?
In darktable wird alles der Reihe nach aufgeschrieben, sowohl in der db als auch im xmp => deshalb bin ich etwas verwundert, daß das in LR nicht so sein sollte.
Außerdem speichert dt auch alle Bewertungen, Farben, Metatags in den xmp.
Das Einzige, was wirklich nur in der db steht, sind Gruppierungen von Fotos (also virtuelle Stapel), ist aber auch logisch, da das _keine_ Eigenschaft eines _Einzel_fotos ist.
Lightroom ist aber nicht Darktable. Bei Lightroom ist es, wie von Torsten beschrieben implementiert. Ist auch gut so, ansonsten würden die XMPs viel zu groß und das Handling damit langsam.
behaupte ich ja auch nicht :)
Ich versuch nur, über den Tellerrand zu gucken bei solchen Themen.
Und gegen die (zu) großen xmps hab ich bei Bedarf eine «zusammenfassen»-Funktion.
«Zum Glück» ist mir auch schon vor langer Zeit eine externe Festplatte kaputt gegangen, auf der alle Fotos, besonders auch die der Kinder, lagen. Zum Glück hatte sich gerade mein Schwager die Musik von der gleichen Festplatte kopiert und aus Versehen auch die Fotos erwischt.
Seit diesem ersten versehentlichen Backup nehme ich das Thema ernst, versuche aber auch als Nebenberuflerin den Ball flach zu halten:
auf iMac und MacBookPro läuft die TimeMachine, alle paar Wochen wandern Dokumente, Fotos, Kataloge auf eine weitere Festplatte, die im Büro, also außer Haus, aufbewahrt wird. Ausgelieferte Fotos von Kunden sind eh in der Cloud, die lösche ich nicht. Wenn mein Haus abbrennt, fehlen mir ein paar Wochen, aber dann habe ich ganz andere Sorgen! Musik und Filme sichere ich gar nicht.
Ich bin auf den Lightroom-Katalog-Artikel gespannt, denn meine Organisation der Kataloge mit zwei Rechnern möchte ich dringend verbessern.
Vielen Dank für all die guten Tipps über die Jahre und schöne Weihnachten!
Moin!
Genau aus dem Grund ist Lightroom für mich kein brauchbares Tool, da es mit dieser beknackten Datenbank steht und fällt und Adobe es bis heute nicht gelernt hat, dass moderne Datenbanken auch auf Netzlaufwerken liegen können und dennoch performant angesprochen werden können.
Ich hatte schon dann und wann mal einen Datenverlust, jedoch kann ich es verkraften, wenn ich mich nen Tag hinsetzen muss um nen System neu aufzusetzen. Die wirklich wichtigen Daten liegen auf nem Direct-Attached-Storage an meiner Workstation (das wiederrum ist nen SATA Gehäuse für 8 Festplatten, das nen RAID Controller hat und über die 8 Platten u.a. ein RAID50 aufspannen kann) und langfristig plane ich das auf nen NAS umzubauen…also dem DAS einen leistungsfähigen Filerhead vorzusetzen und das System dann offsite zu replizieren, damit man die wirklich wichtigen Daten mobil hält.
Ferner ist mein Konzept dann auf der Workstation und auch auf meinen Thinkpad recht einfach:
OS kommt auf einen RAID0 Verbund (btw: Doch, Windows 10 lässt sich auch genauso sauber herunterfahren, wie auch alle anderen Windows davor auch…man muss es nur einstellen, dann hat man auch nicht mehr die Probleme mit der Abhängigkeit zum Hibernation File, wobei auch dieses wenn es korrupt ist verworfen wird…ist halt doof, wenn das Hibernation File nicht mehr geschrieben werden kann, weil der Datenträger und/oder das Filesystem matsch ist)
Dann hab Workstation-seitig noch nen RAID5 Verbund über nen HP SmartArray Controller mit 5 Platten. Da park ich dann auch Alben, die noch nicht durchgesehen wurden.
Und wenn das fertig ist…zieht es um auf das DAS.
Wenn ich es noch konsequent weiter treiben wollen würde, müsste man noch über Tape Backups sprechen (zumal LTO4 inzwischen erschwinglich geworden ist), ich gebe jedoch zu, dass die Priorität eher hinten angestellt ist.
Achja…das Thinkpad ist ähnlich organisiert: Eine SSD (die auch seit inzwischen 5 Jahren hält), daneben eine Festplatte. Alles was von den Speicherkarten unterwegs kommt landet erst mal da, wird dann wenn ich es bearbeite auf die SSD kopiert und das fertige Album kommt dann wieder zurück auf die HDD. So ist mir dann auch da ziemlich gleich, was mit meinen OS passiert. Das, was wirklich wichtig ist, ist safe.
LG und frohe Weihnachten,
Stephan
Stündliches Time Machine Backup, Lightroom-Katalog wird mindestens 1x täglich gesichert (je nach Arbeitsstand), sporadisch sichere ich Fotos und Katalog noch extra auf eine Festplatte. Als mein noch relativ junger iMac im letzten ernsthafte Probleme zeigte (und letztlich getauscht wurde), spielte ich das Time Machine Backup auf einen älteren Ersatz-iMac und hatte nach der kurzen Zeit des Aufspielens exakt meinen Rechner vor mir, gut etwas langsamer der Gute, aber das war ziemlich genial, um die Wartezeit zu überbrücken.
Dennoch denke ich über eine zusätzliche Lösung nach, da auch ein Time Machine Backup nicht völlig unanfällig für Fehler sein kann.
Du schreibst im Artikel «SSDs sind anfälliger und wenn sie ausfallen dann oft komplett und ohne Vorwarnung.».
Gibt es für die höhere Anfälligkeit einen Beleg?
Bisher weiss ich nur vom Gegenteil. Festplatten sind wesentlich anfälliger als SSDs, solange sich das Schreibvolumen in Maßen hält. Die mechanische Komponente bei der SSD fällt ja weg und nur der Controller ist sehr gefährdet, wobei das auch bei einer Festplatte Problematisch sein kann.
Bei SSDs ist nur leider das Problem (wie du schon schreibst), dass der Ausfall sehr oft ohne Vorwarnung stattfindet und eine Datenrettung nicht mehr möglich ist.
Aber selbst wenn dem so ist, möchte nicht damit die Dringlichkeit des Backups schmälern. Durch geringe Ausfälle ist es sogar viel wichtiger die Disziplin für ein gutes Backup System zu wahren.
Bei äußerst geringen Ausfallraten kommt man auch gerne in Versuchung die Sicherung nicht so ernst zu nehmen, da man sich sagt: «Es passiert ja sowieso nichts».
Hast du die SSD schon eingeschickt? Bei den Samsung Pro SSDs gibt es ja wenigstens 10 Jahre oder 150–300 TBW Garantie.
Das mit dem Einschicken ist eine gute Idee, war mir nicht bewusst, werde ich versuchen, danke!
Ich kann nur aus eigener Erfahrung sagen: Festplatten-Ausfälle hatte ich noch nie, aber Flash-Speicher: da hab ich schon ’ne Menge Leichen gesehen. Und was sind SSDs? Richtig: Flash-Speicher … q. e. d.
Deshalb hab ich noch keine im Einsatz. Mein Linux startet in kurzer Zeit und nutzt den vorhandenen RAM-Speicher, die «Auslagerungsdatei» (swap) ist eigentlich nur Alibi. Insofern komme ich mit der Performance zurecht – hab aber auch nicht solche Hammerprojekte wie Gunther am Start (Zeitraffer etc.)
Schon einmal regelmäßig bei externen Festplatten die SMART Werte kontrolliert? Musste vor kurzem erst 2x 3TB aussortieren, weil die fehlerhaften Sektoren steil anstiegen. Und das mit nur wenigen Stunden Laufzeit.
Seitdem lasse ich alle neuen HDD erst 48h zyklisch voll schreiben und auslesen mit h2testw und kontrolliere am Ende dann, ob die neue HDD bereits einen weg hat. Oftmals zeigt sich so etwas ganz am Anfang.
ich schrieb zwar über die Betriebs-Datenträger IM Rechner, aber – ja, Linux hat sowas standardmäßig an Bord – keine Probleme. Wobei das auch nicht wirklich zuverlässig ist:
http://static.googleusercontent.com/media/research.google.com/de//archive/disk_failures.pdf Kap. 3.5.6
Meinen MacPro 2011 (noch die wunderbare grosse Alu-Kiste), von der ich 2 Stück habe, da ich nach meiner Pensionierung den Arbeitsmac geschenkt bekommen habe.
Mein Hauptmac besitzt 4 grosse HDs, je 4–5 TB gross, Arbeitssystem noch EL CAPITAN, HD1 Arbeitssystem mit allen Daten, HD2 BackUp von HD1 durch TimeMachine, wird stündlich ergänzt, HD3 Klon von HD1, durch clonen mit Carbon Copy Cloner und ist bootbar, wird täglich beim aussschalten durch CCC ergänzt, HD4 darauf wird vor der Installation eines neuen Betriebssystems z.B. Sierra, aktuell das Arbeitssystem mit allen Dateien geklont und dann das neue System darüber installiert, dann kann ich so in aller Ruhe das neue System ausprobieren, funktioniert alles gut, wird daraus nach 1–2 Wochen mein neues Arbeitssystem. Ich habe während meiner Zeit als CAD-Konstrukteur 2x erlebt, dass eine HD hops gegangen ist, aber nach besorgen einer neuen HD und Wiederherstellung durch TimeMachine, konnte ich nach 2–3 Stunden wieder ganz normal weiter arbeiten, darum bin ich auch vom Mac überzeugt, aber schwer enttäuscht dass Apple keine echt professionellen Desktop Computer mehr herstellt, mit der Design «Urne» kann ich leider nichts anfangen, auch nicht mit mit den neusten iMacs, alles extrem viel zu teuer. Noch nicht gelöst ist allerdings das ausser Haus BUP.
Gruss Urs
Von iPad Urs Erne gesendet!
Sehr interessant die Sache mit Angelbirds. Ich habe folgendes Problem: Auf meinen oft extremen Reisen nehme ich meistens keinen Laptop mit und kann daher die bespielten Speicherkarten der Kamera nicht über den Laptop sichern. Um die wertvollen Bilder sichern zu können, suche ich nach einer Möglichkeit, diese zumindest doppelt abzusichern. Welche Sicherungsmethode schlägst du in einem solchen Fall vor?
Ggf. käme für Dich ein Imagetank, z.B. dieser in Frage.
Habe jetzt eine alternative Methode zum Imagetank gefunden.
Ich transferiere die Bilder von der Speicherkarte der Kamera über eine USB-OTG-Verbindung auf mein Handy (Samsung A3), belasse die Bilder auf diesem oder speichere sie auf eine weitere SD-Karte ab. Somit sind die Bilder während der Reise zumindest doppelt abgesichert. Funktioniert super und ein Imagetank ist nicht erforderlich. Mögliche Engpässe sind nach wie vor die Speicherkarten bzw. die Stromversorgung.
Und die schnarchlangsame OTG Verbindung, die bei vielen Handys leider gar nicht funktioniert. Aber gut, wenn es bei dir klappt.
Die neue Generation der OTG-Adapter funktioniert super. Sowohl mit SD als auch CF-Karten. Wegen Geschwindigkeit: 288 RAW-Bilder, 3,42 GB in 165 sec kopiert. Da muss man sich mit dem Kleinen Braunen schon beeilen.
Ich weiß, ich spreche hier wieder ein heikles Thema an, aber via Kickstarter-Kampagne scheint wohn die «Gnarbox» zu kommen, eine ähnliche Lösung.
Sehr interessantes Thema. Vor einigen Wochen hat sich im meinem
Macbook die gerade mal 2,5 Jahre alte SSD eines Markenherstellers
verabschiedet. Von heute auf morgen startete das System nicht mehr
und zeigte mir an, dass kein Betriebssystem vorhanden sei.
Habe dann die alte HDD eingebaut und dank Apples Time Machine auf
den Stand vom Vortag bringen können.
Meine Daten hätte ich zwar auch noch auf einem NAS gehabt, aber die
Möglichkeit, eine uralte HDD per Knopfdruck und einiger Wartezeit
einfach auf den (beinahe) aktuellen Stand zu bringen hat mich schon
sehr begeistert. Die Haltbarkeit der SSD eher nicht… :-/
Ich habe zur Datensicherung eine Synology NAS (DS 416j) mit aktuell 3 Platten (je 3TB) in einem RAID 5.
Über die Synology Cloudstation wird der Lightroom-Katalog automatisch auf die NAS synchronisiert.
Auch die aktuellen Fotos werden über die Cloudstation synchronisiert.
Die Inhalte der NAS werden immer mal wieder auf externe USB-Platten gesichert.
Eventuell nehm ich meine alte Synology (DS 213j) als zusätzliche Sicherung zum synchronisieren der großen NAS.
Interessanter Artikel, ich bin auch schon sehr gespannt auf deine Lightroom-Katalog-Lösung.
Ich versuche es bei uns auch möglichst einfach zu halten: (so gut wie) alles was irgendwie sicherungswürdig ist, liegt auf dem Homeserver (praktisch ein NAS) auf einem RAID5 (wird demnächst auf RAID1 aufgestockt, wegen der deutlich besseren Performance).
Einmal die Woche wird alles (auch ein aktuelles Lightroom-Katalog-Backup) auf eine externe USB-Platte gesichert, welche ich auf Arbeit lagere. So hab ich gleichzeitig ein außer-Haus-Backup.
Ein Online-Backup käme für mich nur in Frage, wenn ich sämtliche Daten vor dem Upload verschlüssele. Da das zu aufwendig ist, bleibt es erstmal bei der USB-Platte.
Bei deiner Strategie gefällt mir das lokale SSD-RAID für die aktuellen Sachen in Bearbeitung. Das wäre auch mal eine Überlegung wert…
Ein Festplattencrash kommt öfter vor, als jeder denkt. Ich habe mittlerweile vier davon durch (2x Headcrash, 2x durch Blitzschlag via Kabelmodem > Ethernet > Rechner). Bei SSDs ist glücklicherweise bisher noch nichts passiert.
Ich habe diese Backup-Strategie entwickelt:
Die Systemplatte wird wöchentlich automatisch gespiegelt. Parallel läuft noch Time-Maschine auf eine weitere interne Platte. Alle relevanten Arbeitsnutzerdaten, die sich auf der Systemplatte befinden (Mails, Lightroom etc.) werden zusätzlich täglich auf ein externes NAS gesichert.
Das NAS wiederum läuft redundant (gespiegeltes RAID) und sichert seinerseits in der Nacht nochmal zusätzlich auf eine weitere Festplatte im NAS. Monatlich gibt’s ein manuelles externes Backup, das ich im Wechsel außerhalb aufbewahre.
Es ist in der Tat keine günstige Lösung, aber eine in meinen Augen sehr sichere. Ich kann mich Gunther nur anschließen. Über den Jahreswechsel haben viele etwas mehr Zeit. Nutzt die und schaut, was ihr wie sinnvoll sichern könnt. Für den Anfang genügt schon eine externe Festplatte.
Hi Gunther,
sehr interessanter Artikel, wenn auch der Grund weniger toll ist.
Ich bin schon gespannt auf deine neue Weise den LR Katalog zu sichern. Da ich momentan wegen einem neuen PC dabei bin mir ein Backup System zu überlegen kommt mir diese Info sehr gelegen!
Danke!
Mir ist vor zwei Jahren ähnliches passiert. Über 2000 Fotos hatte ich verloren! Seitdem mache ich einmal in der Woche ein vollständiges Systemabbild und jede halbe Stunde eine vollständige Sicherung auf meinem Server. Alle 12 Monate lösche ich dann die Sicherungen der letzten 6 Monate. Gottseidank sind die Platten Preise momentan nicht so hoch.
Apple Timemachine. Leider für Windows-Nutzer uninteressant.
Ein Backup Programm unter vielen. Nicht schlecht, aber auch nicht besonders flexibel… Auf meinem Mac habe ich es auch laufen, einfach, weil es dabei ist.
Extrem spannender Artikel! Ich bin gespannt, wie es weitergeht. Ich hatte vor Jahren mal einen Hardwarecrash mit einer Festplatte, auf der nahezu alle meine alten Bilder und ein paar andere wichtige Sachen gespeichert waren. Nach etwa 8 Jahren hatte ich in Baden-Württemberg einen Dienstleister gefunden, der mir die Daten auf der Platte für rund 800 Euro wieder herstellen konnte. Inzwischen sichere ich jede einzelne Festplatte meines Systems über USB und eine Dockingstation auf einzelne, externe Festplatten (mit Robocopy und Yarcgui), außerdem auch meine Systemplatte C: mit dem Betriebssystem und allen Programmen (mittels c’t-WImage) ebenfalls auf eine separate Platte, weil ich mir NICHT zutraue, dass mal eben schnell innerhalb von 2 Stunden wieder herzustellen. Die Wiederherstellung der damaligen alten Platte hätte übrigens mit einer SSD nicht geklappt. Wenn die mal ausfällt, dann ist alles darauf weg.
Hi Gunther,
Mist sage ich da nur !
Ich bin mit Sicherheit nicht so ein «Power-User» wie Du, was sich auch an meiner Hardware zeigt (i7 – what´s that ?»), aber angewiesen auf die Integrität der Daten bich schon…
Bei mir wäre ein Ausfall einer SSD im Rechner auch mit einem Backup (Kataloge von Lightroom werden bei mir sporadisch alle paar Wochen «gebackupt») von zwei Sicherungsmöglichkeiten abgeholfen:
Einer angeschlossenen externen USB-3-Festplatte und einem WD NAS, das im Wohnzimmer steht. Ich hatte glücklicherweise noch nie einen solchen Crash.
Was mir größeres Kopfzerbrechen bereitet:
Ich halte die Zeit, solange RAWs nur auf der SD/CF-Karte in der Kamera gespeichert sind, bis sie dann einmal auf den Rechner/Laptop kopiert werden für sehr riskant.
Dabei bist Du ja meines Wissens garnicht so «überzeugt» von der Dualen Speichermöglichkeit mit 2 SD-Karten in Deiner D750… :-)
In diesem Sinne:
Schöne Feiertage trotzdem !
Die Zeit ist bei mir sehr kurz, da ich jeden Abend wenn irgend möglich, die Speicherkarten leere.
Hi!
Hmmm. Warum erzeugst Du keine XMP Dateien bei der Bearbeitung deiner Bilder, die dann zusammen mit den Original RAWs gespeichert sind? Dann hast Du doch zumindest den letzten Stand der Bearbeitung da drinne und der Lightroom Katalog kann, was die Bearbeitung geht dann auch flöten gehen…
Gruss Sascha.
Davon xmp automatisch von Lightroom erzeugen zu lassen rate ich ab. Das ist ein Performance-Killer. Das kann man sporadisch manuell machen, aber das vergisst man dann auch wieder.
Ich habe jetzt eine bessere Methode, die Stelle ich im nächsten Artikel vor.
Meine Backups sind wie folgt implementiert:
Fotos/Videos und Lightroom: nach praktisch jeder Bearbeitungssession stoße ich manuell eine Spiegelung (mit entsprechender SW) der Medien auf eine zweite Platte im PC an, die nur für Backups eingesetzt wird, und sichere damit gleichzeitig auch den Lightroom Katalog (nur die ircat Datei). Medien und Katalog bleiben durch die Spiegelung auch auf dem Backup-Medium «in sync» (das ist mir sehr wichtig). Vor der Ausführung der Spiegelung prüfe ich das Ergebnis des Datenabgleichs, damit ich nicht versehentlich gelöschte Fotos dann auch beim Spiegeln entferne.
Andere Daten: täglich sichere ich meine sonstigen Daten automatisch per Backup-SW (inkrementell, zwei Versionsketten) auf die interne Backup-Festplatte.
Betriebssystem/Anwendungen: da es lange dauern würde, im Crash-Fall alle Anwendungen wieder neu aufzuspielen, sichere ich auch die C‑Partition täglich automatisch (inkrementell, zwei Versionsketten) auf die Backup-Festplatte.
Mit den Backups auf die interne Backup-Festplatte (5 TB) sind Benutzer- und/oder Hardwarefehler der Betriebssystem- und Datenplatten «abgesichert».
Wöchentlich synchronisiere ich alle Sicherungsdaten auf eine externe Festplatte, die ich in meiner Garage 20m weg vom Haus deponiert habe. Dazu muss ich sie natürlich vorher ins Haus holen … Damit habe ich dann stets ein einigermaßen aktuelles Backup auch im Falle eines Einbruchs/Diebstahls oder Brandes.
Das ist alles sicher nicht perfekt, aber mit meiner über die Zeit gewachsenen Backup-Vorgehensweise habe ich in über dreißig Jahren noch keinen Datenverlust erlebt :-).
Hört sich sehr gut und durchdacht an!
100%-ige Sicherheit – darüber sollten wir uns immer klar sein – gibt es nicht.
Punkt.
Es sollte halt jeder sich fürs Backup eine Lösung überlegen, die im vertretbaren finanziellen und zeitlichen Rahmen dessen liegt, was man sich «antun» möchte.
Bei einem Wohnungsbrand oder Einbruch wären bei mir auch tendenziell alle Daten weg. Darüber bin ich mir im Klaren !
Aber ganz ehrlich: DAS ist danach mein geringstes Problem…
:-) Friedliche Feiertage !!!
Bin schon auf die Methode gespannt …
Es gab ja in den letzten Jahren einige Tipps & Tricks rund um den Workflow mit Lightroom und den Katalogen, die mich inspiriert haben.
Danke hierfür !