Das Backup vom Backup

  • Ist in anderen Bereichen aber nicht unbedingt anders, es trifft halt vermeintlich immer die anderen, obwohl man es besser wissen müsste.


    Vor einem Jahr haben plötzlich alle angefangen Konserven und Toilettenpapier zu horten, obwohl die Empfehlungen des Amtes für Katastrophenschutz schon Jahrzehnte alt sind.


    Im Verwandtenkreis haben plötzlich von einem auf den anderen Tag fußend auf der Diagnose "Lungenkrebs Endstadium" alle die Raucherei eingestellt.


    Und über "vier Mann vier Ecken" und "die Kiste ist leicht, die kommt noch in die vierte Lage" denkt man ab dem ersten Bandscheibenvorfall auch anders.


    Manchmal ist so ein digitaler Verlust (zumindest im privaten Bereich) aber auch ein reinigender Prozess - das eine oder andere Gigabyte an nie gesehenen Filmen oder ungehörter Musik, und die abertausenden unsortiert Bilder muss man dann schon mal nicht mehr auf seiner emotionalen To-do Liste herumzerren...

    CatCore - die vielseitigen Adapterlösungen von XLR auf Cat für Mobile Anwendungen, Rental und Installation: https://www.catcore.eu/


    Nächstes Meet&greet: Forentreffen am 27.3.2024 in Heilbronn
    Nächste Messe: PLASA Leeds am 14. und 15. Mai, Stand R-C10

  • das gemeine an Ransomware-angriffen ist, dass der fehlerhafte code ja eine längere zeit ungenutzt in den daten schlummern kann - und dann nach und nach in alle backups wandert.

    und irgendwann sind die unbefallenen backups ja auch so alt, dass sie auch keine hilfe mehr sind.

    diese kriminellen sind ja auch nicht doof, dagegen ist ein effektiver schutz wirklich seeehr schwer!


    das einzige, was wirklich hilft, ist keine verbindung zum internet. so halte ich das z.b. bei meiner veranstaltungstechnik.

    mit kollegialen Grüßen
    Wolfgang

    • Hilfreichste Antwort

    Gerade was die Schläfer-Ransomware angeht, ist das schon ein nicht ganz einfaches Thema. Deswegen ist es auch wichtig, dass man neben Backups kompetentes Personal hat, das die eingesetzten Systeme auch warten und kompetent wiederherstellen kann. Gängig ist, dass man den Datenstand vom jüngsten Backup nimmt, aber z. B. nicht die Systeme selbst, da diese beim beschriebenen Szenario ja schon verseucht sind und die ganze Sch***e sonst einfach wieder von vorne losgeht. Stattdessen muss man quasi (teilweise) neu aufsetzen und Daten in die neu aufgesetzten Systeme einspielen.


    Nebenbei möchte ich hier mal noch die 3-2-1-Regel erwähnen: Wichtige Daten gehören drei Mal gespeichert, auf zwei verschiedenen Medientypen, wobei ein Medium off-site, das heißt geographisch und datentechnisch abgetrennt gelagert werden sollte.


    Daher sind die ganzen Ansätze mit USB-Platten auch nicht das Gelbe vom Ei, da das letzten Endes auch wieder der gleiche Medientyp ist wie die Festplatten, die die Daten primär speichern. Ab einer gewissen Datenmenge sind die Dinger auch zu langsam, um die Backups in akzeptabler Zeit wegzuschreiben.


    In der Firma, in der ich dafür verantwortlich bin, sind wir daher nach längerer Zeit, in der wir (aus Kostengründen) auf USB-Platten gesichert haben, wieder zu Band (aktuell LTO8) zurückgekehrt, denn nur damit bekommen wir überhaupt unsere Backup-Fenster hin. (Das liegt aber auch daran, dass wir grundsätzlich Vollbackups aufs Band schreiben. Es kann meinetwegen die ganze Firma abbrennen. So lange ich das Band habe, kann ich die Firma zumindest IT-technisch innerhalb von ein bis zwei Tagen komplett wieder auferstehen lassen.)

    Backup erfolgt vom Produktivsystem auf ein Festplattenarray und von dort auf Tape. Die nötige Technik für Tape ist zwar erst mal etwas teurer, aber bei Medienpreisen von ~100€ für ein 12TB-Tape amortisiert sich das bei entsprechendem Backup-Volumen auch wieder recht schnell.


    Wichtig ist auch ein entsprechendes Rotationsverfahren für die externen Medien, seien es nun Bänder, USB-Platten oder Steintafeln. Ich empfehle immer ein Medium bzw. einen Mediensatz pro (Werk)tag, der jeweils nach geschriebenem Backup in einen anderen Brandabschnitt als die restlichen IT-Systeme verbracht wird.

    Einmal pro Woche oder Monat (je nach Anforderung) wird das letzte Medium des Sicherungszeitraums aus der Rotation genommen und extern gelagert.

    Zusammen mit geeigneten Haltedauern der Medien im externen Archiv sowie der online auf dem Plattenarray liegenden Sicherungen ist man da schon ganz gut aufgestellt.


    Zuguterletzt darf man nicht vergessen, das ganze System so aufzustellen, dass nicht die zu sichernden Systeme ihre Backups aktiv auf das Backupsystem schreiben müssen, sondern umgekehrt das Backupsystem die Backups selbst erstellt. Zum einen wird das Ganze so verlässlicher, da man das Backup an zentraler Stelle konfigurieren kann, andererseits brauchen dann die produktiven Systeme keinen Zugriff aufs Backupsystem zu bekommen. Damit wird die Hürde, die ein Eindringling nehmen muss, um auch das Backupsystem zu kompromittieren, nochmal ein ganzes Stück höher. Das Backupsystem selbst gilt dann als kritisches und daher stark zu sicherndes System, das sehr restriktiven Zugriffsbeschränkungen unterliegt.

  • Zuguterletzt darf man nicht vergessen, das ganze System so aufzustellen, dass nicht die zu sichernden Systeme ihre Backups aktiv auf das Backupsystem schreiben müssen, sondern umgekehrt das Backupsystem die Backups selbst erstellt. Zum einen wird das Ganze so verlässlicher, da man das Backup an zentraler Stelle konfigurieren kann, andererseits brauchen dann die produktiven Systeme keinen Zugriff aufs Backupsystem zu bekommen. Damit wird die Hürde, die ein Eindringling nehmen muss, um auch das Backupsystem zu kompromittieren, nochmal ein ganzes Stück höher. Das Backupsystem selbst gilt dann als kritisches und daher stark zu sicherndes System, das sehr restriktiven Zugriffsbeschränkungen unterliegt.

    Das klingt in sich recht logisch und nachvollziehbar.

    Mir stellt sich allerdings gerade die Frage, wie das für ein 1-2 Personenunternehmen in unserer Branche mit wenig stationärem, dafür viel mobilem Laptop-Einsatz praktikabel umsetzbar wäre. Tatsächlich läuft es doch oft eher auf Cloud und USB-Platte (oder gar einem bunten Sammelsurium an USB-Sticks) hinaus - daheim wird der Rechner zwischen den Jobs nicht selten gar nicht erst ausgepackt.


    Was gibt es denn da überhaupt an wirklich brauchbaren und vor allem auch niederschwelligen Lösungen?

    Freelancer für Audio Beschallung/Recording seit 2003 - Alle Beiträge spiegeln meine persönliche Meinung/Erfahrung als von Herstellern & Vertrieben unabhängiger Tonmensch wieder

  • Nebenbei möchte ich hier mal noch die 3-2-1-Regel erwähnen: Wichtige Daten gehören drei Mal gespeichert, auf zwei verschiedenen Medientypen, wobei ein Medium off-site, das heißt geographisch und datentechnisch abgetrennt gelagert werden sollte.

    So sieht das aus. Eine Kopie auf weitere Festplatte/n ist kein Backup.

    Nicht umsonst gibt es immer noch entsprechende Magnetbänder samt Laufwerken u.ä.

    Beste Grüße aus dem Weserbergland,

    Stefan Waltemathe

    dante_certified_seal_level3.png

    "Hier geht nix mehr, ich muß weg..."

  • Das klingt in sich recht logisch und nachvollziehbar.

    Mir stellt sich allerdings gerade die Frage, wie das für ein 1-2 Personenunternehmen in unserer Branche mit wenig stationärem, dafür viel mobilem Laptop-Einsatz praktikabel umsetzbar wäre. Tatsächlich läuft es doch oft eher auf Cloud und USB-Platte (oder gar einem bunten Sammelsurium an USB-Sticks) hinaus - daheim wird der Rechner zwischen den Jobs nicht selten gar nicht erst ausgepackt.


    Was gibt es denn da überhaupt an wirklich brauchbaren und vor allem auch niederschwelligen Lösungen?

    Noja, zugegeben - mein Beispiel kommt natürlich aus einer etwas größeren Bude als 1-2 Mann. Und da gibts auch ne entsprechende Serverlandschaft.

    Letzten Endes gibts wie bei allem kein "One Size fits all". Es gibt natürlich Best Practice, an der man sich orientieren sollte. Und es muss auch allen Beteiligten klar sein, wo Daten abgelegt werden müssen, damit sie sicher sind. In unserem Fall ist das so geregelt, dass Arbeitsplatzrechner, egal ob Notebook oder Desktop, nicht gesichert werden. Im Onboarding-Prozess gibts auch eine individuelle IT-Einweisung, in der neue Mitarbeiter darüber informiert werden. In der Regel sage ich neuen Kollegen, dass sie alles, was sie morgen nochmal brauchen, entweder auf einem der zentralen Filesysteme ablegen oder halt in einem der entsprechenden Anwendungssysteme (wie z. B. SAP) erfassen müssen. Ohne Eigenverantwortung der User geht es nicht. Das macht man mit physischen Dingen ja auch so. Was ich morgen noch brauche, auch wenn die Bude abbrennt, kommt mal mindestens in den feuerfesten Safe.


    Für nomadische Nutzung gibts entsprechend auch VPN-Zugänge. Darüber kann man also auch Sachen zentral ablegen, wenn man gar nicht in der Firma ist.


    Für die kleine Zwei-Mann-Bude würde ich so ein Konzept niemals empfehlen oder bauen. Wohl aber würde ich mich an den anerkannten Regeln für Datensicherung orientieren und ein entsprechendes Konzept ausarbeiten. Das kommt dann auch stark auf die genutzten Anwendungen und deren technische Infrastruktur an.

    Der Zwei-Mann-Betrieb hat womöglich gar keinen Server, so dass man hier schlicht direkt an die Endgeräte ran muss. Auch dafür gibt's Konzepte. Es würde jetzt ein wenig zu weit führen, das hier im Detail abzuhandeln, aber am Ende bekommt man es auch damit hin, die Dateien auf ein zentrales Backup-System zu bekommen. (Die User müssen natürlich insoweit mitspielen, dass sie dem Notebook Kontakt zum Backup-System gestatten. Uns wenn's einfach per WLAN oder LTE auf der Baustelle im Hintergrund ist.)

    Ab dann hat man wieder alle Möglichkeiten mit Medienrotation etc. Bandroboter kommt in der Größenordnung eher nicht infrage. Man kann das aber beispielsweise durch eine Mischung aus USB-Platten und Cloud-Backup abfangen. Beim Cloud-Backup ist es wichtig, dafür zu sorgen, dass niemand außer einem selbst die Daten lesen kann. Also muss man alles, was man hochlädt, selbst stark verschlüsseln - andernfalls müsste man dem Dienstleister vertrauen, und das sollte man in diesem Falle nicht tun.


    Am Ende muss sich einfach jeder mal selbst die Frage stellen, was einem die eigenen Daten eigentlich wert sind. Was passiert, wenn mein Arbeitsnotebook abraucht und ich an die darauf gespeicherten Daten nicht mehr rankomme. Was passiert, wenn ich aus Versehen was davon lösche? Was passiert, wenn der nette Ransomware-Trojaner, den man sich leider über eine 0Day-Lücke von einer Werbeanzeige auf einer eigentlich seriösen Website oder auch einfach über eine Dynamitphishing-Mail eingefangen hat, munter Dateien verschlüsselt? Was kostet mich das? Peanuts, oder womöglich die Existenz, oder irgendwas dazwischen?


    Daran macht sich auch fest, wie viel (finanziellen) Aufwand ich als Unternehmer in die Backup-Strategie stecken sollte. Ist letzten Endes auch nichts anderes als eine Versicherung.


    Und dafür gibt's dann EDV-Systemhäuser, die ihre Kunden entsprechend beraten und für sie und die von ihnen genutzten Anwendungen ein passendes Backup-Konzept erarbeiten und implementieren können. Ist also wie bei der Veranstaltungstechnik auch: Wenn du willst, dass es ordentlich gemacht ist und niemandem der Himmel auf den Kopf fällt, lass die Profis ran. ;)

  • Kann ich alles genau so gerne durchgängig unterschreiben,

    +1


    Für den kleinen 1-2 Mann Betrieb:

    Nutzdaten auf ext. Platten im Rotationsverfahren sichern und die Kiste(n) einmal im Quartal per Image wegsichern.


    Für Betriebe mit bis zu 30 Mann sollte ein zentraler Server da sein. Dabei die Arbeitsserver virtualisieren und auf dem Host eine entsprechende Software installieren, welche die VMs wegsichert. Ziel erstmal ein Backupserver/Storage. Von diesem wiederum ein Offsitebackup anfertigen, auch im Rotationsverfahren.


    Für noch größere Betriebe muss man entsprechende Storages wählen.


    Grundsätzlich Backups örtlich Abtrennen.


    Je strukturiert und durchdachter, desto besser.


    Speicherplatz kostet heute nicht mehr viel, daher ist es ein Kardinalsfehler auf Backups zu verzichten.


    Cloudlösungen können gehen, sind leider oftmals zu langsam und vor allem viel zu teuer im vergleich zu einer eignenen, stationären Lösung.


    Des Weiteren eben Daten grundsätzlich zentral ablegen. VPN machts möglich und das ist heute nun echt kein Ding. Wegen mir auch per RDP auf einem Rechner direkt in der Firma arbeiten, damit die Daten innerhalb bleiben.


    Ansonsten:

    Und dafür gibt's dann EDV-Systemhäuser, die ihre Kunden entsprechend beraten und für sie und die von ihnen genutzten Anwendungen ein passendes Backup-Konzept erarbeiten und implementieren können. Ist also wie bei der Veranstaltungstechnik auch: Wenn du willst, dass es ordentlich gemacht ist und niemandem der Himmel auf den Kopf fällt, lass die Profis ran.

    :thumbup:

    Laut heisst nicht immer gleich gut und toll und wer schreit ist meist im Unrecht.

  • Ich nutze das hier zum automatisieren: https://freefilesync.org/


    kann man 'ne ganze Menge einstellen - da gehen bei mir auf 'ne separate und dauerhaft angeschlossene Backup-Platte alle meine Daten drauf - Gesamt-System-Backup (mit Programmen / Einstellungen / allen Daten) so alle paar Woche 'mal auf diese Platte. Von der gibt's noch 'ne Kopie - die mach' ich aber alle paar Monate 'mal...

    Normalerweise geht das via FileSync parallel auch noch auf den Debian-Server - aber der zickt immer noch (muß da 'mal bissi Zeit investieren - die fehlt aber momentan etwas...)

    Die wichtigen Firmendaten liegen ja auf Cloud und Rechnern, von daher alles gut.

    "geht nicht" ? - gibt's nicht !

    ...ja, das war schon immer mein Avatar :evil:

    "Mit der Dummheit kämpfen Götter selbst vergebens" (Friedrich Schiller, " Jungfrau von Orleans")

  • FreeFileSync ist nett allerdings Bastellösung und vor allem nicht wirklich nett zum Einrichten nach dem Motto "mach mal automatisch". Das muss man dann in den Aufgabenplaner eintragen und das ist für nicht geübte ein wenig tricky.

    FreeFileSync würde ich eher zum Synchronisieren zwischen 2 Datenspeichern nehmen, wenn man damit offline arbeitet. Das ganze dann auch manuell anstossen.


    Besser ist da Cobianbackup. Freeware und läuft im Hintergrund als Dienst. Solange die Kiste also an ist (Server, Quasiserver) arbeitet das Dingens nach Zeitplan ohne weiteres zutun. Kann vor allem auch inkrementelle Backups und noch anderen Kram.

    Veeam in seiner freien Version ist noch ne Ecke besser und auch kostenfrei.

    Altaro gibt es auch in einer freien Lizenz und das kann dann auch VMs wegsichern.

    Nur um mal ein paar zu nennen neben Acronis und auch das interne Tool von MS.


    Wenn man eine SMB Freigabe mit entsprechenden Rechten hat, dann können alle genannten Backupprogramme darauf zugreifen und zwar auch als eigene Anmeldung, d.h. es müssen keine Laufwerke gemappt sein. FreeFileSync setzt in der Regel gemappte Laufwerke voraus, wodurch eben auch vorab eine entsprechende Anmeldung erfolgen muss. Deswegen könnte das mit dem Linuxbruder auch nicht so ganz funktionieren.

    Laut heisst nicht immer gleich gut und toll und wer schreit ist meist im Unrecht.

  • Deswegen könnte das mit dem Linuxbruder auch nicht so ganz funktionieren.

    funzt schon - der Win macht 'ne Anmeldung beim Start an den Linux-Server, dann stellt der das Netzlaufwerk wieder her.

    ...nur der Debian hat 'n boot-Problem - startet z.B. den SSH-Server nicht ordnungsgemäß, und will immer 'nen VGA-Monitor dran haben, obwohl der BIOS auf "halt on no Errors" steht - dann muß immer 'ne Tastatur per PS/2 ran und F1 gedrückt werden

    ...wie gesagt - wenn Zeit ist - so ab Ende September wieder...

    "geht nicht" ? - gibt's nicht !

    ...ja, das war schon immer mein Avatar :evil:

    "Mit der Dummheit kämpfen Götter selbst vergebens" (Friedrich Schiller, " Jungfrau von Orleans")

  • Welches Debian? 10, 11.

    Was ist da für ein BIOS drunter? Evtl. BIOS update?!

    Ist das ne Onboard GFX Karte oder eine dedizierte?

    PS/2 hört sich nach recht alter Hardware an.


    Debian ist in der Regel sehr tolerant und die meisten Anpassungen geschehen beim Installieren automatisch.

    Ich nutze auch Debian und SSH ist immer da, ohne Probleme. Samba ebenso, was bei dir ja auch tut. Mit Tastatur oder Monitor hatte ich auch nie Probleme, außer dass beim Update von 10 auf 11 das ganze Systeme gesponnen hat. Da ging dann keine vernüftige XServer Session mehr.

    Hat jetzt allerdings nix mit Backup zu tun.

    Laut heisst nicht immer gleich gut und toll und wer schreit ist meist im Unrecht.

  • debian 10 Kernel 4.19.0-14-i686-pae

    GLIBC 2.28

    3GHz P4, 4GB RAM mit ATI RageXL onBoard, i82875P/E7210 MHC, 6300ESB PCI-X, 2x Intel Pro 1GBit NW, Phoenix-BIOS v 6.00 PG, LVM mit 250GB SSD + 2TB HDD

    SMB, Apache, mySQL, PHP7.3, SSH, Python, Perl, Webmin, Usermin

    kein bootloader, kein XServer - alles remote via putty, oder Webmin


    ...typisch - der Klassiker - gerade via WOL gestartet und ohne Fehler hochgefahren und alles da (inkl. SSH und ohne POST-Fehler 7F [VGA])...


    ...bleibt jetzt 'mal an :D

    "geht nicht" ? - gibt's nicht !

    ...ja, das war schon immer mein Avatar :evil:

    "Mit der Dummheit kämpfen Götter selbst vergebens" (Friedrich Schiller, " Jungfrau von Orleans")

  • Ein Raid ist kein Backup.


    Kommt darauf wie man es baut... Will man maximalen Speicherplatz, performance oder Sicherheit.


    Man kann es so bauen das eine Platte immer die Kopie der anderen ist. Die Daten kommen von beiden oder von einer wenn eine fehlt. Steckt man dann eine neue rein, werden die Daten wieder gespiegelt.


    Das größte Problem ist die Konsistenz der Daten und das gelingt nur mit Cloud Lösungen. Dazu muss man Geld in die Hand nehmen und aufpassen das die Daten in der EU bleiben.


    Belohnt wird man damit das man sich keine sorgen über defekte Daten machen muss. Fast alle Lösungen speichern mehre Versionen eines Dokuments. Unfälle lassen sich einfach beheben..


    Die Cloud Lösung ist ein Mix zwischen lokal vorhanden und ausgelagerten Daten. Es gibt Daten die sind auf den Geräten lokal vorhanden und es gibt Daten die liegen ausschließlich in der Cloud. Die Softwarelösung hält alles synchron. Man muss sich also keinen Kopf mehr machen auch die geänderte Tabelle auf den anderen Geräten einzuspielen.


    Zusätzlich speichert man wichtige Daten auf Festspeichern, die nur zum Backup verwendet werden. Keine Platte die 100000h mit dreht.


    Solche Cloud Lösungen kann man sich auch alleine für sein Hausnetz basteln.. Aber diese Lösungen sind nicht sehr komfortable. Beim Brand oder Einbruch ist das Backup weg. Alle großen Anbieter legen die Daten verschlüsselt ab, oder bieten extra Container.

  • Hmm... da würde ich gerne intervenieren.


    RAID schützt primär und eigentlich ausschließlich vor mechanischem/elektrischem (bei SSDs) defekt. Da bei einem RAID sinngemäß sofort eine Verändungen geschrieben wird, so ist im Fehlerfalle, z.B. beim Löschen oder einer Fremdverschlüsselung die Daten weg.

    Ein Backup ist sinngemäß zeitlich unabhängig, sprich es werden zum Zeitpunkt x alle eingebundenen Daten gesichert und der Zieldatenträger im Idealfall von der Quelle wieder getrennt. Alle nachfolgenden Änderungen betreffen dann das Backup eben nicht. -> RAID != Backup


    Auch muss man bei RAID vorsichtig sein, denn wenn der Controller nicht mehr verfügbar ist, kann es sein, dass die Daten auch futsch sind, da das RAID so nicht mehr gelesen werden kann.

    Gilt bei einem Backup für das Lesegerät selbst, z.B. bei Bandlaufwerken.


    Auch ist bei einem RAID 5 oder 6 keine Platte identisch mit den anderen im Verbund. Nur bei RAID 1 ist dies so.


    Datenkonsistenz ist heute auch kein Ding. VPN Zugang auf einen zentral verwalteten, gesicherten und gebackupten Datenspeicher und gut ist. Das ist heute kein Ding mehr und kostet auch fast nix.

    Eine Cloud im Sinne der kommerziell vermarkteten Cloud ist hierfür nicht notwendig, definitiv nicht.


    Auch speichert eine Cloud nicht mehrere Versionen, warum auch. Dies ist eine zubuchbare Option und benötigt in der Regel eine zusätzliche Software. Nur weil es Projekte wie NextCloud gibt heißt das noch lange nicht, dass dies so etwas wie eine Cloud ist. Das ist lediglich ein Projekt, welches Nutzdaten mit Metadaten, welche in einer Datenbank abgelegt werden speichert und verwaltet. Jedes Dokumentenmanagementsystem kann dies auch, doch so etwas wird man nicht als Cloud bezeichnen.


    Cloud heißt, dass die Daten transparent im Internet auf irgendeiner Serverfarm gespeichert werden, auf die man selbst nicht wirklich Einfluß hat.


    Ich würde auch niemals einem Festspeicher (SSD) meine wichtigen Daten auf Dauer anvertrauen. Dann lieber einer konventionellen Spindel oder eben einem Band. Es ist die Kardinalsregel Backupmedien regelmässig auf ein neues Medium zu kopieren, um eben Alterungsprozessen vorzubeugen. Die SSDs haben mittlerweile dazu gelernt, ja. Dennoch halte ich eine Spindel für dauerhafter, egal mit wieviel Umdrehungen die Bits rotieren.


    Warum soll eine NAS oder eine USB Platte für den Hausgebrauch schlechter oder nicht komfortabeler sein? Ich kann auf meinen Datenbestand von überall auf der Welt zugreifen, wenn ich eine Internetverbindung habe und mein Datennetz zu Hause funktional ist. Fernzugriff per VPN auf den Server und gut ist.


    Bei Diebstahl oder anderweitigem Verlust hilft eben das Offsitebackup, welches an einem anderen Ort aufbewahrt wird und heutige Server oder NAS Systeme verschlüsseln sicher mit 256 Bit AES, wenn man dies möchte.

    Wenn bei meiner NAS der Strom ausfällt, dann ist das Datenvolumen erst einmal gesperrt und kann nur mit dem richtigen Schlüssel wieder gelesen werden. Die Diebe können also gerne die Platten oder gar das ganze System mitnehmen.

    Laut heisst nicht immer gleich gut und toll und wer schreit ist meist im Unrecht.

  • ...also um GAANZ sicher zu gehen, sollte man an 2 verschiedenen Stromanschlüssen und eigenständigen USV's jeweils einen Server mit RAID 6 haben, das ganze dann im Cluster parallel laufen lassen und zusätzlich noch einen Backup-Server haben, der den Cluster 1x täglich zumindest inkrementell sichert (vorzugsweise steht der gaanz wo anders und hat auch 'n RAID 6 - oder 'n RAID 10, falls der ebenfalls gebackupt wird...)


    100.000 Stunden wären etwas über 11 Jahre :)


    ...ich hab' noch 'nen alten Pentium Pro 180MHz mit 256MB RAM und 'ner Segate Cheetah in 'nem Serverhaus an 'ner 10MBit hängen - der läuft dort seit Ende 1998 und ist ausschließlich via Putty erreichbar (Apache ist aktiv down). Kernel anfangs 2.0.34, dann 2.2.18 (<-- best ever 8) )


    die Platte dürfte bald die 200.000 Stunden knacken - ist also ned soo viel ^^

    "geht nicht" ? - gibt's nicht !

    ...ja, das war schon immer mein Avatar :evil:

    "Mit der Dummheit kämpfen Götter selbst vergebens" (Friedrich Schiller, " Jungfrau von Orleans")

  • Das ist lediglich eine Software, welche die Daten vergleicht und kopiert. Kann man prinzipiell auch mit xcopy oder robocopy machen. Wo du die Daten hinschiebst ist dir überlassen.

    Laut heisst nicht immer gleich gut und toll und wer schreit ist meist im Unrecht.

  • Fast alle Cloudlösungen speichern mehre Versionen der Files. Software braucht man dazu heute nicht, die Lösungen sind im OS schon lange integriert. Zumindest bei Apple und MS$ und das auch Standard mäßig aktiv.


    Im Homeoffice wäre der Mitarbeiter ohne solche Cloudlösungen aufgeschmissen. Ich kenne kein großes DAX unternehmen welche keine nutzt. Nur eines, der Bund, Länder und Gemeinden. Deswegen waren diese ja auch das Vorbild für Homeoffice ?( ...


    Du kannst die Daten verschlüsseln bevor du sie in der Wolke ablegst. Die Daten sind immer verschlüsselt, nur die Frage ist wann und wo. Einige verschlüsseln bevor sie die Daten übertragen. Andere meinen TLS (HTTPS) reiche aus und verschlüsseln dann im Rechenzentrum. Da muss man eben ausloten was man dort ablegt. Fakt ist eins, die Infrastruktur lässt sich in kleinen Unternehmen nicht günstiger zusammenbasteln. Schon gar nicht sicher betreiben.


    Auch wichtig, wenn eine Hausdurchsuchung,Brand,Diebstahl anstehen sind die physischen Datenträger und Geräte erst mal weg. Die Cloud rettet der den Hintern...

    3 Mal editiert, zuletzt von marcoboy ()