McStarfighters Kodi Tower - Der finale Wahnsinn

  • Nein, leider nicht wirklich.
    ReFS ohne storagespaces ist von MS nicht empfohlen. Das hat unter anderem Folgende Gründe:
    -ReFS hat auf HWRAID schlicht beschissene writeperf
    - die Hauptzahl aller self-heal features braucht storagespaces damit die benötigen Metadaten geschrieben werden. Auf HW-RAID lässt sich z.b. schlicht keine bitrot protection in sw bauen, da du dafür die Rohdaten brauchst

    Gesendet von meinem ZTE A2017G mit Tapatalk
    Edit: und dein "doppeltes Netz" ist realistisch gesehen eher ein doppelter point oft failure


    Quellen bitte!

  • Schau bezüglich ReFs und ss in die technet doku oder auch ms blogs, speziell die vom PFE.
    Bezüglich hw-raid ist die erklärung recht lang, zu lang um sie schnell am handy zu tippen.
    Tl;dr des ganzen ist, das HW-Raidkarten es dir schlicht nicht erlauben, bit rot zuverlässig zu erkennen und zu reparieren, da der prozess ein compare-with-paritydata beinhaltet, was mit einem HWRAID schlicht so nicht möglich ist

    Gesendet von meinem ZTE A2017G mit Tapatalk

    Edit: ich hab grad mal ReFS mit Storagespaces sowie mit nem wieder auf RAID-mode geflashten LSI "HBA" getestet.
    Holy shit, ist die Performance schlecht, wenn Integrity streams an sind (die braucht ReFS für data corruption protection). Selbst mit ner PCIe-SSD als SSD-cache ist das System extrem lahm. Da muss MS nochmal stark nacharbeiten, ich krieg ja noch nicht einmal ne 10gbit verbindung ausgelastet, von Workloads mit VMs mal zu schweigen.
    Ich bin zwar ZFS-RAM_readcache verwöhnt, aber das ist echt lahm ohne ende.

    Edit2: Testsetup ist ein serverim Homelab mit Intel Xeon E3-1240 v5, 32GB ECC-RAM und 8 6TB-Platten.

  • Naja, auf die maximale Performance kommt es mir nicht an und die bisherigen Ergebnisse stellen mich soweit zufrieden.

    Ansonsten sehe ich es aktuell so: Eine Firma sagt, dass man ihr eigenes Produkt nur gescheit verwenden kann wenn man es nicht mit Konkurrenzprodukten kombiniert. Und diese Aussage wird meinen bisherigen Recherchen nach nicht außerhalb des Technets bestätigt.
    Im Gegenteil: Wenn ich mir das HardForum oder die Threads bei ServeTheHome ansehe, ist HW-RAID immer noch die Lösung Nr. 1. Und Storages Spaces gilt also unnötig kompliziert.
    Sicher, ich habe mit Microsofts ReFS auf einem HW-RAID nicht alle Features, aber das Dateisystem wird ja noch entwickelt. Und schlimmer als mit NTFS kann es mich da auch nicht treffen.
    Zusätzlich lasse ich auf dem RAID-Controller den permanenten Hintergrund-Check laufen, das schafft auch eine gewisse Sicherheit.

    Eine perfekte Lösung wird es beim Kodi Tower wohl nie geben ... ;)

  • Perfekt wäre wenn man versteht was man tut und sich das System so verhält wie vorher festgelegt. Refs wird da immer im Weg stehen weil es nicht Quelloffen ist. Außerdem kannst du das System nicht upgraden also wird es auch keine Weiterentwicklung geben für dich. Refs have ich jetzt überall raus genommen und durch zfs ersetzt. Da weiß ich was es tut und kann es steuern ohne in eine Blackbox zu sehen. Hardware raids sind doch nur noch dafür da mir SATA Anschlüsse zu liefern? Sonst sind die doch obsolet. Habe ich da was verpasst?

  • Na ja, für ReFS gilt wie für ZFS auch: http://open-zfs.org/wiki/Hardware#Hardware_RAID_controllers
    Nur mit dem Unterschied, dass ohne SS halt ein großteil der Data protection features nichteinmal nutzbar sind.
    Nebeinbei: es hat seinen Grund, warum du zu ReFS außerhalb vom Technet wenig findest. Aufbgrund der recht miesen Perf unter WS2012 hat es dort fast niemand auf produktivsystemen eingesetzt und da sich das mit 2016 nur marginal gebessert hat, dürfte sich daran auch wenig ändern.
    z.b. rät MS Firmenkunden aktuell eher zu CSVfs und S-O-FS als zu ReFS.

    Btw, versuch mal professionelle Soragesolutions mit HW-Raid zu bekommen ;)

  • Perfekt wäre wenn man versteht was man tut und sich das System so verhält wie vorher festgelegt. Refs wird da immer im Weg stehen weil es nicht Quelloffen ist. Außerdem kannst du das System nicht upgraden also wird es auch keine Weiterentwicklung geben für dich. Refs have ich jetzt überall raus genommen und durch zfs ersetzt. Da weiß ich was es tut und kann es steuern ohne in eine Blackbox zu sehen. Hardware raids sind doch nur noch dafür da mir SATA Anschlüsse zu liefern? Sonst sind die doch obsolet. Habe ich da was verpasst?

    ZFS ist nett, krankt aber für mich daran, dass man bestehende Z-RAIDs nicht durch zusätzliche Festplatten erweitern kann. Man kann das Volume dann nur durch den Austausch durch größere Festplatten erweitern, nicht aber durch weitere Platten.
    Damit ist ZFS für mich gestorben.

  • Na ja, für ReFS gilt wie für ZFS auch: http://open-zfs.org/wiki/Hardware#Hardware_RAID_controllers
    Nur mit dem Unterschied, dass ohne SS halt ein großteil der Data protection features nichteinmal nutzbar sind.
    Nebeinbei: es hat seinen Grund, warum du zu ReFS außerhalb vom Technet wenig findest. Aufbgrund der recht miesen Perf unter WS2012 hat es dort fast niemand auf produktivsystemen eingesetzt und da sich das mit 2016 nur marginal gebessert hat, dürfte sich daran auch wenig ändern.
    z.b. rät MS Firmenkunden aktuell eher zu CSVfs und S-O-FS als zu ReFS.

    Btw, versuch mal professionelle Soragesolutions mit HW-Raid zu bekommen ;)

    Stimmt, bei HP, IBM NetApp und wie sie alle heißen, reißen sich sich ja darum, das Konzept von hardwarebasierten RAID-Storages über Board zu werfen ... :rolleyes:

  • es setzt voraus das man weiß wie das Ergebnis aussehen soll.

    Mir ist ZFS in der Hinsicht zu starr ... Ich müsste im Grunde den Server erstmal mit allen Platten (150 Stück!) befüllen und könnte dann erst die Volumes erstellen. Und das RAID Level kann man auch nicht verändern.

    Da ist mir mein Adaptec-Controller 100x lieber ... Da kann ich auch noch ne weitere Platte dranhängen und bei Bedarf sogar auf ein besseres RAID Level umsteigen!

  • ZFS ist nett, krankt aber für mich daran, dass man bestehende Z-RAIDs nicht durch zusätzliche Festplatten erweitern kann. Man kann das Volume dann nur durch den Austausch durch größere Festplatten erweitern, nicht aber durch weitere Platten.
    Damit ist ZFS für mich gestorben.


    Ihm, falsch. Du kannst das volume jeder zeit durch ein weiteres vdev erweitern (aka platten zu stecken)

    Gesendet von meinem ZTE A2017G mit Tapatalk

  • Ihm, falsch. Du kannst das volume jeder zeit durch ein weiteres vdev erweitern (aka platten zu stecken)

    Gesendet von meinem ZTE A2017G mit Tapatalk

    Nicht nach dem was ich bisher gelesen habe.

    Wenn ich z.B. ein RAIDZ2 mit 10 Festplatten erstellt habe, dann ist das so fix. Da kann ich keine weitere Platte dranhängen oder das RAID Level verändern. Was geht, ist ein weiteres RAIDZ zu erstellen und beide zu verbinden. Das ist dann eben ein dynamisches Volume oder "spanned Disk", wie man es von Windows her kennt. Für mich nicht das Gelbe vom Ei...

  • Es geht mit ein paar tricksereien, ist aber sowieso bullshit. Level changes bringen so viele probleme mit ( huge workload fur die platten, massiver perfeinbruch etc.), das man das auf produktiv Systemen schlicht nicht macht. Zfss ansatz ist da schlicht besser, da weder downtime noch sonst irgendwelche nachteile bei cap upgrade.

    Gesendet von meinem ZTE A2017G mit Tapatalk

  • Es geht mit ein paar tricksereien, ist aber sowieso bullshit. Level changes bringen so viele probleme mit ( huge workload fur die platten, massiver perfeinbruch etc.), das man das auf produktiv Systemen schlicht nicht macht. Zfss ansatz ist da schlicht besser, da weder downtime noch sonst irgendwelche nachteile bei cap upgrade.

    Gesendet von meinem ZTE A2017G mit Tapatalk

    Da bin ich aber froh, dass das hier kein Produktivsystem ist! ;)

    ZFS wird mich in der derzeitigen Fassung nie überzeugen, und wenn es mir noch so viele Leute schmackhaft machen wollen. Sollte ich jemals auf Linux umschwenken, dann nehme ich btrfs, da geht das alles nämlich!

    Eventuell lasse ich mich mal auf Windows Storage Spaces mit ReFS ein, aber auch da habe ich noch nichts überzeugendes gefunden.

    Also belasse ich es beim bewährten HW-RAID!

  • ReFS und BTRFS sind für ihre spontanen Ausfälle und co bekannt. Ich hoffe du kannst jederzeit ein Backup einspielen.. Irgendwie fühle ich mich als hätte ich das schon mal hier reingeschrieben mhh :)

    ReFS hat mich seit seinem ersten Einsatz bei mir vor 4 Jahren niemals im Stich gelassen. Es gibt immer irgendwen, der irgendwann ein Problem mit irgendwas hatte. Dann äffen das ein paar Leute nach und schon ist es ein angeblich valides Problem.
    Und wahrscheinlich kommt es nicht allzu selten aus der Ecke der ZFS-Missionierer, die ja alles außer ihrem Dateisystem so dermassen grottig finden und es einem nötigenfalls mit nem Holzkanten eintrichtern würden.

    Alles was ich auf dem Kodi Tower habe, liegt bei mir auch noch in echten Scheiben vor, denn immerhin kaufe ich ja meine Blu Rays und DVDs und Audio CDs ... Und behalte die sogar! Sollte sich also mal ein Video verabschieden, kann ich es binnen einer halben Stunde wiederherstellen.

  • Mach ja kein Storage Space.
    Das ist, wenn der Ram voll ist, schneckenlangsam. Ich habs am SSD Server laufen und extra deswegen auf 64GB Ram aufgerüstet. Sobald die Datei größer ist kannst du jausnen gehen.

    Du musst Telepath sein! :thumbup:

    Ich habe seit Anfang der Woche immer wieder im Kopf, mein hardwarebasiertes RAID aufzugeben und auf Windows Storage Spaces mit ReFS zu setzen. Denn leider hat das Internet es geschafft, mich bzgl. der Datenkonsistenz bei HW-RAID so richtig zu verunsichern. Die Marktschreier erzählen einem ja immer, dass nur die neuen Lösungen a la Windows Storage Spaces (mit RefS) oder am besten gleich ZFS (die Missionierer nerven mich so langsam!) was taugen und die althergebrachten HW-RAID-Lösungen "es nicht mehr drauf haben". Und leider finde ich keinerlei fundierte Gegenüberstellung.
    Dabei nehme ich ja sogar einen professionellen RAID-Controller und nicht die Mainboard-Lösungen.

    Du siehst, meine Verunsicherung ist sehr groß! ?(

  • Ich hab beide Dateisysteme im Einsatz.
    Bei meinem Storage Space mit ReFS und 4x 500GB Samsung 850Pro geht der Datenspeed von über 900mByte/sec auf 35mByte/sec (ca.280mBit/sec) runter wenn die 64GB Ram (halb)voll sind. Ich hab das wirklich genau angeschaut, und es gibt keine Chance.
    ZFS mit FreeNas ist dafür bei kleinen Dateien eine volle Bremse.

    BTRFs wäre meine nächste Wahl, aber momentan keine Zeit zum testen. Zum zeitpunt der Install. war aber BTRFs auch ncoh fehlerbehaftet.

  • Bei kleinen files ist zfs i/o limited, wie viele CoW systeme. Da helfen mehr parallele vdevs, ssds oder mehr ram für arc.

    Spoiler anzeigen


    Pros of Hardware RAID

    Improves server up-time statistics and availability which might be negatively impacted by common, predictable disk failures when configured and monitored properly.
    Easy to set up – Some controllers have a menu driven wizard to guide you through building your array or automatically set up right out of the box.
    Easy to replace disks – If a disk fails just pull it out and replace it with a new one assuming all other hardware is hot-plug compatible.
    Some controllers have battery backups that help reduce the possibility of data damage/loss during a power outage.
    Cons of Hardware RAID

    Proprietary – Minimal or complete lack of detailed hardware and software specifications/instructions. You are stuck with this vendor.
    On-Disk meta data can make it near impossible to recover data without a compatible RAID card – If your controller dies you’ll have to find a compatible model to replace it with, your disks won’t be useful without the controller. This is especially bad if working with a discontinued model that has failed after years of operation.
    Monitoring applications are all over the road – Depending on the vendor and model the ability and interface to monitor the health and performance of your array varies greatly. Often you are tied to specific piece of software that the vendor provides.
    Additional cost – Hardware RAID cards cost more than standard disk controllers. High end models can be very expensive.
    Lack of standardization between controllers (configuration, management, etc)- The keystrokes, nomenclature and software that you use to manage and monitor one card likely won’t work on another.
    Inflexible – Your ability to create, mix and match different types of arrays and disks and perform other maintenance tasks varies tremendously with each card.
    Hardware RAID is not backup, if you disagree then you need to read the definition again. Even the most expensive Hardware RAID is so much junk without a complete and secure backup of your data which would be necessary following a catastrophic, unpredictable failure.
    Pros of Software RAID

    ZFS and SoftRAID can improve server up-time statistics and availability which might be negatively impacted by common, predictable disk failures when configured and monitored properly.
    ZFS and similar (like BtrFS) were deliberately developed as software systems and for the most part do not benefit from dedicated hardware controllers.
    Development and innovation in ZFS, BtrvFS and others is active and ongoing.
    Hardware independent – RAID is implemented in the OS which keeps things consistent regardless of the hardware manufacturer.
    Easy recovery in case of MB or controller failure - With software RAID you can swap the drives to a different server and read the data. There is no vendor lock-in with a software RAID solution.
    Standardized RAID configuration (for each OS) – The management toolkit is OS specific rather than specific to each individual type of RAID card.
    Standardized monitoring (for each OS) – Since the toolkit is consistent you can expect to monitor the health of each of your servers using the same methods.
    Removing and replacing a failed disk is typically very simple and you may not even have to reboot the server if all your hardware is hot-plug compatible.
    Good performance – CPUs just keep getting faster and faster. Unless you are performing tremendous amounts of IO the extra cost just doesn’t seem worthwhile. Even then, it takes milliseconds to read/write data, but only nanoseconds to compute parity, so until drives can read/write much faster, the overhead is minimal for a modern processor.
    Very flexible – Software RAID allows you to reconfigure your arrays in ways that are generally not possible with hardware controllers. Of course, not all configurations are useful, some can be downright dumb.
    Cons of Software RAID

    Need to learn the software RAID tool set for each OS. – These tools are often well documented but often more difficult to learn/understand as their hardware counterparts. Flexibility does have it's price.
    Additional RAM requirements - particularly if using ZFS
    Susceptible to power outages - A UPS is strongly recommended when using SoftRAID as data loss or damage could occur if power is lost. ZFS is less susceptible, but I would still recommend a UPS.
    Disk replacement sometimes requires prep work - You typically should tell the software RAID system to stop using a disk before you yank it out of the system. I’ve seen systems panic when a disk was physically removed before being logically removed. This is of course minimized if all your hardware is hot-plug compatible.
    ZFS and Software RAID are not backup, if you disagree then you need to read the definition again. Even the largest and cheapest SoftRAID is so much junk without a complete and secure backup of your data which would be necessary following a catastrophic, unpredictable failure.

    Gesendet von meinem ZTE+A2017G mit Tapatalk

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!