McStarfighters Kodi Tower - Der finale Wahnsinn

  • @McStarfighter, wenn der Schrank schon 240Kg wiegt, dann auch noch der Rest reinkommt, dann bist du bestimmt so um die 500kg - 700kg Gesamtgewicht.
    Hast du dich schon informiert was die max Belastung pro m² für den Boden ist?
    Normalerweise liegt der bei einer Mietwohnung so um die 250kg - 500kg pro m², bei Altbauten zum teil auch nur bei 150kg pro m².

    Nicht das du alles fertig hast und der Schrank dann plötzlich "abhaut" und es sich bei deinem Nachbar unter dir gemütlich macht. :)

    HTPC: Lipreelec - Raspi2 mit Samsung 50", Libreelec - Raspi3- DVB-S2 - TVHeadend mit Toshiba 42"
    Server: NAS_1 - FreeNAS - i5 - 8TB ZFS-Pool RAIDZ-2 - 16GB RAM, NAS_2 - FreeNAS - i5 - 8TB ZFS-Pool RAIDZ-2 - 16GB RAM
    Desktop: 1x i7 - 16GB RAM - 250GB SSD - 3x 24"TFT, 3x i5 - 8GB RAM - 250GB SSD - 2x 24"TFT
    Laptop: 1x Lenovo T420, 1x Lenovo T400s, 1x Dell Inspiron i3
    Netzwerk: 2x Cisco/Linksys SRW2024, 1x Fritzbox 7270, 1x Sophos UTM

  • @McStarfighter, wenn der Schrank schon 240Kg wiegt, dann auch noch der Rest reinkommt, dann bist du bestimmt so um die 500kg - 700kg Gesamtgewicht.
    Hast du dich schon informiert was die max Belastung pro m² für den Boden ist?
    Normalerweise liegt der bei einer Mietwohnung so um die 250kg - 500kg pro m², bei Altbauten zum teil auch nur bei 150kg pro m².

    Nicht das du alles fertig hast und der Schrank dann plötzlich "abhaut" und es sich bei deinem Nachbar unter dir gemütlich macht. :)

    Laut der Bautechnik-Abteilung der Wohnungsgesellschaft vertragen die Böden bis zu 1 Tonne pro m²! ;) Ich hatte damals schon angefragt, bevor ich den jetzigen Server aufstellte.

    Du hast mich übrigens soeben auf die Idee gebracht, mal das Maximalgewicht für den Server durchzurechnen, also bei Vollausbau und mit dem neuen Schrank ... Daher auch das Like für dich! :D

  • Dann sollten die jemanden kontaktieren, der weiß wovon er redet, denn das ist Unfug. Dafür gibt es keinesfalls eine Freigabe. Selbst für einen m² ganz nah an der Außenwand nicht.

    Tja, das sind da die mit der Ahnung und darauf muß ich mich halt verlassen! ;) Aber ich werde mich mal in der Hauptverwaltung erkundigen ...

  • @falco89, es kann durchaus möglich sein das der Boden für ein "Gleichmäßiges" Gewicht von 1000kg pro m² ausgelegt ist.
    Was aber wiederum nichts mit einer "Punktlast" wie beim Serverschrank zu tun hat.
    Zumindest in Gewerbeobjekten ist das ein durchaus Realistischer Wert.

    @McStarfighter Erkundige dich lieber nochmal, denn ich denke die gehen von einer Gleichmäßigen Bodenbelastung aus.
    Bei einem Serverschrank, hast du eine Punktlast (meistens 4 Lastpunkte), dazu kommt dann auch noch die Vibrationslast die beachtet werden muss.
    Hatten das gleiche Problem bei uns in der Firma (1. OG), Gleichmäßige Bodentraglast 1200kg pro m².
    Aber laut Berechnung des Statikers liegt die maximale Bodentraglast mit 4 Lastpunkten und den entstehenden Vibrationen nur noch bei max. 150kg pro m² *4 Lastpunkte = 600kg Pro Serverschrank.

    Wenn die eine Gleichmäßige Bodentraglast von 1000kg angeben, dann kannst du in etwa mit der hälfte wirklich Rechnen.
    Denn wie oft kommt es denn schon vor das jemand einen Serverschrank in der "Küche" stehen hat und dann auch noch mit dieser Ausstattung. ;)

    Tipp:
    Lass dir die Aussage bzw. die Erlaubnis mit den Gewichtsangaben und das es ein Serverschrank ist am besten Schriftlich für deine eigenen Sicherheit geben.
    Dann sind die im Schadensfall selber Schuld und können dich deswegen nicht belangen.

    Ansonsten viel Spaß

    (habe eine Frau und muss daher nur von sowas Träumen)

    HTPC: Lipreelec - Raspi2 mit Samsung 50", Libreelec - Raspi3- DVB-S2 - TVHeadend mit Toshiba 42"
    Server: NAS_1 - FreeNAS - i5 - 8TB ZFS-Pool RAIDZ-2 - 16GB RAM, NAS_2 - FreeNAS - i5 - 8TB ZFS-Pool RAIDZ-2 - 16GB RAM
    Desktop: 1x i7 - 16GB RAM - 250GB SSD - 3x 24"TFT, 3x i5 - 8GB RAM - 250GB SSD - 2x 24"TFT
    Laptop: 1x Lenovo T420, 1x Lenovo T400s, 1x Dell Inspiron i3
    Netzwerk: 2x Cisco/Linksys SRW2024, 1x Fritzbox 7270, 1x Sophos UTM

  • Ich habe noch ein klein wenig an der Konzeption fürs System und den Storage an sich gearbeitet ... ;)

    ZFS soll auf jeden Fall mein Dateisystem werden, ich will aber auch gerne Windows behalten da viele der Tools fürs Rippen nur dort laufen. Und wie immer hilft einem das Internet bei der Lösung! :D
    Windows Server 2016 kann an Hyper V-Maschinen nun auch endlich PCI-Geräte durchschleifen. Nennt sich "Discrete Device Assignment" und ist nicht im Client Hyper-V (sprich: Windows 10) enthalten, nur beim Server!

    Daher habe ich mir ganz doll fest viel vorgenommen, Windows Server 2016 als Host-OS zu nutzen (mache ich aktuell sowieso schon!), dieses zum Desktop umzumodden (mach ich auch schon aktuell!) und dann Ubuntu Server LTS (also aktuell 16.04) als Gast-OS für den ZFS Storage. Der VM gebe ich dann exklusiv den Adaptec 78165 RAID Controller (der dient dann als reiner HBA!) und erhalte so meinen ZFS Storage! Auf Ubuntu Server selbst wird es nur zwei zusätzliche Programme geben, Emby Server und Webmin (inkl. ZFS-Plugin). Beides übrigens ganz klassisch über APT und nicht als Docker! (Ich grüße dich, @b0mb!)
    Auf dem Host selbst brauche ich für die ganze Ripperei auch noch ein kleines Storage und da bietet sich mir mein vor sich hinstaubender Adaptec 7805 RAID Controller an. Den nutze ich auch als HBA, hänge 6 Festplatten a 8 TB dran und erstelle mir via Storage Spaces ein RAID5 inkl. Hot Spare. Formatiert als ReFS!
    Auf diese Weise erspare ich mir einen zusätzlichen PC-Einschub mit Hardware und Stromverbrauch. Virtualisierung ist ja dafür gemacht worden, Synergien zu nutzen! ;)

    Mancher wird sich eventuell fragen, warum Ubuntu und nicht irgendwas in Richtung FreeBSD oder Solaris. Der Grund ist einfach: PCI-Passthrough gibt es bei Hyper-V aktuell nur für Pinguine und Fenster, bei allem anderen sind die Integration Tools noch nicht so weit. Daher also die Linux-Welt und damit Ubuntu, denn das wird am besten von Hyper-V supportet und hat ZFS auch ganz offiziell drin.

    Unter uns: Genau diese Konstellation hatte ich mir schon mit Beginn des Konzepts für diesen Tower gewünscht (da allerdings noch mit btrfs als Dateisystem!), aber PCI-Passthrough ging ja noch nicht.

    Ich freue mich schon so sehr auf das Ergebnis! :thumbup:

  • Zitat

    Normalerweise liegt der bei einer Mietwohnung so um die 250kg - 500kg pro m², bei Altbauten zum teil auch nur bei 150kg pro m².

    Na da bist du aber sehr optimistisch... normale Wohnräume (Miet- und auch Einfamilienhäuser) sind es 1,5kN/m² (150kg/m²), 2,5kN/m² sind schon für Büro-, Geschäfts- und Ladenräumlichkeiten üblich und 5,0kN/m² dann schon für Archive, Biblioteken oder Decken in Industriegebäuden... aber da ist auch viel Sicherheit bei ;)

  • Ok, als Host hätte ich Proxmox genommen, aber gut, wenn man Windows Server toll findet. Mit Proxmox hättest du dann die Möglichkeit Windows10 und falls erforderlich WindowsServer anhand von KVM zu virtualisieren. Außerdem könntest du stromsparende LXC für jegliche Serverdienste (bspw. Emby, VDR, TVHeadend) einrichten. Beides geht von Haus aus mit Proxmox bequem per WebUI. PCI Passthrough geht auch. Bei LXC hättest du sogar den Vorteil nichts durchreichen zu müssen, der LXC kann mit entsprechender Berechtigung direkt auf die Hardware zugreifen. Deine 6x8TB könntest du dann auch direkt in Proxmox erstellen, Proxmox unterstützt ZFS ebenfalls von Haus aus.

    Ansonsten würde ich mir an deiner Stelle den Host nicht mit Rippingtools versaubüddeln... Dafür würde ich bspw. einen Windows10-Gast einrichten. Dein Bluraylaufwerk, etc. kannst du ja nun anscheinend auch mit WindowsServer durchreichen. Grundsätzlich könntest du auf die 6x8TB auch verzichten und deine Rips direkt per SMB-Freigabe auf deinen ZFS-Storage schieben bzw. dorthin rippen.

    Wie dem auch sei und wie du dich auch immer entscheidest: Das ist wirklich ein tolles (und teures) Projekt! Naja, Hobbies müssen teuer sein oder weh tun! ;)

    Viel Erfolg!

    Gruß Hoppel

    frontend: nvidia shield tv 2019 pro | apple tv 4k | sonos arc 5.1.2 | lg oled65c97la
    backend: supermicro x11ssh-ctf | xeon | 64gb ecc | wd red | zfs raid-z2 | dd max s8

    software: debian | proxmox | openmediavault | docker | kodi | emby | tvheadend | fhem | unifi

  • @hoppel118: Mir ist schon klar, dass viele das so wie von dir vorgeschlagen machen würden. Mir persönlich sagt es aber überhaupt nicht zu, ein Betriebssystem ausschließlich für die Bereitstellung anderer Systeme zu haben. Sonst wäre ich längst auf VMware ESXi gegangen. Mit Proxmox und all seinen Optionen habe ich mich bereits befasst, das OS schaffte es dann aber nicht mal in die engere Auswahl. Und insgesamt bin ich auch nie mit den ganzen Bare Metal-Hypervisoren warm geworden, es war für meine persönlichen Bedürfnisse einfach oversized. Denn am Ende will ich nur einen Storage Server mit Emby Server, ohne TVHeadend oder CouchPotato oder SickRage und wie der ganze andere Krempel so heißt. Das hätte ich auch alles mit FreeNAS haben können. Und dazu halt mein Windows für die Ripperei und Nachbearbeitung! ;)
    Die Erstellung meiner Sammlung habe ich schon seit jeher direkt auf dem Server gemacht, RDP und mein Notebook machen es möglich. Und ich bin damit auch bisher sehr gut gefahren, keines der Tools hat mir irgendwie das System beschädigt oder sonst was!
    Überhaupt hat mir bisher niemand überzeugend darlegen können, warum diese ganze Isolierung und "Über"-Virtualisierung und Containerisierung gut für mich sein soll! ;)

  • Überhaupt hat mir bisher niemand überzeugend darlegen können, warum diese ganze Isolierung und "Über"-Virtualisierung und Containerisierung gut für mich sein soll!

    Nun ja, es gibt schon ein paar Gründe. Z.B. war es jahrelang Usus, auf einen Server soviel Kram wie möglich abzuladen. Abschreckendestes Beispiel dafür ist unter anderem der "Windows Home Server".
    Da viele der dort laufenden Dienste irgendwie voneinander abhängig sind, kommt es beim Ausfall einer Komponente, oder sogar schon durch einen simplen Neustart des Servers, zu Kettenreaktionen, die dem Admin so den Tag verhageln können.
    Da dauert dann ein Reboot schon mal 4 Stunden und länger, weil dauernd irgendwelche Dinger auf Daten warten, die nicht mehr kommen werden und immer in ein Timeout rennen.
    Das nervt und ist auch nicht gut für die Produktivität. Ausfälle können so unnötig in die Länge gezogen werden.

    Hat man die Dienste sauber voneinander getrennt, so sinkt sofort die Wahrscheinlichkeit, dass ein Dienst den anderen negativ beeinträchtigt. Ausserdem können einzelne Komponenten unabhängig von den anderen repariert werden, man muss nicht immer ALLES neu starten (und ewig warten u.U). Der Admin behält auch leichter die Übersicht.

    Da man natürlich nicht wirklich für jeden kleinen Dienst einen eigenen Server braucht, muss man selber entscheiden, was zusammen geht, und was getrennt läuft.

    Bei einigen Sachen verhindert Microsoft ja inzwischen auch, dass sie gemeinsam auf eine Kiste installiert werden können, ist einfach zu gefährlich.

    Also, wie so oft, irgendwo einen Mittelweg suchen und finden.

    PS: das "HauptOS" soll ruhig wirklich nur den Hypervisor enthalten. Das bootet dann extrem schnell, man kann meistens auf Updates verzichten und was nicht da ist, kann nicht kapputgehen. Frisst auch wenig Ressourcen.

  • PS: das "HauptOS" soll ruhig wirklich nur den Hypervisor enthalten. Das bootet dann extrem schnell, man kann meistens auf Updates verzichten und was nicht da ist, kann nicht kapputgehen. Frisst auch wenig Ressourcen.

    Aber es ist da, und schon ist mein Empfinden von Perfektion gestört! :D

    Wobei ich aktuell darüber brüte, ob ich mir was gescheites aus dem ganzen VMware-Portfolio zusammenbasteln kann. Und damit meine ich nicht nur den ESXi, sondern auch Photon und all die anderen schönen Sachen! Wenn mir das dann am Ende eher gefällt, wird es eben ein VMware Tower! ;)

    Mein Kopf hat so eben seine Vorstellungen, denen kann ich oft nicht entgehen!

  • Aber es ist da, und schon ist mein Empfinden von Perfektion gestört!

    Na ja, wenn es sooo stark stört....
    Dann muss Du aber auch stilvoll mit nem Laser oder sowas den ganzen Hypervisor Kram aus dem Professor ausschneiden, sonst stört Dich im Schlaf noch die Hardware, die ja potentiell...
    (na gut, meistens kann man den Funktionsblock im Bios deaktivieren, wobei ich damit recht schlechte Erfahrungen gemacht habe, Windows scheint den Teil noch für andere Sachen zu verwenden, selbst wenn man gar kein HyperV oder sowas aktiviert hat. Irgendwas mit Grafik ging auf einmal nicht mehr, den Hyperkram im Bios wieder aktiviert, schwupps war die Grafik auch wieder da... hab nie nachgeforscht, was das da eigentlich war)

    Ich empfinde es auch als gravierenden Vorteil des "Haupt-Os"ses, dass nur dort direkt mit Hardware wie Festplatten / Netzwerkkarten / Treibern usw. umgegangen wird. Obwohl z.B. Microsoft den BareBone-Hypervisor (MiniOS+Hyperv Server, ohne Benutzeroberfläche) umsonst verteilt, nehme ich dann doch lieber die "Vollversion", da kann man dann auch die ganzen hübschen Tools der Kartenhersteller verwenden.

  • @mam: Ich werde ganz bestimmt keine Professoren mit Lasern zerschneiden! :D

    Und sind wir mal ehrlich: Jeder hat sein eigenes Empfinden, was für ihn das perfekte Setup ist. Oft auch getrieben von aktuellen Trends. Tja, und ich will die Storage-VM wie eine Applikation behandeln: Wird installiert und eingerichtet auf dem Haupt-OS und fährt mit ihm auch immer brav hoch und runter!
    In Setups mit mehreren virtuellen Umgebungen gebe ich dir absolut Recht, da hört ne ordentliche Virtualisierungslösung hin. Nur ich beschränke mich ja auf eine einzige VM auf einem OS, dass ich dann eben auch als Workstation nutze. Im Prinzip auch nichts anderes als all die Rechner, wo VirtualBox oder VMware Workstation laufen. Nur nehme ich halt die im OS eingebaute Lösung! ;)
    Und wenn man dann immer davon ausgehen soll, dass eine VM und ein paar installierte Programme auf dem Host gleich dessen Untergang bedeuten, dann ist es mit dem allgemeinen Vertrauen in Software aber auch nicht mehr weit! ;)

  • Der Tower ist jetzt von mir soweit demontiert worden, wie es meine eigenen Werkzeuge mir erlauben. Es sind auch alle äußeren Kabel raus! Für den Rest braucht man nen gescheiten Akkuschrauber, den bringt mein Kumpel dann nächste Woche mit und hilft mir beim restlichen Ausbau, der Vergrößerung der Innentiefe sowie dem Einbau dessen, was zu dem Zeitpunkt geht.
    Aktuell wäre das die USV ganz unten, direkt darüber die Schublade und ganz oben eine der HDD Enclosures. Der Rest dann, so schnell mir mein Geldbeutel die Anschaffung der Rails und auch der neuen Server-Komponenten für den PC erlaubt!



    Weitere Fotos und Infos so schnell wie möglich! ;)

  • Wenn wir jetzt bei Facebook wären würde ich dir ein paar Herzen unter knallen! :D

    Mich interessiert die Umsetzung der Hardware und wie man alles miteinander verbindet! :D :thumbup:

    Ich dachte ja das ich dich irgendwann mal mit Speicherplatz einhole aber wenn ich das sehe gebe ich mich wirklich geschlagen denn das wirklich verrückt und der finale Wahnsinn

    Einmal editiert, zuletzt von Snickers (30. August 2017 um 15:36)

  • Verkabelung ist da kein großes Ding, das sind schlicht externe SAS-Kabel.
    Btw @skybird schon darüber nachgedacht, einfach nennen billigen Threadripper auf ein mb mit ECC Support zu packen? 64pcie lanes für den Preis bekommst du sonst nur mit hochspezialisierten ARM -SoCs für den servermarkt

    Gesendet von meinem ZTE A2017G mit Tapatalk

  • Verkabelung ist da kein großes Ding, das sind schlicht externe SAS-Kabel.
    Btw @skybird schon darüber nachgedacht, einfach nennen billigen Threadripper auf ein mb mit ECC Support zu packen? 64pcie lanes für den Preis bekommst du sonst nur mit hochspezialisierten ARM -SoCs für den servermarkt

    Gesendet von meinem ZTE A2017G mit Tapatalk

  • Ein Threadripper oder Ryzen wären zur zeit halt auch meine Wahl.

    Mit einem SAS Kabel verbinde ich doch aber nich alle Server miteinander oder doch?
    Ich habe soetwas halt noch nicht in real gesehen aber möchte natürlich bei minimalem Verbrauch die besten Möglichkeiten haben. Aber wenn ich 24 x einen Ryzen oder Threadripper verbauen soll dann wäre es für mich nicht tragbar.

    Deshalb interessiert es mich da ich schon seit einiger Zeit mit dem Gedanken spiele mir einen Rack Server aufzustellen.

    Oder könnte ich mit genügend SAS anschlüssen und genügend Power auch andere Cases befeuern? Heisst ein Motherboard für mehr als 24 Bays?

    Einmal editiert, zuletzt von Snickers (30. August 2017 um 18:48)

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!