Lehmden's Hardware Laberthread

Am Samstag (06.09.25) Vormittag werde ich ein Update der Forensoftware (inkl. aller Plugins) durchführen. Das Forum wird deshalb auf unbestimmte Zeit nicht verfügbar sein. Neuigkeiten wird es im Matrix Chat geben: https://www.kodinerds.net/thread/79927-freischaltung-matrix-chat/
  • Pihole ist speziell weil der viele ports braucht und es letztendlich für seine features einfacher ist ihn direkt ins netz zu hängen.

    Dachte du hattest was erstellt und deshalb den fehler aber jetzt hab ich mal genauer hingesehen :D

    Aber selbst wenn er nicht im Netz hängt sondern nur der port 53 Konfiguriert wäre hätte es funktionieren. Du gibts die ip vom host bspw in der frotzbox an, der port 53 für dns ist immer gleich und wird automatisch angefragt.

    Hoffe ich hab mich verständlich ausgedrückt und nicht zu verquer :D

    es sind die kleinen Dinge, alltägliche Taten von gewöhnlichen Leuten, die die Dunkelheit auf Abstand halten. Einfache Taten aus Güte und Liebe.


    Dune HD ATV14 | Pioneer A 504R Bj. 96
    OMV NAS - NAS | Emby Server | LogitechMediaServer
    3x Logitech SqueezeBox & 3x RasPi PiCorePlayer
    Unifi Netzwerk | Sophos XGS Firewall | Agfeo TK | Kentix Security
    Loxone SmartHome

  • Bevir du anfängst mit verschiedenen Containern zu arbeiten würde ich dir empfehlen dich einmal zu belesen bzgl. den Netzwerkvarianten Host und Bridge bei Docker, damit du weißt worauf du achten musst.


    Grob zusammen gefasst:

    Bei Host werden die Netzwerkvariablen wie bspw. Ports 1:1 an den Host durchgereicht, bei Bridge kannst du die zu nutzenden Ports beeinflussen/abändern.

    Das kommt dann zum Tragen wenn zwei Container für ihre Anwendung den gleichen Port nutzen wollen. Würde man dann beide per Host-Mode laufen lassen, gäbe es ein Konflikt weil der Port mehrfach genutzt werden würde. In dem Fall müsste mind. ein Container auf Bridge umgestellt werden.

    NAS: Gehäuse: Jonsbo G3, Mainboard: MSI B460M PRO, CPU: Intel Pentium G6400, OS: OMV 6

    Client: NVIDIA Shield Pro 2019

  • Naja man setzt nur in Sonderfällen auf host, sonst immer bridge oder sogar noch nen proxy davor... aber soweit sind wir hier noch lange nicht :D eins nach dem Anderen.

    es sind die kleinen Dinge, alltägliche Taten von gewöhnlichen Leuten, die die Dunkelheit auf Abstand halten. Einfache Taten aus Güte und Liebe.


    Dune HD ATV14 | Pioneer A 504R Bj. 96
    OMV NAS - NAS | Emby Server | LogitechMediaServer
    3x Logitech SqueezeBox & 3x RasPi PiCorePlayer
    Unifi Netzwerk | Sophos XGS Firewall | Agfeo TK | Kentix Security
    Loxone SmartHome

  • Opi will nur mal staenkern:

    Gibt ja schon einen Grund, warum Windows so erfolgreich ist. Apps lassen sich dort viel einfacher installieren. Klar, die meisten kosten dann Geld. Aber selbst bei "freien" Anwendungen wie Kodi machen sich die Entwickler bei Windows eben auch deutlich mehr Muehe eine Anwendung zu bauen die sich einfach so installieren kann. Bei Linux wird dann von den Entwicklern (Team Kodi on Linux) rumgeflennt das man ja nicht alle notwendigen Libraries mit in die Anwendung integrieren kann. Stattdessen wird dann so ein Quark gemacht wie auf irgend eins von viel zu viel alternativen Container/Portainer und anderen zusaetzlichen "App-Packaging" Komplexitaeten zurueckgreifen. Und das ist halt so eine Ebene wo sich der Wildwuchs doppelt raecht: Er macht Linux immer unattraktiver.

    Klar, so ein echter Nerd der beisst sich durch... warum ??? Es ist einfach der falsche Ansatz fuer normale Benutzer.

    Klar, distributionen versuchen die Komplexitaet zu vertuschen in de GUI, aber das ist ja komplett fragmentarisch und wildwuchs.

    Echt schade fuer Linux.

  • Hi.

    Nachdem gestern Nacht die Hitze ein wenig zurück ging und ich trotzdem nicht schlafen konnte, habe ich dann doch noch weiter gebastelt. Und, tada:

    Die ersten beiden Container laufen. MariaDB ist ganz normal wie sonst auch über Port 3306 zu erreichen (mit Heidi SQL von Windows aus ausprobiert, klappt tadellos) und auch der JDownloader läuft problemlos. Das Web GUI ist viel besser als MyJDownloader, was man sonst für "Headless" nehmen muss. Das wirklich Blöde an der Lösung ist die fehlende CnL Unterstützung. Da muss man dann doch den Umweg über das Browser Addon und MyJDownloader gehen. Zum Glück brauche ich das nicht so oft. Meist reicht das Clipboard aus.

    JDownloader habe ich mit angepasstem Docker Compose File aus den Beispielen in OMV ans Laufen bekommen. Für MariaDB stammt File und Image von linuxserver.io...

    Ich will ja später noch einen zweiten JDownloader Container aufsetzen, der dann nicht direkt, sondern über VPN (gibt es auch als fertiges Docker Image) mit "ausländischer" IP laufen soll. Das wird dann sicher deutlich komplizierter, hat aber noch Zeit. So oft muss ich nichts vom ORF downloaden und dabei das Geoblocking austricksen. PiHole ist scheinbar relativ kompliziert, da man so viele spezielle Einstellungen bezüglich des Netzwerks machen muss. Als nächstes könnte ich mich deswegen vielleicht an TVHeadend und/oder Easy-EPG versuchen. Die beiden Container müssen nicht über andere Container bzw. über spezielle Netzwerke eingebunden werden. Alles andere wird dann wohl komplizierter, fürchte ich. Da werde ich dann wohl noch weitere Hilfe brauchen.

    Ich muss gleich zum Augenarzt, Routinekontrolle. Danach werde ich erst mal eine Weile nichts sehen, dank der "tollen" Augentropfen, die man da immer bekommt. Also wird heute wohl nicht mehr viel passieren. Morgen kommt ein 2,5 Zoll USB Gehäuse an. Ich hatte keines mehr, aber noch eine 500 GB SATA SSD ungenutzt rum liegen. Damit will ich dann weiter mit "gefüllten NTFS" Laufwerken experimentieren. Vor allem interessiert mich, ob auch eine USB Platte das System so negativ beeinflusst wie eine NTFS Partition auf dem internen Laufwerk. Außerdem bin ich neugierig, wie OMV sich verhält, wenn die USB Platte erst später eingeschaltet wird als das System selbst. Sollte das, eigentlich wider Erwarten, problemlos funktionieren kann ich mir vorstellen, mein NAS aufzulösen und die 5 HDD in ein 5- Fach USB Gehäuse mit an die OMV Kiste zu klemmen, wodurch sie dann tatsächlich zu einem NAS würde. Allerdings sollen die HDD nicht 24/7 am Strom hängen. Das verbraucht viel zu viel Strom, kommt gar nicht in Frage. Wenn ich sie aber bei Bedarf einfach einschalten kann und sie trotzdem in OMV problemlos zur Verfügung stehen, dann könnte das in Zukunft wirklich so gemacht werden. Würde einen weiteren Rechner einsparen.

    -------------------------------------
    Danke fürs lesen, Claus

  • 3.5" HDD verbraucht angeschaltet aber nicht drehend unter 2W.

    Meist sind es deutlich mehr, je nach USB Controller. Aber selbst mit nur 2 Watt pro HDD vervierfacht das den Stromverbrauch des 24/7 Systems durch etwas, das ich vielleicht 3 Stunden am Tag wirklich brauche. Schlechtes Geschäft. Wenn das nicht funktioniert, bleibt auf jeden Fall das alte NAS, das ich einfach per Sprachbefehl ein- und ausschalten kann. Dank diesen blöden ATX Netzteilen mit megamäßig übertriebener Leistung braucht das Teil im Idle so etwa 40 Watt, wovon das Board (mit CPU, RAM, System SSD, usw.) vorher mit einem PicoPSU grade mal 5 Watt gezogen hat. Den "Rest" verballern die fünf 3,5 Zoll HDD, wenn sie nicht drehen (entspricht 7 Watt pro HDD). Allerdings das furchtbar ineffiziente ATX Netzteil (trotz 80+ Gold ist die Effizienz in dem benötigten Niedriglast- Bereich miserabel) auch seinen nicht unerheblichen Anteil daran. Ein PicoPSU mit 5 großen HDD dran, das wird aber meist nichts, leider. Obwohl es inzwischen ja schon 300 Watt Picos gibt.

    Auf jeden Fall werde ich morgen Abend, wenn das USB Gehäuse da ist, mit der übrig gebliebenen 500 GB SSD an der OMV Box experimentieren. Danach weiß ich sicher mehr. Wenn die Experimente abgeschlossen sind, wandert die Box dann auch vom Wohnzimmer- TV an ihren angestammten Platz. Für OMV muss man ja keinen direkten Zugriff auf das System haben. Da bei OMV der Fernzugriff problemlos funktioniert, ist es ja letztendlich OMV geworden.

    Ich bin übrigens schon wieder zurück vom Augenarzt. Er (genauer sie) hat gar nicht gebohrt äh, getropft. Und ich habe mich extra deswegen auf der Arbeit abgemeldet (ich muss Auto fahren, was mit getropften Augen nicht geht). Na ja, kann ich nachher weiter an Docker basteln. Davon ab war bei der Routinekontrolle alles völlig in Ordnung.

    -------------------------------------
    Danke fürs lesen, Claus

  • Kannst den Plattenstrom ja immer ueber relais abschalten, das ist halt bastelei. Bei externen Platten notfalls halt ueber fertige stromschalter wie shelly, weiss gar nicht mehr was das genau fuer ein HW-Verhau bei Dir werden soll. Ich komme ja seit Ewigkeiten nicht dazu, das bei mir einzubauen in die Server. Will das ja automatisieren, das ist SW um kostet am meisten Zeit.

    Alternative halt einfach eine Balkonsolaranlage nehmen oder so, also so das dich der Strom nicht mehr juckt.

  • Bei externen Platten notfalls halt ueber fertige stromschalter wie shelly

    Sowas in der Art ist geplant. Die 5 Platten kommen, wenn das hin haut, in ein externes USB Gehäuse mit eigenem Netzteil. Sowas in der Art:

    https://www.amazon.de/ORICO-Magnetic-Type-Festplattengeh%C3%A4use-Unterst%C3%BCtzung-Kunststoffe/dp/B07WCM6F7Z?tag=kodinerds04-21 [Anzeige]

    Das wird dann mit einem Smart Plug ein- und aus geschaltet. Intern hat der MiniPC keine Einbaumöglichkeiten für HDD, nur eine NVMe passt rein (auf der OMV installiert ist). Unter Windows läuft das problemlos und stabil. Hab ich mit einer anderen USB Platte mit eigenem Netzteil schon lange so laufen, auch an genau dem Mini PC, auf dem jetzt OMV läuft. Strom einschalten, Platte ist da. Strom ausschalten, Platte ist weg. Kann ich zur Not hundertmal pro Stunde machen, ohne das irgendwas klemmt. Aber bei Linux weiß man ja nie...

    Alternative halt einfach eine Balkonsolaranlage nehmen

    Ohne Balkon ist das schwierig. Dazu müsste die Anlage dann aufs Dach, wobei der Vermieter ein Wörtchen mitzureden hat. Und der will nicht, weil er vor hat selber eine PV Anlage auf mein Dach zu bauen. Dann kann ich zwar den Strom von ihm deutlich günstiger als vom Versorger beziehen, aber eben nicht ganz umsonst. Außerdem steht es in den Sternen, wann er das mal umsetzt, falls überhaupt.

    -------------------------------------
    Danke fürs lesen, Claus

  • Hi.

    "Unkompizierte" Container bekomme ich mit Hilfe von Compose Files jetzt installiert. Aber als nächstes wollte ich easy-epg im Docker aufsetzen. Dafür gibt es mehrere Docker Images (wobei ich gar nicht weiß, welches das aktuell am besten Gepflegte ist) aber leider kein Docker Compose Beispiel- File. Nun muss ich also aus dem Cli Befehl ein Docker Compose File machen, da ich keine Container manuell per SSH (docker run ...) installieren will, sondern alles sauber in OMV erledigen möchte. Der entsprechende Docker run Befehl sieht so aus:

    Spoiler anzeigen

    docker run \
    -d \
    -e USER_ID="99" \
    -e GROUP_ID="100" \
    -e TIMEZONE="Europe/Berlin" \
    -e REPO="script.service.easyepg-lite" \
    -e BRANCH="main" \
    -e UPDATE="yes" \
    -p 4000:4000 \
    -v {EASYEPG_STORAGE}:/easyepg \
    -v {FOLDER_FOR_XML}:/easyepg/xml \
    --name=new-easyepg \
    --restart unless-stopped \
    --tmpfs /tmp \
    --tmpfs /var/log \
    --net="bridge" \
    takealug/new-easyepg:tag

    Vergleiche ich das mit dem Compose File für MariaDB..

    Spoiler anzeigen

    services:
    mariadb:
    image: lscr.io/linuxserver/mariadb:latest
    container_name: mariadb
    environment:
    - PUID=1000
    - PGID=1000
    - TZ=Europe/Berlin
    - MYSQL_ROOT_PASSWORD=password
    volumes:
    - /srv/dev-disk-by-uuid-e40da4a5-4f51-4642-8e7e-c67275cd485d/Docker-Daten/mariadb/config:/config
    ports:
    - 3306:3306
    restart: unless-stopped

    so müsste ich ja vorrangig die Ports, Env und Pfad Werte entsprechend ändern und als Image eben " takealug/new-easyepg:latest" verwenden, oder? Das will ich nachher mal in Angriff nehmen. Mal sehen, ob ich das hin bekomme, oder ob ich doch eine Schritt für Schritt Anleitung dafür brauche.

    -------------------------------------
    Danke fürs lesen, Claus

  • Das hier auch mind. ein Modelleisenbahner unterwegs ist, muss ich mir merken für den Fall dass ich irgendwann mal Opas Märklin H0 M-Gleise wieder vom Dachboden hole.

    Das ist noch ALLES analog. Da wäre einiges zum umrüsten auf digital.

    Zitat von root2

    Merke: Das "S" in "IoT" steht für Sicherheit!

  • Also ich verzweifele langsam. Nachdem ich mühsam die "Fehler" aus dem Compose FIle entfernt hatte (etwas nur mit genau abzuzählenden " " zu formatieren, ich weiß ja nicht... finde ich ätzend), konnte ich easyepg letztendlich pullen und sogar starten. Doch es beendet sich immer sofort wieder. Wenn ich restart always mache, ist der Container nach laut Meldung erfolgreichem Start sofort down und wenn ich restart unless-stopped einsetzt, startet der Container jede Sekunde neu. Irgendwie wird der Container sofort wieder beendet, warum auch immer. Von Außen sind keine Fehler festzustellen. Ich hab hier mal mein Compose File:

    services:
    new-easyepg:
     image: takealug/new-easyepg:latest
     container_name: new-easyepg
     ports:
      - 4000:4000
     environment:
      - TZ=Europe/Berlin
      - REPO="script.service.easyepg-lite"
      - BRANCH="main"
      - PUID=1000
      - PGID=1000
     volumes:
      - /srv/dev-disk-by-uuid-e40da4a5-4f51-4642-8e7e-c67275cd485d/Docker-Daten/new-easyepg/:/easyepg
      - /srv/dev-disk-by-uuid-e40da4a5-4f51-4642-8e7e-c67275cd485d/Downloads/new-easyepg/xml/:/xml
      
     restart: unless-stopped
    Damit passiert das:

    Nur leider ist das nicht wirklich der Fall... Der Container läuft trotz anders lautender Anzeige eben grade nicht. Ich weiß nicht, ob das Image zu alt ist, um zu funktionieren. War zwar das auf der neuesten Seite des Beitrags hier im Forum verlinkte Image, ist aber angeblich schon 2 Jahre alt und somit wohl unbrauchbar. Bevor ich jetzt weiter planlos im Nebel stochere, probiere ich es erst mal mit einem anderen Image... Das ist wenigstens "nur" 1 Jahr alt...

    -------------------------------------
    Danke fürs lesen, Claus

  • Ich glaube, jetzt hab ich es doch hin bekommen.

    Zusätzlich zu dem, was oben im Compose File steht muss noch ein

    - UPDATE=yes

    in die Env. Außerdem muss es einen kompletten neuen Bereich

    tmpfs:
    - /var/log
    - /tmp

    geben.

    Ich habe inzwischen tatsächlich ein Compose File gefunden, was allerdings veraltet ist und nicht 1 zu 1 übernommen werden kann.

    docker.new-easyepg/docker-compose.yml at master · DeBaschdi/docker.new-easyepg
    A Docker Container for running the NEW easyepg. Contribute to DeBaschdi/docker.new-easyepg development by creating an account on GitHub.
    github.com

    Aber mit der Hilfe dieses Files konnte ich die fehlenden Parameter identifizieren und einfügen.

    Hier ist mein Compose File am Stück als Spoiler:

    Spoiler anzeigen

    services:
    new-easyepg:
    image: takealug/new-easyepg:latest
    container_name: new-easyepg
    environment:
    - PUID=1000
    - PGID=100
    - TIMEZONE=Europe/Berlin
    - UPDATE=yes
    - REPO=script.service.easyepg-lite
    - BRANCH=main
    volumes:
    - /srv/dev-disk-by-uuid-e40da4a5-4f51-4642-8e7e-c67275cd485d/Docker-Daten/new-easyepg/:/easyepg
    - /srv/dev-disk-by-uuid-e40da4a5-4f51-4642-8e7e-c67275cd485d/Downloads/new-easyepg/xml/:/xml
    tmpfs:
    - /var/log
    - /tmp
    ports:
    - 4000:4000
    restart: unless-stopped

    PUID=1000 ist der User, den ich als SU angelegt habe und PGID ist die Gruppe Users. Der Ordner "Downloads" ist als SMB Share eingerichtet, so kann man jederzeit und von überall innerhalb meines Heimnetz auf die EPG XML Datei zugreifen. Hier landen auch die Downloads von JDownloader, aber je in einem eigenen Unterordner.

    Dieses YAML ist furchtbar. Hat sich ein Whitespace ans Ende der Zeile verirrt, sieht man davon ja nichts. Aber das bringt alles völlig durcheinander und wie üblich bei sowas sind die Fehlermeldungen völlig nichtssagend und irrführend, da in aller Regel nicht mal die Zeilennummer stimmt, in der das Problem verursacht wird. Das ist echt eine elende Fummelei, bis man da alles gefunden hat, was bei Copy&Paste halt so schief gehen kann... Aber egal, nun läuft es und ich habe einiges gelernt, was diese Compose Files betrifft.

    Mühsam nährt sich das Eichhörnchen. Zwar Langsam, aber es geht voran.

    Als nächstes werde ich es wohl mit TVHeadend versuchen. Da gibt es auf jeden Fall brauchbare Compose Files...

    -------------------------------------
    Danke fürs lesen, Claus

  • Falls es dir hilft hier mal der Inhalt von meinem Compose File zu Telerising, easyepg und threadfin. Am Anfang vom File ist meine Kopiervorlage, welche ich für jeden Container als Grundlage nehme.

    Bei mir sind natürlich viele Spezialitäten mit enthalten, die auf meine Konstellation passen.


    NAS: Gehäuse: Jonsbo G3, Mainboard: MSI B460M PRO, CPU: Intel Pentium G6400, OS: OMV 6

    Client: NVIDIA Shield Pro 2019

  • Na das geht doch vorwärts! [ay]


    Ja die Fehlermeldungen im OMV Compose sind manchmal ... schwierig, aber das ist auch bei portainer o.Ä. nicht viel besser. Aber man findet da schon was, zumindest nen Anhaltspunkt. Aber im Grund sind es ja meist die gleichen Fehler:
    -leerzeichen zu viel / falsch
    -Abstand nicht eingehalten
    - ein = statt :

    zum TVHeadend, so tuts bei mir supi:


    die renderD128 hab ich drin wegen Transcoding, der /dev/dvb wäre interessant, wenn du eine eingebaute TV Karte hast. Ich lasse es Netzwerktechnisch im Host modus laufen, damit ich da mein Digitbit finden kann. Wenn das nicht willst, die ports wieder auskommentieren und den Network Mode wegschmeißen

    es sind die kleinen Dinge, alltägliche Taten von gewöhnlichen Leuten, die die Dunkelheit auf Abstand halten. Einfache Taten aus Güte und Liebe.


    Dune HD ATV14 | Pioneer A 504R Bj. 96
    OMV NAS - NAS | Emby Server | LogitechMediaServer
    3x Logitech SqueezeBox & 3x RasPi PiCorePlayer
    Unifi Netzwerk | Sophos XGS Firewall | Agfeo TK | Kentix Security
    Loxone SmartHome

  • Hi.

    TVheadend läuft prinzipiell erst mal. Aber natürlich, wie immer bei mir und TVHeadend, leider ganz erbärmlich. Ich wollte zum ausprobieren die Kodinerds IPTV Liste einbinden. Darin sind ca 330 Sender vorhanden. Nur etwas mehr als 50 Sender haben "OK" als Suchergebnis, der große Rest ist dann mit "FEHLER". Darunter leider auch jede Menge "wichtige" Sender wie etwa alle dritten Programme.

    TVH ist so ein Ding, was ich schon oft versucht habe und was noch nie auch nur halbwegs das gehalten hat, was man eigentlich als Minimum davon erwarten könnte. Dazu diese wirklich entsetzlich umständliche Oberfläche, da sträuben sich mir alle Nackenhaare, nur wenn ich das sehe.

    Telerising hat keine Probleme gemacht und sofort anständig gelaufen. Ich muss jetzt nur noch sehen, wie ich die zweite Instanz dann über VPN anbinde. Ich brauche Telerising ja zweimal, einmal mit deutscher IP Adresse (läuft) und einmal mit Schweizer (läuft noch nicht). Ich denke, mit Docker müsste das auf einem einzigen System möglich sein.

    Easyepg läuft an sich. Ich bekomme es nur nicht hin, das es die XML Datei da speichert, wo sie eigentlich hin gehört... Ich muss sie immer per URL downloaden, um sie irgendwo verwenden zu können.

    An PiHole habe ich mich noch nicht heran gewagt. Adguard-home, das ja sowas ähnliches ist, ließ sich, trotz vorhandenem Compose File aus den OMV Beispielen, jedenfalls nicht zum starten bewegen. In dem Compose File weiden diverse Ports umgeleitet. Dier Test sagt aber immer "invalid IP Adress 53", obwohl 53 eindeutig als Port angegeben ist... Hab ich erst mal hintenan gestellt. Muss man vermutlich als "host" Netzwerk laufen lassen, obwohl das vorhandene Compose File mit einer Bridge arbeitet. Die vielen Ports muss man sowieso alle 1 zu 1 durchreichen.

    Es gibt auch richtig erfreuliche Nachrichten. Ich habe ja heute ein billiges USB-C Gehäuse für meine ungenutzt herum liegende 500 GB 2,5 Zoll SATA SSD bekommen. SSD eingebaut (ging ganz ohne Werkzeug), das Laufwerk mit NTFS unter Windows 11 formatiert und dann diverse Medien-. Dateien zum Testen (ebenfalls unter Windows 11) drauf kopiert. Wenn nun was kaputt geht, macht das gar nichts, ist ja nur ne Kopie extra zum Testen. Als die Platte gut gefüllt war, habe ich sie einfach im laufenden Betrieb an die OMV Maschine angestöpselt. Und siehe da, sie wurde sofort automatisch gefunden. Danach konnte ich problemlos das Dateisystem einbinden, den Root Ordner bei "freigegebene Ordner" anlegen und unter SMB den Ordner auch per SMB freigeben. So kann ich von überall her ohne Probleme an die (alle) Daten auf dem Laufwerk kommen. Bis dahin eigentlich auch so zu erwarten, von einem anständigen NAS System. Als das alles fertig war und funktioniert hat, habe ich die Platte einfach abgestöpselt, ohne sie irgendwie "auszuwerfen" oder sowas. Nun wird sie natürlich als "Missing" angezeigt. Ist ja logisch, sie wird in der Tat vermisst, zumindest in dem System. Eine Weile später habe ich sie wieder angestöpselt und, noch bevor ich die 3 Meter vom Mini-PC bis zu meinem Schreibtisch geschafft hatte, war schon wieder alles verfügbar, ganz automatisch, ohne das ich irgendwas "aktualisieren" musste. Also sollte es tatsächlich so funktionieren, wie ich mir das mittelfristig denke. Die 5 HDD aus meinem aktuellen NAS ausbauen und in ein externes 5-fach USB Gehäuse einbauen. Das Gehäuse hat seine eigene Stromversorgung, die ich dann per Smart Plug bei Bedarf aus der Ferne ein- oder aus schalten kann. Damit sollte mein bisheriges NAS obsolet werden.

    Ich werde auf jeden Fall weiter basteln. Selbst wenn das mit TVH so nix wird (wie bisher eigentlich immer, wenn ich angefangen habe, was mit TVH zu versuchen), kann ich alles andere (telerising, easyepg, MariaDB,...) sowieso auch übers Netz nutzen. Dann versuche ich es mal in LibreElec auf meinem RasPi 5 als LE- Addon. Lieber wäre es mir aber, wenn TVH auf der 24/7 Kiste ans laufen zu bekommen sein sollte...

    -------------------------------------
    Danke fürs lesen, Claus

  • Ach, noch was... Ich müsste auf OMV in Zukunft eigentlich mit Junction und Symlinks arbeiten. Spätestens wenn ich die HDD aus meinem NAS einbinde. Prinzipiell ist das unter Linux ja kein Problem. Aber das in der CLI zu machen, mit elend langer Tipperei, und das für 4000 - 5000 Links, dürfte wohl lästig werden.

    Mache ich unter Windows schon ewig. Ich hab einen Ordner "Serien", in dem alle Serien Ordner von allen HDD als Junction eingebunden sind. So brauche ich in Kodi nur eine Serien- Freigabe anlegen und kann trotzdem auf alle HDD zugreifen. Bei Filmen mache ich das genau so, da ich meine Filme nach dem "Ein Film ein Ordner" Prinzip organisiert habe. Wenn ich jetzt mal eine Serie von einer Platte auf eine andere verschieben muss, muss ich nur die Junction löschen und neu erstellen und Kodi (oder irgendwas anderes) merkt rein gar nichts davon, das die Daten inzwischen ganz wo anders liegen...

    Und wenn ein Video sowohl ein Spielfilm als auch eine Serien Episode (meist Specials) ist, mache ich das mit Symlinks oder Hardlinks, da Filme und Serien andere .nfo und andere Fanart brauchen. So muss ich die Videos nicht doppelt vorhalten. Am wichtigsten, weil mit weitem Abstand am häufigsten genutzt, sind aber die Junctions für Verzeichnisse.

    Es gibt wohl ein OMV Plugin für symlinks. Doch so komfortabel wie unter Windows aus TotalCommander heraus wird das wohl so oder so nicht klappen. Mal sehen, wie das so funktioniert. Hat jemand Erfahrungen mit dem OMV Symlink Plugin (den exakten Namen müsste ich erst nachschauen, sollte sich aber finden lassen)?

    -------------------------------------
    Danke fürs lesen, Claus

  • Ich wollte zum ausprobieren die Kodinerds IPTV Liste einbinden. Darin sind ca 330 Sender vorhanden. Nur etwas mehr als 50 Sender haben "OK" als Suchergebni

    Hast du unter TVHEADEND bei der Suche

    “maximale # Zahl an Input streams " auf 1 begrenzt das ist besonders bei schlechtem Internet Verbindung sinnvoll desweiteren kann man auch die Suchzeiten erhöhen.

  • Ich bin bei deiner Festplatten Thematik noch nicht so wirklich durch gestiegen,

    Hi.

    Ich habe 5 HDD in meinem NAS, alle einzeln als Laufwerk eingebunden. Kein Raid oder JBOD oder so was. Damit habe ich in der Vergangenheit einfach extrem schlechte Erfahrungen gemacht. Gleich zweimal ist mir passiert, das der Raid Controller abgeraucht ist, man denselben Typ nicht mehr nachkaufen konnte und dadurch, obwohl alle HDD völlig in Ordnung waren alle Daten komplett verloren gingen, weil man an die Daten einfach nicht mehr dran kam. Seitdem gibt es bei mir nur noch einzelne Platten mit einem Filesystem, auf das man mit jedem Rechner zugreifen kann (meint entweder FAT32 bei kleinen Laufwerken oder NTFS). Deswegen kommt so etwas wie ext4 für meine Datenplatten nicht in Frage. Das hat nichts mit der Güte des Filesystems zu tun, sondern nur mit der generellen Verfügbarkeit.

    Meine Serien sind auf allen 5 Platten verstreut, dazu noch meine Spielfilme, Musik und sowas. Dabei habe ich die Platten, auf denen abgeschlossene Serien liegen ziemlich randvoll gepackt, weil dort ja in der Regel nichts neues mehr dazu kommt. Hin und wieder muss ich mal auf einer Platte etwas Platz schaffen, weil ich bei einer eigentlich abgeschlossenen Serie beispielsweise eine bessere Version (z.B. 720p Episoden gegen 1080p Episoden austauschen) bekommen habe. Dann verschiebe ich eine (ggfs. andere) Serie auf eine Platte, wo noch mehr Platz ist oder zur Not auf die Platte mit den aktuell laufenden Serien, auf der immer genug Platz ist. Wenn ich jetzt jede Platte als eigene Medienquelle in Kodi einrichten würde, müsste ich die verschobene Serie neu in die DB einlesen und die Datenbank bereinigen, um die alten, nicht mehr stimmenden Pfade zu entfernen. Dabei gehen auch die Playcounts verloren. Wenn man aber alle Serien- Ordner von allen Platten als Junction in einem einzigen Ordner hat, muss man dort nur das eine Junction anpassen, damit man über diesen Ordner drauf wie bisher zugreifen kann. Davon bekommt Kodi (oder eben auch jedes andere Programm) nichts mit, weil sich für Kodi der Pfad ja gar nicht verändert hat.

    So kann man ganz ohne RAID 26 TB an Daten auf einer 12 TB Platte unterbringen, scheinbar zumindest. Unter Z: sind auch meine Spielfilme, meine Musik und meine Musikvideos zu finden, alles in allem knapp 37 TB an Daten. An alle diese Daten komme ich über das Netzlaufwerk Z: dran (oder natürlich auch übern den entsprechenden UNC Pfad). Für die anderen Laufwerke, genauer für deren Root Verzeichnisse habe ich ebenfalls ein Junction auf "Z." angelegt. So komme ich über eine einzige SMB Freigabe an alles auf allen 5 HDD ran.

    Ich habe in meinem NAS eine 12 TB Platte, drei 8 TB Platten und eine mit 6 TB drin. Aktuell sind noch etwa 5 TB frei. Wenn das demnächst knapp wird, wird dann die 6 TB Platte gegen eine größere (12 oder 18 TB) ausgetauscht. Natürlich nur, sofern nicht eine der anderen Platten erste Anzeichen von Schwäche in den SMART Werten zeigt. Solche Platten werden natürlich vorgezogen. Eigentlich kommt aber immer die älteste Platte raus und wird ausgetauscht, was in der Regel auch die kleinste Platte ist.

    Dabei sortiere ich in der Regel die Serien teilweise neu, da inzwischen meist viele, oft sogar ein Großteil der Serien beendet wurden, die noch auf der Platte mit den aktuellen Serien liegen. Gelegentlich "miste" ich dabei auch ein wenig aus und entferne Serien, die mir nicht so besonders gefallen haben, von meinem NAS. Da ich noch reichlich ältere, kleinere aber funktionsfähige Platten lose herum liegen habe, verschiebe ich sie meist auf so eine alte Platte, was kaum mehr Zeit beansprucht, wie das Löschen. Aktuell habe ich noch 5 leere 3TB Platten hier liegen. sind auch 15 TB... Auf diese Art kann ich zur Not doch noch mal an die Serie ran, obwohl sie nicht mehr in meiner aktuellen Medien- Bibliothek zu finden ist. Ob die Platte nun leer oder gefüllt in der Schreibtisch- Schublade liegt, ist nun wirklich egal. Und voll funktionsfähige Hardware wegzuwerfen ist nicht so mein Ding. Deswegen habe ich extra einen HDD Wechselrahmen in meinem Desktop Rechner. Hier kann ich (per Hot Swap auch im laufenden Betrieb) solche Platten einschieben, sollte ich das mal brauchen.

    Ist alles "aufgeräumt, mache ich alle Junctions neu, was unter Windows mit der Hardlink Shell Extension in wenigen Minuten erledigt ist und, da man ganze Festplatten- Inhalte mit "alles markieren" in einem Rutsch als Junctions erzeugen kann (jeder ausgewählte Ordner bekommt trotzdem sein eigenes Junction), deutlich schneller geht, als nur die Junctions zu ändern, die geändert werden müssten. Und wieder bekommt Kodi von der ganzen Aktion rein gar nichts mit.

    Hört sich alles kompliziert an, ist es aber gar nicht (zumindest nicht mit den verfügbaren Tools unter Windows), wenn man es erst mal macht und nicht nur davon liest. Ich hoffe, so ist es verständlich, wie ich das mache. Hat sich im Laufe von fast 20 Jahren als die für mich beste Methode heraus kristallisiert...

    vielleicht würde dir das mergerfs Plugin helfen.

    Ja, gut möglich. Gefunden habe ich das auch schon, aber mich noch nicht wirklich damit beschäftigt.

    Hast du unter TVHEADEND bei der Suche

    “maximale # Zahl an Input streams " auf 1 begrenzt das ist besonders bei schlechtem Internet Verbindung sinnvoll desweiteren kann man auch die Suchzeiten erhöhen.

    Die Zahl der Input Streams ist auf 1 begrenzt. Das hatte ich irgendwo schon mal gelesen. Aber wo erhöht man die Suchzeiten? Das ist mir bisher noch nicht aufgefallen. Wäre einen Versuch wert.

    -------------------------------------
    Danke fürs lesen, Claus

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!