Aber wo erhöht man die Suchzeiten? Das ist mir bisher noch nicht aufgefallen. Wäre einen Versuch wert.
Unter Netzwerk erstellen - müsste dann
"maximale Zeitüberschreitung" sein
Aber wo erhöht man die Suchzeiten? Das ist mir bisher noch nicht aufgefallen. Wäre einen Versuch wert.
Unter Netzwerk erstellen - müsste dann
"maximale Zeitüberschreitung" sein
Sei mir nicht böse, aber deine Texte überfliege ich zumeist nur grob (zu viel Wall of Text 😉)
MergerFS ist dafür da, wenn man verschiedene Quellen hat und diese zusammen fassen möchte. Ich habe bspw. vier Datenfestolatten zusammen gefasst per MergerFS und habe nun meine Medien so angelegt:
MergerFS ist so eingestellt das er die Medien, welche ich auf meine Freigabe verteilt wie er will, den verfügbaren Speicher nur gleichmäßig verteilt. Der Nachteil daran ist, dass man am Ende nicht mehr weiß auf welcher Platte welche Dateien liegen.
Jedoch bietet es auch die Möglichkeit Dateien nur bei bereits existierenden Verzeichnissen anzulegen (bspw. der Ordner Filme). Damit würden neue Filme immer nur auf der Festplatte landen die für Filme vorgesehen ist (sofern man das möchte).
Das mit dem "nein zum HW-Raid" kann ich nachvollziehen. Die Lektion habe ich schon nach dem ersten kaputten Raid-Controller gelernt. Das ist nur was fuer Umgebungen wo es auf maximale Performance ankommt und man 100% garantiertes schnell einspielbares Backup hat. Ich hab z.b. die kompletten Mediendaten vor allem noch an einem zweiten Ort, aber damit ist das rueckspielen eben auch schwieriger/langsamer.
Man kann natuerlich immer noch Software-Raid machen, z.b. was bei Linux mit dabei ist und was dann eben auch einfach in OMV konfigurierbar ist. Aber das braucht man eigentlich auch bloss wenn man mit haeufigerem Komplettausfall von Platten ausgehen muss. Und solange das eigentlich alles Medienplatten sind die eigentlich fast nie laufen und vor allem noch seltener beschrieben werden - da ist meine 25 jaehrige Erfahrung das mir noch nie eine HDD komplett kaputtgegangen ist (ausser ich hab das selbst durch Dummheit gemacht, wie 12v und 5v am stecker vertauscht). Und damit es is dann schneller von der langsam sterbenden Platte alle rettbaren daten rauszuziehen und dann den rest vom Backup nachzuspielen. Und das ganze eben nur an einer Platte, waehrend bei einem Raid dann alle Platten roedeln muessen.
Man kann ja auch noch sowas wie SnapRaid machen wenn man billig lokale redundanz fuer eine einmal ausgefallene platte braucht.
Die Entscheidung auf NTFS zu gehen nur damit man die Daten unter Windows verfuegbar hat finde ich suboptimal wenn man als Hauptsystem Linux einsetzt. Das kann ja immer noch nicht mit boardmitteln eine kaputte NTFS Dateisystemstruktur reparieren. Extra auf windows umzubooten bloss um nach einem Stromausfall mal alle Platten wieder manuelle mit CHKFS reparieren zu muessen - nee, danke. Linux ist universell auf jeder HW verfuegbar. Ich hab da auch schon mal unterwegs, wo ich nur mein MacBook dabei habe mal eine fette PLatte mit Mediathekaufnamen von einem Freund kopiert indem ich da seine und meine USB Platte drangehaengt hatte und den Mac einfach per USB-Stick in ein Linux gebootet hatte. Und fuer die faulen Leute kann man ja auch immer noch Paragon ext4 fuer Windows oder MacOS kaufen.
Die Entscheidung auf NTFS zu gehen nur damit man die Daten unter Windows verfuegbar hat finde ich suboptimal wenn man als Hauptsystem Linux einsetzt.
Mein Hauptsystem ist und bleibt bis auf weiteres aber Windows. Mit Linux gehen viele Sachen, die ich regelmäßig mache, einfach entweder gar nicht (nur mal als Beispiel, es gibt keinerlei brauchbare Bildbearbeitungssoftware für Linux und komm mir jetzt nicht mit Gimp, das ist im Vergleich zu Photoshop oder Affinity maximal Kinderspielzeug) oder nur mit vielen Einschränkungen (Affinity soll man, im Gegensatz zu Photoshop theoretisch unter Wine zum Laufen bekommen, hat hier aber bisher noch nicht geklappt) gehen. Sollte ich irgendwann von Windows 13 oder 16 oder so (aktuell wird Windows leider von Monat zu Monat immer schlechter, durch die "Zwangsupdates" wobei Win 11 im Vergleich zu Win 10 sowieso eine einzige Katastrophe ist) mal so genervt sein, das ich Windows doch ganz in die Tonne kloppe, kann man ja immer noch von NTFS weggehen. Windows 10 war imho eine gute 2+, Windows 11 schafft mit Ach und Krach noch eine 4 und Zorin ist (noch?) eine 5-, in klassischen Schulnoten bewertet.
Linux läuft hier auf meinen Raspberry Pi (LibreElec) und jetzt OMV auf dem älteren der beiden Mini PC und als zusätzliches OS (Zorin) zum Basteln auf meinem Desktop als Dualboot von einer extra SSD. Sonst ist aber ganz klar Windows mein OS, selbst auf meinem NAS läuft Windows. Mit LibreElec auf dem Pi bin ich gut zufrieden. Der muss aber auch "nur" Kodi machen, sonst nichts. Und das macht er super. Zorin, na ja, ist für Linux schon ganz ok, aber noch längst kein Ersatz für mein Windows. Und OMV muss sich erst noch beweisen. Vor Jahren wollte ich OMV mal statt Windows auf meinem NAS einsetzen, vor allem, um den SATA Anschluss der Systemplatte frei zu bekommen. Damals taugte das aber nicht, so wie ich mein NAS brauche. Scheint inzwischen (war damals glaube ich OMV 3, jetzt sind wir bei 7) aber deutlich besser zu sein, weswegen das auch als NAS zumindest in Gedankenspielen wieder auftaucht. Um es wirklich als NAS nutzen zu können, muss ich erst neue Hardware (externes 5- fach USB Gehäuse) anschaffen.
Hauptsystem meinte ich jetzt nicht was Du als OS auf Deinem Desktop oder Laptop einsetzt, sondern das OS unter dem normalerweise die Platten betrieben werden soll, und das ist ja wohl jetzt Linux mit OMV, odr ?
und das ist ja wohl jetzt Linux mit OMV, odr ?
Nein, (noch?) nicht. Aktuell laufen sie unter Windows in meinem NAS. Daneben habe ich nicht genug Ausweich- Platz, um die Platten neu zu formatieren, da sie alle gut gefüllt sind. Ich würde sie also einfach umstecken an die OMV Kiste, ohne den eigentlichen Inhalt zu ändern. Ich könnte das Filesystem erst dann ändern, wenn der nächste Plattentausch ansteht. Und das dürfte wohl frühestens 2027 der Fall sein, wenn man berücksichtigt, wie viel noch frei ist und wie schnell sich der Platz (erfahrungsgemäß, kann ja nicht in die Zukunft schauen) füllt. Das ging nämlich schon mal viel schneller mit dem Voll werden. Aktuell gibt es einfach nicht mehr viel, was mir gefällt, weswegen ich fast nur "altes Zeugs" schaue. Natürlich gilt das nur, so lange nkeine Platte vorzeitig abkratzt, was ich aber nicht hoffen will...
Und noch was ganz anderes. Hat jemand eine ungefähre Ahnung, wann die Kodi 22 Beta oder RC oder gar Stable an den Start geht?
Ich habe grade mein Waipu Abo zu Ende September gekündigt, weil die einfach so mal eben die Preise um 30% hoch gesetzt haben. Ich bin nur wegen Waipu auf die Kodi 22 Nightly gewechselt, da beide Waipu Addons unter Kodi 21 (zumindest bei mir) nie sauber liefen. Früher mit Kodi 20 lief es, mit 22 Nightly dann auch wieder. Ist ein durchaus bekannter Bug in Kodi 21, der aber erst in 22 gefixt und nicht nach 21 zurück portiert wurde und liegt definitiv nicht an den Addons, sondern betraf auch viele andere (vorrangig PVR-) Addons, nur meist mit deutlich weniger verheerenden Folgen als beim Waipu Addon. Da die Nightly aber noch längst nicht so stabil läuft, wie ich gerne hätte, könnte ich ja Ende September noch mal wieder zurück auf Kodi 21 wechseln (das abgesehen von Waipu einfach viel stabiler läuft), sollte sich das mit der 22 noch länger hin ziehen. Wenn man sich die bisherigen Release Zyklen anschaut ist die Kodi 22 Beta mehr als überfällig und es müsste eigentlich schon längst die 22 Stable geben. Dauert sehr lange, dieses Mal. Normalerweise nehme ich keine Nightlys, aber in diesem Fall ging es leider nicht anders. Und genau dann verspätet sich das Stable Release gewaltig, Murphy's Law halt. Da das Zurückwechseln doch mit einiger Arbeit verbunden wäre, würde ich das gerne vermeiden, sofern es nicht noch ewig dauert, bis da mal was Stabiles nachkommt.
Es wäre also schön, wenn ich bis dahin TVH soweit am Laufen hätte. Wenn ich dann endlich im Oktober oder November (dann soll es angeblich allerspätestens so weit sein) endlich mein Glasfaser bekomme, brauche ich die Cloud Aufnahmefunktion von Waipu wohl nicht mehr, sondern kann auch mehrere Streams gleichzeitig lokal aufnehmen.
Hi.
PiHole läuft jetzt auch. War wie erwartet ziemlich fummelig, denn alles, was ich an Anleitung finden konnte, hat immer nur partiell funktioniert. Das größte Problem und vermutlich auch der Grund, warum ich adguard-home nicht ans laufen bekommen habe ist der Port 53. Der wird von OMV tatsächlich verwendet, auch wenn das nicht unbedingt sein muss. Man muss erst die resolved.conf editieren (nano /etc/systemd/resolved.conf), damit Port 53, der für PiHole als DNS Server zwingend benötigt wird, frei wird.
Dazu muss man zwei Zeilen ändern. Beide sind default auskommentiert, fangen also mit einem # an. Es handelt sich um #Cache=yes und #DNSStubListener=yes. Bei beiden Zeilen muss man den # löschen und und aus yes beide Male no machen. Dann abspeichern und anschließend muss der systemd-resolved Dienst neu gestartet werden mit
systemctl restart systemd-resolved
Vermutlich muss man dazu Root Rechte haben also sudo voranstellen, sofern man nicht gleich als root eingeloggt ist wie ich in diesem Fall.
Ob man das mit einer virtuellen IP Adresse für den Container umgehen kann, weiß ich nicht. Ich habe PiHole jedenfalls nur mit network_mode: "host" ans laufen bekommen.
Ein weiteres Problem ist das Passwort für das PiHole Web interface. Es gibt hier kein Standard Passwort wie bei den meisten anderen derartigen Geschichten. Es wird ein zufälliges Passwort erzeugt, welches man nur einmal während der Installation angezeigt bekommt, sofern man das nicht im Docker macht. Denn im Docker sieht man nämlich nix davon und kann so nicht ins Web- Interface. Das Problem kann man durch Angabe des Passworts in den envronment Angaben umgehen. Früher war die Variable WEBPASSWORD: So steht es auch in allen Beispielen, die ich finden konnte. Tatsächlich stimmt das aber nicht mehr. Das muss jetzt "FTLCONF_webserver_api_password:" heißen. Muss man auch erst mal drauf kommen.
Mit macvlan habe ich es einfach nicht hin bekommen, den Container überhaupt starten zu können. Die yaml Überprüfung hat immer gemeckert, egal was ich auch versucht habe. Deswegen network_mode: "host", das hat auf Anhieb (na ja, nachdem ich den Port 53 frei hatte) geklappt.
Hier mein aktuell funktionierendes Compose File:
# https://hub.docker.com/r/pihole/pihole
# More info at https://github.com/pi-hole/docker-pi-hole/ and https://docs.pi-hole.net/
services:
pihole:
container_name: pihole
image: pihole/pihole:latest
hostname: pihole #hostname nach belieben anpassen
domainname: fritz.box #domain nach eigener Vorgabe anpassen
network_mode: "host"
ports:
- 443:443
- 53:53
- 67:67
- 1080:80
environment:
TZ: Europe/Berlin
FTLCONF_webserver_api_password: yourpasswordhere
VIRTUAL_HOST: pihole.local
# Volumes store your data between container upgrades
volumes:
- /srv/dev-disk-by-uuid-e40da4a5-4f51-4642-8e7e-c67275cd485d/Docker-Daten/etc-pihole:/etc/pihole
- /srv/dev-disk-by-uuid-e40da4a5-4f51-4642-8e7e-c67275cd485d/Docker-Daten/etc-dnsmasq.d:/etc/dnsmasq.d
- /etc/localtime:/etc/localtime:ro
# https://github.com/pi-hole/docker…on-capabilities
cap_add:
- NET_ADMIN
restart: unless-stopped
Die Volumes und das Passwort muss man natürlich ans eigene System anpassen. Da Port 80 bereits von OMV selbst belegt ist (was auch so bleiben muss), muss man den HTTP Port umlenken. Ich habe statt Port 80 extern nun Port 1080 eingestellt. Ich kann die Weboberfläche nun mit 192.168.1.24/admin/ aufrufen, ohne das sie sich mit der OMV Oberfläche ins Gehege kommt. -NET_ADMIN sowie (mindestens) eine der Portfreigaben braucht man nur, wenn PiHole auch gleich als DHCP Server verwendet werden soll. Mache ich zwar nicht, habe mir die Möglichkeit so aber offen gehalten.
Innerhalb von 20 Minuten hat PiHole schon über 60 Anfragen zu Werbeseiten blockiert, ohne das ich groß gesurft bin. Es ist wirklich beängstigend, wie verseucht das Internet eigentlich ist. Wirklich schrecklich, die Scheiß Werbung überall und in solchen Massen.
Wenn man ein 24/7 System hat und es irgendwie möglich ist, sollte man sich wirklich die Mühe machen sowas wie PiHole zu installieren. Wenn das erst mal läuft, merkt man weiter nix davon und hat auch keine Arbeit mehr damit.
TVHeadend ist seit 4 Stunden mit dem "Sendersuchlauf" beschäftigt. Er ist noch nicht mal halb durch, hat jetzt mit der verlängerten "maximale Zeitüberschreitung", die man natürlich nicht sieht, so lange man die Ansicht nicht auf "Experte" umgestellt hat, bei noch nicht mal 50% Durchlauf schon 3 mal so viele "funktionierende" Sender gefunden, wie vorher beim kompletten Durchlauf. Leider funktionieren die Dritten Programme immer noch nicht. Daneben natürlich die mit Geoblocking belegten Stream ebenfalls nicht, was ja zu erwarten war. Ich lass das mal über Nacht durchlaufen und muss dann mal schauen, ob ich die "wichtigen", aber immer noch nicht funktionierenden Sender irgendwie anders rein bekomme.
hmpf, jetzt wo du es sagst, fällt es mir auch wieder ein das sind alles Punkte wo ja... hab ich mich auch durchgewurschtelt, ist am Ende logisch ... wenn mans aber nicht aufschreibt, denkt man nie wieder dran.
mal ganz dickes lob in welch kurzer Zeit du dich da durch wurschtelst. Top. So macht das Spaß
Da Port 80 bereits von OMV selbst belegt ist (was auch so bleiben muss),
Nö, muss nicht so bleiben. Man kann im webui von omv den Port auch ändern, habe ich bei mir selber so seit Jahren.
Hi.
Und täglich grüßt das Murmeltier. Auch heute was Neues von der Docker Front.
Nö, muss nicht so bleiben.
Bei mir muss das so bleiben.
Ich bin immer noch am experimentieren. Gestern hatte ich mal versucht, Firefox im Docker zu installieren. Gedacht ist das vorrangig als Bedienoberfläche für JDownloader, da ich eigentlich Chrome verwende (ist einfach schneller), in Chrome das JDownloader Addon aber nicht mehr funktioniert, ich also so CnL gar nicht ans laufen bekomme. Bevor ich hier Firefox installiere, dachte ich, wenn Firefox "lokal" auf demselben System wie JDownloader installiert ist, klappt das mit Clipboard und CnL einfach besser. Im "echten", also nicht "containeriesiertem" Leben ist das jedenfalls so. Ist obendrein witzig, Firefox in einem Chrome Fenster laufen zu haben. Aber leider klappt das nicht, zumindest nicht vernünftig. Wenn man den Docker- Firefox normal aufrufen will, meckert er nur rum, das nur HTTPS Verbindungen erlaubt sind.
Nutzt man HTTPS und Port 3001 (statt HTTP und 3000) meckert Chrome, das es keine sichere Verbindung ist und man muss erst Aufwand betreiben um die "unsichere" Verbindung trotzdem zu erlauben. Aber zumindest klappt es dann, irgendwie.
Sollten im Docker Container nicht alle Abhängigkeiten vorhanden sein? Wenn also SSL zwingend vorausgesetzt wird, warum ist dann SSL nicht oder nicht richtig mit installiert?
Davon abgesehen habe ich jetzt tatsächlich einen in einem in einem Docker Container auf meiner OMV Maschine installierten Firefox in einem Chrome Tab auf meinem Desktop- PC laufen...
Ohne zertifikat ist das halt nicht sicher. Das ist das Problem. Die Meldung "Verbindung ist ggf nicht sicher" kommt immer wenn das Zertifikat nicht gültig ist oder es ein selbstausgestelltes ist das du in deinem Browser/ Gerät nicht als vertrauenswürdig selbst hinzugefügt hast.
Ssl braucht ein Zertifikat.
Guck mal ob das wirklich firefox ist, der sich beschwert. Die Fehlermeldung hoert sich ja eher so an, als ob das eher der server auf port 3001 ist, der gerne auf https weiterleiten wollte.
Geht das von dem firefox aus ohne probleme ?
Geht das von dem firefox aus ohne probleme ?
Ja, funktioniert.
Ist mir in diesem Fall nicht so wichtig, da ich sowieso nur innerhalb meines eigenen Heimnetzes auf den Firefox zugreife.
Das Nächste, was ich jetzt mal einrichten muss, ist der VPN Container, und dann versuchen, einen anderen Container (zweites Telerising, und ggfs. zweiten JDownloader) über den VPN Container zu leiten... Wenn das alles so klappt, wie ich das hoffe, wird das Ganze später sehr komfortabel.
Hi.
Ich will ja versuchen, den telerising Container über den VPN Container zu leiten. VPN läuft im Container und Telerising auch. Doch wie verbinde ich die Beiden nun?
Ein Beispiel, wie man das im Compose File macht, habe ich bisher gar nicht gefunden. Der CLI Befehl, der auf Docker Hub beim Image steht, lautet:
sudo docker run -it --net=container:CONTAINER_NAME alpine /bin/sh
Selbst wenn ich den Befehl ganz sicher richtig eingeben habe, läuft es nicht. Telerising geht trotzdem nicht durch den VPN.
Muss/kann ich beim Telerising vielleicht das Netzwerk vom VPN einstellen? Oder wie macht man sowas allgemein betrachtet sonst. Ich bin sicher nicht der erste, der sowas machen will. Sonst würde der VPN Container eher kaum einen Sinn machen.
Was mich auch irritiert istd as "alpine". Wenn ich das richtig mitbekommen habe, ist alpine eine Art ein Docker Image zu erstellen, ganz laienhaft ausgedrückt. Muss man hier ggfs. etwas anderes schreiben, wenn das Image nicht mit alpine erstellt wurde?
Es hilft auch nichts, wenn ich telerising erst stoppe, bevor ich den run Befehl ausführe. Ich denke, ich werde auch noch mal im Telerising Docker Betrag fragen...
Das ist jetzt noch die (hoffentlich) letzte große Baustelle, die ich mit Docker habe.
Mal abgesehen davon, das ich noch keine Ahnung habe, wie ich TVHeadend tatsächlich eingerichtet bekomme. Bis jetzt ist der nur am rumzicken und tut nur Dinge, die ich nicht will. Was ich will, weigert er sich aber standhaft zu tun... Aber das ist aktuell erst mal nicht ganz so wichtig. Noch habe ich Waipu und der DVBViewer läuft auch noch. Es wäre nur schön, wenn ich wenigstens Telerising über den VPN ans laufen bekäme. Würde schon mal vieles vereinfachen.
Hi.
Jetzt läuft auch das. Nun weiß ich, Ports müssen immer im VPN Container eingerichtet werden. Daneben ist es sinnvoll, den VPN in dasselbe Compose File zu basteln, in dem auch die eigentliche Anwendung erzeugt wird. Macht vieles einfacher. Zusätzlich braucht es eine weitere Env Variable, LAN_NETWORK, damit es funktionieren kann. Dann wird das Web GUI der "zweiten" Anwendung durchgereicht, was ohne diese Variable nicht der Fall ist. Meine Anfrage im Telerising Docker Beitrag war also sofort von Erfolg gekrönt.
name: "telerising-api"
services:
surfshark:
image: ilteoood/docker-surfshark
container_name: surfshark
environment:
- SURFSHARK_USER=Username
- SURFSHARK_PASSWORD=Password
- SURFSHARK_COUNTRY=ch
- LAN_NETWORK=192.168.1.0/24# Anpassen an das eigene Netzwerk
ports:
- "5000:5000"
cap_add:
- NET_ADMIN
devices:
- /dev/net/tun
restart: unless-stopped
dns:
- 1.1.1.1
telerising:
image: starfoxfs/telerising:latest
container_name: telerising-api
environment:
- UID=99 #Standard Telerising User
- GID=100 #Standard Telerising Group = Users ID 100
- TZ=Europe/Berlin
- UPDATE=yes
volumes:
- /srv/dev-disk-by-uuid-e40da4a5-4f51-4642-8e7e-c67275cd485d/Docker-Daten/telerising:/telerising
tmpfs:
- /tmp
- /var/log
restart: unless-stopped
network_mode: service:surfshark
So läuft Telerising jetzt hier hinter dem VPN, ohne das der Rest des Systems auch über den VPN gezwungen wird. Genau das, was ich wollte und was eigentlich der Hauptgrund für mich gewesen ist, auf ein Docker System umzusteigen. Irgendwann noch mal ein zweites telerising ohne VPN einrichten, sollte ich in Zukunft doch mal wieder Waipu oder Zattoo abonnieren und eventuell auch einen zweiten JDownloader, dann über VPN einrichten. Damit müsste das meiste geschafft sein.
Ob ich TVHeadend überhaupt ans laufen bekommen, bevor ich mein Glasfaser habe, wage ich fast anzuzweifeln. Als ich damals herum experimentiert hatte, war das Einzige, das bei meinem Internet stotterfreie Streams abliefern konnte, der DVB-Viewer, den es ja vermutlich nicht als Docker Container geben wird. Alles andere, egal ob NextPVR, TVMosaic oder eben TVHeadend kamen mit der niedrigen Bandbreite meines Internet nicht klar. Eigentlich bescheuert, denn aus den Mediatheken (auch den Privaten) kann ich problemlos 720p streamen. Für 1080p brauche ich dann aber viel Glück, klappt ganz selten aber auch mal. Bei IPTV recht dieselbe Bandbreite meist nicht mal für 432p@25. Muss ich nicht verstehen.
So werde ich kein Fan von Containern.
Hi.
So werde ich kein Fan von Containern.
Also im Vergleich zu dem Rumgemurkse, das man (ich) sonst unter Linux hat, empfinde ich das hier eher als Selbstläufer... Dafür, das ich mich erst seit ein paar Tagen mit Docker beschäftige, bin ich schon ziemlich weit gekommen. Wenn auch teilweise nur mit Hilfe aus dem Forum. Vielen Dank dafür.
Eigentlich läuft inzwischen alles, was ich wollte. Ich habe die telerising API funktionsfähig über VPN laufen. Auch Pi-Hole habe ich im Docker hin bekommen, was ebenfalls schon etwas komplizierter als "Normal" ist. Das ich mit TVHeadend immer noch auf dem Kriegsfuß stehe, hätte ich sowieso nicht anders erwartet. TVH und ich, das hat noch nie wirklich harmoniert. Und das mein (noch) extrem lahmes Internet seinen Teil dazu beiträgt, alles zu verkomplizieren, ist auch nicht überraschend.
Was ich noch ausprobieren werde, ist es eine zweite Instanz eines Docker Images mit unterschiedlicher Konfiguration ans laufen zu bekommen. Genauer, einen zweiten JDownloader über VPN statt wie der bereits laufende direkt verbunden. Auch beim Download hat man häufiger mit Geoblocking zu tun. Inhalte aus der ÖR Mediathek ist gelegentlich mit Geoblocking versehen. Dazu müsste man also in DE sein. Daneben sind dann die Inhalte aus der ORF Mediathek fast alle mit Geoblocking versehen, wozu man in Österreich sein müsste, usw. Echt traurig innerhalb der EU. Wieso sowas erlaubt ist, obwohl das allen EU Gesetzen widerspricht, wird mir auf Ewig ein Rätzel bleiben. Nicht, warum das gemacht wird (es geht ums Geld), sondern das es legal ist, das erstaunt mich.
Um nicht immer manuell den VPN ein- aus und um- zu schalten, eben separate Docker mit verschiedener Konfiguration. Neu ist für mich hierbei, einen zweiten Container mit demselben Image zu erzeugen, der dann eben durch den VPN läuft. Als Ausgangspunkt kommen die Compose Files von JDownloader und telerising, die ich schon laufen habe, zur Verwendung. Natürlich dann angepasst an die neuen Umstände. Das werde ich nun als nächstes in Angriff nehmen. Andere Ports sind selbstverständlich. Aber wie sieht das mit den Namen der Container aus? Vermuten würde ich, das auch die unterschiedlich sein müssen. Aber sicher wissen tue ich das nicht.
Hi.
Jetzt habe ich auch den zweiten JDownloader über VPN mit AT IP laufen. Hab das File von telerising und das von meinem "normalen" JDownloader kombiniert, Namen, Pfade und den (externen) Port geändert und... läuft sofort. Langsam habe ich den Dreh scheinbar raus.
Den Firefox Docker hab ich komplett runter geschmissen. Das bringt keine Vorteile gegenüber einem lokal auf dem Desktop installieren Firefox. Hat dafür aber ziemlich viel CPU Load verursacht. Und die zur Zeit nicht benötigten Container habe ich abgestoppt. Z.B. den zweiten JDownloader, da ich aktuell nix aus der ORF Mediathek laden muss. Wenn ich ihn brauche ist der ja ruckzuck wieder gestartet. Spart noch mal CPU Load und somit auch Strom. Jetzt fehlt mir "nur" noch mein Glasfaser, dann kann ich voll durchstarten. Vorbereitet ist schon mal alles, so weit es möglich ist.
Ich weiß nur immer noch nicht, ob ich doch noch mal auf Kodi 21 zurück wechseln soll. Eine Kodi 21.3 Stable ist in absehbarer Zeit wesentlich wahrscheinlicher (4 "open issues" bis zum Milestone) als eine Kodi 22.0 Stable. So langsam wie es mit 22 vorwärts geht (wenn es dieselben Zyklen wie bisher gäbe, müssten wir schon bei Kodi 23 RC sein, haben aber noch nicht mal 22 Beta), kann sich das locker noch bis 2027 hinziehen. Die 21.2 (1 - 0) funktionieren ja leider nicht vernünftig mit Waipu, was ich noch bis Ende September habe, die aktuelle 21 Nightly (aka fast 21.3) hingegen schon. Doch dann hänge ich wieder mit den Nightly rum, was ich eigentlich gar nicht mag. Allerdings muss ich meine Datenbank jetzt sowieso neu machen, da sie ja aktuell noch auf dem Windows 11 Mini PC läuft, aber natürlich auf den OMV Server umziehen muss. Da würde es sich ja anbieten, gleich einen Versionswechsel nach "unten" vorzunehmen. Auf eine neuere "höhere" Version läuft die Migration ja vollautomatisch und bisher zumindest immer problemlos und fehlerfrei.
Hi.
Nachdem ich mein OMV System aufgesetzt habe, hatte ich ja probiert, ob es problemlos möglich ist, ein USB Laufwerk einzubinden und es bei Nichtgebrauch wieder abziehen zu können. Das hat funktioniert. Leider hatte ich nicht getestet, was z.B. bei externen 3,5 Zoll HDD passiert, wenn man dort die Platte ausschaltet, die ja eine eigene Stromversorgung hat. Das haut nämlich nicht hin.
OMV bemerkt die Platte zwar als "Missing", wenn der Strom aus ist.
So sah es auch bei der 2,5 Zoll Platte aus, wenn ich den USB Stecker abgezogen habe. In soweit alles "normal".
Wenn ich den Strom wieder einschalte, wird die Platte aber nicht wiederhergestellt. Die Platte ist dann zwar wieder "Online", hat aber keinen Speicherplatz mehr. Das wäre aber für meinen Zweck ein essentielles Feature und absolut unverzichtbar, auch wenn das vielleicht kein typisches Szenario ist. Ich kann und will keine Platte, die vielleicht 2 Stunden pro Woche gebraucht wird, 24/7 laufen lassen. Denn auch wenn die Platte nicht dreht, braucht sie genau so viel (eher sogar mehr) Strom wie mein ganzer Server. Wenn sie den Strom verbraucht, während sie benötigt wird, ist alles gut. Aber wenn sie nicht benötigt wird, muss man sie ausschalten können, und das völlig unproblematisch. In der Endausbaustufe hätte ich dann 5 oder 6 solcher Platten am Server hängen. Unbezahlbar und ein absolutes NoGo.
Unter Windows (und sogar Android) funktioniert das übrigens seit vielen, vielen Jahren völlig problemlos. Also nicht ankommen mit "darf man nicht machen", "geht gar nicht" oder so was. Es geht nämlich ganz sicher, nur vielleicht unter Linux nicht, was ich aber nicht hoffen will. Ich hoffe ja auf meine Unkenntnis von Linux, nicht darauf, das es gar nicht geht.
In OMV habe ich keine Einstellung gefunden, um die Platte wieder "vernünftig" einzubinden. Ich müsste erst die SMB Freigabe löschen, den freigegebenen Ordner entfernen und die Platte aushängen. Und dann alles wieder von vorne einrichten. Geht gar nicht...
Auch ein physikalisches Abziehen des USB Steckers (was beim Laufwerk ohne eigene Stromversorgung noch problemlos geklappt hat, bringt nichts mehr, sobald die Platte mal so "vermurkst" im System hängt.
Einzig ein Neustart des ganzen Servers bindet die Platte wieder vernünftig ein. Ist die Platte bisher noch nicht bekannt, macht das Anstecken der Platte ja keine Probleme. Sobald die Platte aber im System bekannt ist, funktioniert es nicht mehr.
Gibt es einen Linux Befehl, der das Problem behebt und /oder etwas, das man z.B. per Cron laufen lassen kann, damit das Laufwerk automatisch wieder richtig gemounted wird, wenn es "missing" war, ohne den Server komplett neu zu starten?
Sollte das nicht möglich sein, steht fest, das ich ganz sicher kein Linux- basiertes NAS einsetzen werde sondern (mal wieder) wie bisher bei Windows bleiben muss. Eigentlich hatte ich ja gehofft, den Extra Rechner auf Dauer abschaffen zu können und die Platten meines NAS an den OMV Server anschließen zu können, doch dann muss es möglich seit, aus der ferne die Platten auszuschalten und später wieder einzuschalten, wie sie gebraucht werden ohne jedes Mal den Server neu starten zu müssen. Im Moment geht das Ausschalten bei der einen Platte, mit der ich grade getestet habe, ganz leicht über einen Smart Plug. Windows hat damit absolut keine Probleme. Aber Linux scheint damit einfach nicht klar zu kommen. Zumindest habe ich nicht rausfinden können, wie man das unter Linux hin bekommt.
Sowas ist ein für mich absolut unverzichtbares Feature, grade in Zeiten des Klimawandels. Denn das ist einfach überflüssige Verschwendung von Energie und verkürzt die Lebensdauer der Hardware obendrein deutlich. Es ist nun mal was ganz anderes ob ein Gerät 2 oder 168 Stunden pro Woche läuft.
Ich habe inzwischen probiert, nur das USB Kabel abzuziehen, was bei der "kleinen" Platte ohne eigenes Netzteil noch einwandfrei funktioniert hat. Dann passiert mit der 3,5 Zoll Platte leider exakt dasselbe wie oben wenn ich den Strom ausschalte. Danach ist die Platte vermurkst eingehängt und absolut unbrauchbar. Das hat also nichts damit zu tun, das ich den Strom ausschalte. Die Platte lässt sich nicht erneut mounten, wenn sie schon mal gemountet war.
Ich kann also nur noch auf einen "Linux Zauberer" hoffen, der weiß, wie man das Problem abstellt. Sonst wird das nichts mehr.
Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!