Bin jetzt bei 77%. Bei Dir @hordesprime? Welche unRaid Version hast Du? Bei mir läuft 6.7.0
Hast Du zufällig easyEPG im Docker laufen?
Beiträge von hi2hello
-
-
Das ist auch eine Idee!
Werde ich mal machen …Danke übrigens für den Hinweis zu den easyEPG-Einstellungen. Der einzige Unterschied zwischen Deiner und meiner Config war die Tatsache, dass bei mir "Console Shell Command" auf "shell" und nicht auf "bash" stand. Das habe ich jetzt geändert. Mal gespannt, ob der Cronjob morgen jetzt dann automatisch anspringt oder nach wie vor streikt.
-
Der easyEPG scheint nicht das Problem zu sein. Der kommt bei mir auf 894 MB. Habe zum Test auch mal den easyEPG minimal installiert. der kommt auf noch weniger: 504 MB.
Keine Ahnung, ob da noch irgendetwas im Docker-Image ist, das da nicht rein gehört oder nicht gelöscht wurde, falsch installiert etc.
10 GB Differenz zwischen Anzeige in unRaid und der Größe des docker.img sind schon eine Hausnummer.Leieder habe ich keine Ahnung, wie ich die Inhalte des Images prüfen kann. "docker ps" in der Konsole gibt jedenfalls auch nichts ungewöhnliches von sich.
-
Top. Danke.
Wenn ich die Werte dort zusammen rechne komme ich aber max auf 11,6 GB.
Woher kommt denn dann die Dockergröße von über 21 GB?Die dicksten Brocken sind binhex-krusader (2,23 GB) und filebot (1,74 GB). Unglaublich, dass die kleinsten Aufgaben das größte Volumen benötigen.
-
Hallo zusammen,
ich bekomme seit heute Abend von unRaid den Hinweis, das mein docker.img kurz vor dem "exceeden" sei. Liegt wohl bei 74%.
Die docker.img hat 21GB. Ich frage mich, woher diese Menge an Daten kommt?Wie kann ich denn prüfen, was da so im img liegt?
Das PlugIn "Clear Appdata" gibt es ja nicht mehr.Herzlichen Dank!
-
@BJ1 Danke für Deine Antwort
Habe das exakt wie auf Deinen Screens gezeigt eingerichtet. Hatte nur unter "Console shell command" den Container auf "shell" und nicht auf "bash". Ansonsten sieht das so aus wie bei Dir.
Die ee-cron sieht aus wie auf dem zweiten Screenshot …
Habe auch mal die Rechte der Dateien aus der Konsole des Containers angehängt. -
Ich habe easyEPG als Docker von mod242 unter unRaid laufen. Der Container läuft seit Mittwoch und ich habe ein paar Fragen dazu:
1. Das Cron-Skript scheint den Prozess für den EPG-Abruf nicht zu starten. Docker ist für 3 Tage EPG konfiguriert und nach dem manuellen Triggern kommt nichts mehr. Leoder sagen die Logs dazu gar nichts außer "Service running". Starte ich das über die Konsole des Dockers mit "bash epg.sh" werden die Daten abgerufen.
2. Ich bekomme plötzlich Warnmeldungen vom Server, das Docker.img würde voll laufen. Das Image hat nun 21 GB, was mit sehr viel vorkommt. Habe aber keinen Vergleich zu Vorwerten. Die Wanrmeldung ist jedenfalls neu.
3. Unter bestimmten Beindungen (beim Konfigurieren) erscheint bei ein Fehler mit "OLDPSWD" oder so ähnlich. Kennt das jemand?Hat jemand eine Idee oder ähnliche Erfahrungen gesammelt?
Danke Euch! -
Bei mir werden unter 6.7.0 die Inhalte automatisch vom Mover aus dem Cache auf die disks in die richtigen Shares gepackt.
Die Cache-Disk (256 GB) ist aber auch noch nicht komplett voll gelaufen . Taucht das Problem bei Dir nur dann auf, wenn die Disk mehr speichern muss, als die Kapazität hergibt oder werden Daten generell nicht automatisch vom Cache auf die Disks verlagert? -
Man sollte sich vor Augen halten, dass bei Emby keine 5 Leute arbeiten …
Und genau das dürfte das Problem sein und war mit der von mir angemerkten Release-"Politik" gemeint.
Will man als Unternehmen wachsen oder warum released man für (gefühlt) jedes existierende OS eine Emby-Version?
Wenn man Wachstum möchte -und das scheint ja der Fall zu sein- dann wird das halt irgendwann auch mal schwierig mit kleiner Crew.Da wir ja hier im Stammtisch sind: Wenn ich nur ein paar Entwickler habe und somit weiß, dass meine Kapazitäten arg begrenzt sind, dann feuere ich doch z.B. keinen Standard-Player auf einer TV-Box weg und ersetzte den im Anschluss durch etwas halbgar selbst entwickeltes, in der Hoffnung, dass mir das die (zahlende) Community schon solange durchtesten wird, bis es nach Zeitraum X, und vielleicht mal für notwendige Code-Änderungen verfügbarer Entwicklerkapazität, dann endlich in einer vergleichbaren Qualität läuft, wie das, was ich vorher über Bord geworfen habe. Epic Fail. Kann jedem passieren. Der Umgang damit ist entscheidend. Und der ist imho oft fragwürdig.
Ja, Emby ist sympathisch und ein tolles Projekt. Aber wer A sagt (Wachstum, breit gefächerte Releases, Kommerzialisierung), der sollte auch B sagen (und dann die notwendigen Kapazitäten einplanen).
Sonst wird es eben doch schwierig mit der Kundenzufriedenheit auf Dauer. Vielleicht liegt es daran, dass ich für die Software gezahlt habe, aber in punkto Emby habe ich irgendwie die Kundenbrille auf und bin weniger der Ansicht, dass es sich um ein Community-Projekt handelt. Mag sein, dass ich diese Ansicht mal überdenken sollte.
PS: Der Umstand, dass man Deine Mitarbeit unterstützt ist natürlich bärenstark und zeigt, dass man dort Hilfe (die man offensichtlich dringend benötigt) zu schätzen weiß. Sehr gut!
-
Nein, natürlich nicht. Aber ich habe genauso wenig Lust, mich mit sich ständig wiederholenden Standard-Phrasen abspeisen zu lassen.
Zwischen "uns egal" und "5-Euro-ins--wir-beruhigen-unsere-Nutzer--Phrasenschwein" gibt es schon auch Abstufungen.
Ich mag ebenfalls die Philosophie drüben nicht, dass immer erst mal der Nutzer "schuld" ist und in der "Beweispflicht" steht. Kann natürlich sein, dass einem die Erfahrung aus vielen Fällen so ein Vorgehen irgendwann aufzwingt. So wirklich kundenfreundlich kommt das jedenfalls alles nicht rüber und daher wollte ich Deiner Meinung in Sachen Support einfach auch mal eine andere Sichtweise entgegen setzen.Nichts für ungut.
-
Im Vergleich zu anderen Softwareprodukten ist der Support sogar vorbildlich.
Das sehe ich vollkommen anders! Mit dem heutigen Wissen über Support, Geschwindigkeit und Release-"Politik" würde ich nie und nimmer nochmals eine Lifetime-Lizenz abschließen. Und das, obwohl ich mit der Software insgesamt eigentlich größtenteils zufrieden bin.
"We are working on it" bzw. "we are looking into it" hat mit Support imho nichts zu tun, wird zudem nach Monaten irgendwann auch mal unglaubwürdig. Daher poste ich dort ebenfalls nur noch selten - bringt nämlich wenig bis nichts. Vielleicht ist der Laden eine ziemlich unorganisierte Chaos-Truppe ohne Roadmap und Ressourcen. Passen würde es.
Aber auch hier: Stammtisch und nur meine persönliche Meinung. -
-
Ich bekomme den Docker mittlerweile zum laufen, allerdings nur über das Terminal per Zugriff auf das Docker img. Unter unRaid liegen die Docker-Files ja normalerweise im Ordner appdata. Hat jemand eine Ahnung, wie ich da dahin installiert bzw. bewegt bekomme?
Ok, passt. Ich habs …
Path falsch angegeben. Wer lesen kann … -
-
-
-
ich bin mit meiner kleinen feinen schwarzen "xbox one" sehr zufrieden. akku halten ungefähr ne monat, also ziemlich lange. hab mir jedenfalls nie groß gedanken gemacht. die tasten leuchten hellgrau im dunkeln, aber nur bei berührung. liegt sehr gut in der hand, weil gummiert. für rund 20€ fand ich super!
IR oder Bluetooth?
-
Nein, geht nicht in sleep. Selbst nach spindown geht die Platte wieder an. Ist ja aber auch klar, wenn auf das share gelogged wird.
Mir ist das bisher noch gar nicht aufgefallen, da ich meinen nextcloud Server aktuell so gut wie gar nicht nutze. -
Bei mir liegt die Datei nextcloud.[definition='1','0']log[/definition] ebenfalls im Share.
Soweit ich das verstehe, wird das [definition=12,8]Logging[/definition] eingestellt über die config.php, die im selben Ordner wie die nextcloud.[definition='1','0']log[/definition] liegt. Siehe auch hier in deren Doku
Mal probiert, den Pfad dort anzupassen oder anders zu setzen? Irgendwo in den Appdata-Ordner, so dass die Log nicht auf das Array, sondern das Cache-Drive geschrieben wird?crons sind zwar auf 15 min eingestellt (default-Einstellung), die werden aber nicht auf die shares, sondern in den appdata-folder geschrieben - daher denke ich nicht, dass es daran liegt.
-
Mit CA Auto Update Applications sicherst du doch nur deine AppData, also die Konfigurationen deiner Container aber nicht die Inhalte z.B. alle Daten die in Nextcloud hochgeladen wurden.
Somit hat man kein Backup seiner hochgeladenen Inhalte. Wenn der Server hops geht und man das Docker Backup zurückspielt, ist der Container wieder da aber die Daten, die in dem Container verwendet wurden, ob Nextcloud mit Dokumenten oder Dokuwiki mit den Wikiseiten. Alle Inhalte wären dann doch weg, man hätte bloß die fertig konfigurierten Container ohne seine persönlichen Daten. Oder irre ich mich ?Ok, jetzt habe ich Deinen Ansatz verstanden.
Die Daten eines nexctcloud-Servers gehören meiner Meinung nach nicht in einen Docker bzw. den AppData-Ordner (man speichert ja auch keine Filme im Emby- oder Plex-Docker).
Bei mir liegen die Daten auf dem Array in einem eigens dafür angelegten Share (ich dachte sogar, nextcloud hätte das automatisch angelegt?!?). Zuerst werden sie auf dem Cache gespeichert (Performance), im Anschluss werden sie automatisiert auf die HDs verschoben. Mit dem Parity-Drive sind die Daten dann auch abgesichert.