[docker] NEW easyepg

  • Sorry - ich habe einfach das Script kopiert. Nu klappt alles.

    Wird den nun automatisch die Grabber Settings genommen und alle zwei Wochen ein *.XML erstellt oder muß ich irgendwas in die Aufgabenplanung eintragen ?

    Gibt es eine Möglichkeit daß das *.xml File in einen freigegebenen Ordner kopiert wird.

    Gruß Klaus

  • Auch von meiner Seite ein dickes Dankeschön! Habe gestern meine easyepg-Docker von alt auf neu umgestellt. Lief mit Euren Anleitungen ohne größere Probleme.

    Einzig die Suchfunktion hat mich etwas Nerven gekostet. Ich habe es nicht geschafft die Ergebnisse nach Ländern zu filtern, obwohl ich Region und Land entsprechend markiert hatte. Hat halt teilweise wirklich lange Listen geliefert, die dann durchsucht werden mussten. Manchmal habe ich auch lange gebraucht, weil die Schreibweise der Sender nicht richtig war. Beispiel: "ntv" liefert zwar Ergebnisse, aber nur "n-tv" die deutschen Sender.

    In der Rückschau hätte es vielleicht Sinn gemacht, die Playlist aus TVH zu exportieren und in easyepg lite zu importieren. Egal. Dann beim nächsten Mal...

    Nochmals DANKE easy4me und DeBaschdi.

    Server: DIY NAS / Media Server w/ i3-8100, 32GB RAM, 4x6 TB WD Red in Raid5, DD Cine S2 + 3 x DuoFlex, OMV w/ Emby, TVheadend, Oscam fully dockered
    Living Room: NVIDIA Shield TV Pro 2019, Panasonic DP-UB9004, NAD 758v3, LG OLED 65 B7, L/R B&W CM10, B&W C S2, B&W ASW10 CM, SL/SR Elac WS 1445, HL/HR Dali Alteco C1
    Kids Room: Xbox One X w/ Kodi, Panasonic Viera TX-P50 Plasma

  • Mir ist heute mein gesamtes Unraid abgeschmiert, da das Cache komplett vollgeschrieben wurde. Die Recherche hat dann ergeben, dass der easyEPG-Docker der Verantwortliche ist. Im Verzeichnis /mnt/cache/appdata/new-easyepg/proc/1/task/1 hatte die Datei pagemap sage und schreibe 199 GB (siehe die beiden Screenshots im Anhang),

    Wie ist das möglich? Mein Fehler? Bug? Habe ich etwas falsch konfiguriert?

    Aus dem Protokoll konnte ich nichts lesen (ausser dem zu EIT-Fehler, der wohl zu vernachlässigen ist).

    Muss ich damit erneut rechnen? Hatte das schonmal jemand?

    Ich habe die Datei pagemap gelöscht und den Container nochmals neu initialisiert. Die Datei pagemap hat nun immer noch 17,1 GB (was mir persönlich ziemlich viel vorkommt aber weit entfernt ist von 199 GB).

    Danke und Grüße

  • Kann nicht an EasyEPG liegen, ich nutze auch UnRaid und es liegt auch auf der Cache SSD. Diese ist abends nach Verschiebung von Filmen usw. immer gleich voll.

    Spoiler anzeigen

    Client: Nvidia Shield 2019 Pro Kodi 20.1, AVR Sony STR-DN 1080, Nubert NuBox Series 5.1, LG TV 55SM8600 Nanocell
    Musik über Pi4 mit Picore 8 und LMS am AVR.
    Gästezimmer:Shield TV 2017 Kodi 20.1
    Server: unRaid; Fractal Des. Define 7;Asrock B365M PROF-4, Intel i3-8100, 16GB RAM und 20TB Platten,
    Arbeitstier: DeepSilence 4, AX370M, AMD Ryzen 5 2600X; 8GB RAM, Samsung M2 970EVO 500GB, RX560 Grafik

  • Bei mir wird aber der Cache nicht vollgeschrieben. Also müßte es an deinen Einstellungen Liegen, denke ich.

    Spoiler anzeigen

    Client: Nvidia Shield 2019 Pro Kodi 20.1, AVR Sony STR-DN 1080, Nubert NuBox Series 5.1, LG TV 55SM8600 Nanocell
    Musik über Pi4 mit Picore 8 und LMS am AVR.
    Gästezimmer:Shield TV 2017 Kodi 20.1
    Server: unRaid; Fractal Des. Define 7;Asrock B365M PROF-4, Intel i3-8100, 16GB RAM und 20TB Platten,
    Arbeitstier: DeepSilence 4, AX370M, AMD Ryzen 5 2600X; 8GB RAM, Samsung M2 970EVO 500GB, RX560 Grafik

  • Bei mir lief das seit Release auch problemlos. Heute dann der Fehler.

    Ich kann auch nicht sagen, ob die Datei mit der Zeit anwächst. Wäre mir aber vermutlich aufgefallen, da ich den Füllstatus des Cache recht regelmäßig überprüfe und imho war da nichts.

    Ich gehe also davon aus, dass irgendein Prozess dann ziemlich schnell in die Datei reingeschrieben hat. Die erste Warnung kam um 11:30 - da war der Cache schon zu 80% gefüllt. Um 12:00 war dann Ende.

    Aber ist ja auch irgendwie müßig und Lesen im Kaffeesetz. Ich weiß ja nichtmal, was die Datei pagemap beherbergt bzw. was da reingeschrieben wird.
    Hat jemand eine Idee und dann auch einen Ort, wo ich ggf. Logs finden kann, die Aufklärung bringen könnten?

  • Hier hatte aber schon mal jemand damit Probleme. Evtl. hier auf irgendeiner Seite?

    Spoiler anzeigen

    Client: Nvidia Shield 2019 Pro Kodi 20.1, AVR Sony STR-DN 1080, Nubert NuBox Series 5.1, LG TV 55SM8600 Nanocell
    Musik über Pi4 mit Picore 8 und LMS am AVR.
    Gästezimmer:Shield TV 2017 Kodi 20.1
    Server: unRaid; Fractal Des. Define 7;Asrock B365M PROF-4, Intel i3-8100, 16GB RAM und 20TB Platten,
    Arbeitstier: DeepSilence 4, AX370M, AMD Ryzen 5 2600X; 8GB RAM, Samsung M2 970EVO 500GB, RX560 Grafik

  • easy4me Ich habe das jetzt mal gelesen, um ehrlich zu sein aber nicht verstanden. Am Anfang geht es einige Posts zu dem Problem, dann ist TVHeadend Thema …

    Soweit ich das verstanden habe, gehört die Datei pagemap, ja sogar das gesamte Verzeichnis da eigentlich gar nicht hin bzw. das sind Überreste (kernel-feautre), die im Docker-Container nicht unbedingt etwas zu suchen haben? Habe ich das so richtig verstanden?

    Abhilfe schafft dann eine Neuinstallation des Dockers mit anderen Parametern? Oder aus einer andere Quelle?

    Leider übersehe ich wohl die Lösung? Oder kommt die vielleicht später im Thread?

    (Wie man das schlau unter Unraid macht ist nochmal etwas anderes.)

    Ich bin zugegeben alles andere als ein Docker-Crack (ganz blöd eigentlich aber auch nicht, dachte ich jedenfalls).

    Sorry, wenn ich mich hier total bescheuert anstelle.
    Nebenbei: Bei mir ist die Datei aktuell 17 Gig groß (nach einer Neuinstallation. Wie erwähnt nahm sie am Ende 200 GB ein).

  • horschte: Danke für den Hinweis aber inwieweit hat denn pihole etwas mit der Anlage einer riesigen Datei innerhalb eines Docker-Containters zu tun? Ich verstehe den Zusammenhang nicht.

    Bei mir läuft zwar auch eine Instanz von pihole, diese läuft aber nicht unter UnRaid und es wird auch nichts bzgl. der Docker-Kommunikation geblockt.

    Könntest Du mich aufklären? Merci :)

  • Danke für den Hinweis aber inwieweit hat denn pihole etwas mit der Anlage einer riesigen Datei innerhalb eines Docker-Containters zu tun? Ich verstehe den Zusammenhang nicht.

    Bei mir läuft zwar auch eine Instanz von pihole, diese läuft aber nicht unter UnRaid und es wird auch nichts bzgl. der Docker-Kommunikation geblockt.

    Könntest Du mich aufklären? Merci :)

    ich kann dich leider nicht aufklären. das ganze liess sich bei mir aber genau reproduzieren. startete der pihole und der easyepg container normal, dann kam es zum benannten problem, teils auch erst einen tag später. wurde der easyepg container vezögert gestartet, trat das problem nicht mehr auf. zwischenzeitlich wurden weder system- noch containerupdates durchgeführt.

  • Der Fehler tritt bei mir auch nicht auf (Unraid, docker im Cache) sehr kurios, pihole nutze ich selbst auch.

    Könntest Du mir mal einen Gefallen tun und Deine Docker-Settings für den easyepg Container posten (oder per PM)?

    Und nur aus Interesse: Wie groß ist denn bei Dir appdata/easyepg/proc/1/taks/1/pagemap ?

    Danke Dir!

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!