Ember Media Manager 1.4.8.0 Alpha - Diskussionsthread

  • Wir nutzen zum Auslesen der ganze Metadaten die Software MediaInfo. Deine Benennung .3D reicht für Kodi im Normalfall nicht aus, um den Film als 3D zu erkennen. Es muss wohl immer noch z.B. SBS mit angegeben werden (siehe Wiki). Einzige Ausnahme sind Dateien, welche die MultiView-Angabe im Header haben. Damit weiss Kodi wie auch Ember ohne spezielles Tagging, dass es sich um einen 3D Film handelt.

    Hmmm... das Wiki bezieht sich ja auf encoded SBS/TAB mkv und ich nutze für 3D untouched ISO... dann scheint also bei einigen Filmen die MultiView Angabe im Header zu fehlen, trotzdem schaltet mein TV bei allen 3D Filmen korrekt um... ist dann wohl das einfachste bei den nfo wo das Tag fehlt dieses per Hand einzutragen...

    Viele Grüße!
    Mike

    Mediaplayer: HimMedia 5-Pro mit FW 2.0.7 & Vero 4k
    A/V-Receiver: Denon AVRX4400H 9.2
    TV: Panasonic TX-65EXW784
    Datenspeicher: Synology DS916+
    Kodi: Krypton 17.6 mit Eminence 2.0 Mod Skin
    Boxen: Klipsch Dolby Atmos 5.1.2 Konfiguration

  • Hmmm... das Wiki bezieht sich ja auf encoded SBS/TAB mkv und ich nutze für 3D untouched ISO... dann scheint also bei einigen Filmen die MultiView Angabe im Header zu fehlen, trotzdem schaltet mein TV bei allen 3D Filmen korrekt um... ist dann wohl das einfachste bei den nfo wo das Tag fehlt dieses per Hand einzutragen...

    Ich hab leider keinen 3D Fernseher und kann das ganze Zeugs nicht richtig testen. Ich kenne mich mit der Materie 3D im Allgemeinen nicht wirklich aus.

  • Hey @DanCooper sag mal, ist es möglich fehlende Filme in Sets anzeigen zu lassen? Ich hab mir mühe gegeben hier im Thread zu suchen aber entweder habe ichs überlesen oder es liegt daran das ich nach X Seiten aufgegeben haben.

    Gruß, Nev

  • Hey @DanCooper sag mal, ist es möglich fehlende Filme in Sets anzeigen zu lassen? Ich hab mir mühe gegeben hier im Thread zu suchen aber entweder habe ichs überlesen oder es liegt daran das ich nach X Seiten aufgegeben haben.

    Gruß, Nev

    Nein, das ist nicht möglich. Kommt vielleicht irgendwann mal, villeicht aber auch nicht.

  • Bei DB Update werden bei den Serien neue Episoden automatisch gescrapt, ebenfalls neue Staffeln von neu hinzugefügten Episoden, falls diese nicht schon vorher vorhanden waren. Das erneute Schreiben der Actorthumbs beim Scrapen von Episoden kann ich vorerst nicht verhindern. Anonsten fällt mir gerade nichts ein, was beim DB Update (er)neu(t) geschrieben wird.

    Kannst Du anhand deines Backups nachvollziehen und sagen, was "unsinnigerweise" neu geschrieben wird?

    Die allgemeine Schreibwut nach dem Editieren oder Scrapen wird in kürze zumindest beim automatischen Scrapen soweit reduziert, dass nur noch die gescrapten Elemente neu geschrieben werden. Beim manuellen Scrapen erscheint am Schluss der Edit Dialog, da ist dann nicht mehr nachvollziehbar, welche Daten/Bilder effektiv verändert wurden.

  • Kannst Du anhand deines Backups nachvollziehen und sagen, was "unsinnigerweise" neu geschrieben wird?

    Die allgemeine Schreibwut nach dem Editieren oder Scrapen wird in kürze zumindest beim automatischen Scrapen soweit reduziert, dass nur noch die gescrapten Elemente neu geschrieben werden. Beim manuellen Scrapen erscheint am Schluss der Edit Dialog, da ist dann nicht mehr nachvollziehbar, welche Daten/Bilder effektiv verändert wurden.

    Leider nein, war einfach zuviel, was da so durchgescrollt ist. Auf jeden Fall immer die Actors, aber ich hab auch ein paar NFOs gesehen.
    (passiert natürlich nicht nochmal, seit ich genauer hinschaue waren es immer nur Actors und neu gescrapte Sachen, also ok).

    Hmm, eigentlich glaubte ich, ich hätte ihm jegliche automatische Handlung verboten...

    Aber ich bemerke manchmal in der Statusleiste Texte wie "scraping for themes..." (was besonders lustig ist, da ich mit Themes nun gar nichs am Hut habe und sie auch überall deaktivert habe (hoffe ich)). oder "scraping for missing... <irgendwas>", auch nur Sachen, die ich gar nicht haben will. Macht nur stutzig, weil ich, wie gesagt, keine Automatik beim Start aktiviert habe...
    Irgendwas scheint dann dochmal von sich aus loszulaufen.

  • Hmm, eigentlich glaubte ich, ich hätte ihm jegliche automatische Handlung verboten...

    Das automatische Scrapen von Episoden und Staffeln lässt sich (noch) nicht deaktivieren. Macht vorerst auch keinen Sinn, denn solange die Serien-Ansicht noch in 3 Bereiche unterteilt ist und sich nicht z.B. alle neuen Episoden anzeigen lassen will ja wohl kaum jemand manuell die einzelnen Episoden rauspicken um sie zu scrapen.

    Aber ich bemerke manchmal in der Statusleiste Texte wie "scraping for themes..." (was besonders lustig ist, da ich mit Themes nun gar nichs am Hut habe und sie auch überall deaktivert habe (hoffe ich)). oder "scraping for missing... <irgendwas>", auch nur Sachen, die ich gar nicht haben will. Macht nur stutzig, weil ich, wie gesagt, keine Automatik beim Start aktiviert habe...
    Irgendwas scheint dann dochmal von sich aus loszulaufen.

    Muss ich mir mal ansehen. Könnte sein, dass da einfach die Info/Text fälschlicherweise angezeigt wird.

  • Das automatische Scrapen von Episoden und Staffeln lässt sich (noch) nicht deaktivieren

    Na ja, braucht hinterher auch nicht mehr, allerdings fehlt genau DABEI eine Anzeige in der Statuszeile. Man sieht (und weis) also nicht, dass da was im Hintergrund passiert.

    Gestern abend war ich allerdings mal kurz davor, die Sinnfrage ("warum gerade ich?" "muss ich mir das antun?" "wozu ist das gut?") zu stellen. Nachdem ja alles fertig gescraped war, hab ich mal ein frisches Kodi auf nem Fire-TV-2 (der sich seit den letzten Updates von Amazon dauernd selber zerlegt, bzw. Kodi killt) aufzusetzen und alles auf "local information only" zu stellen.
    Denn eigentlich macht man sich ja die Arbeit mit Ember, damit die vielen lahmen Klienten ganz flugs nur eben die fertig hinterlegten Dateien einlesen müssen und quasi im Handumdrehen "bereit" sind.
    DAS KROCH WIE TEUFEL :(
    Bin dann irgendwann ins Bett gegangen, heute morgen hatte er dann ungefähr die Hälfte geschafft.
    Das Log des Proxyservers zeigte dann auch, dass "local information only" eine reine Absichtserklärung ist, Kodi (16.1) hatte trotzdem oft und viel mit der großen weiten Welt gequatscht, war wohl der Meinung, dass einige Information nicht vollständig genug war oder so.
    Parallel hatte eine zweite Kiste (selbe Hardware) dieselber Aufgabe, nur diesmal nicht lokal lesen, sondern alles neu aus dem Netz holen,
    DIE BEIDEN WAREN NICHT SEHR WEIT AUSEINANDER :-((((

    Da bringt mich fast zu der traurigen Erkenntnis, dass der ganze Aufwand mit Ember nicht wirklich irgendetwas verbessert, im Gegenteil, die Leidenszeit des Admins auf Updates wird dadurch nur noch verlängert :-(((

    Irgendeine Idee, was das "lokale Schnarchen" verursachen könnte?

  • Der "Local Only" Scraper enthält keine einzige Zeile Code, der macht garantiert nichts.
    Ich kann auf meinem i5 HTPC einen enormen Unterschied zwischen dem TMDB/TVDB und Local Only feststellen. Auf dem PI oder dem alten Atom Rechner ist der Unterschied nicht mehr ganz so gross, aber zumindest auf dem Atom immer noch klar erkennbar. Der Pi ist so oder so ne lahme Kiste. Ich weiss ja nicht wie lahm die Fire-Dinger sind, aber es wird halt schon ne Menge an Daten in die DB geschrieben. Jenachdem liegt es dann einfach am Speicher bzw. der Schreibgeschwindigkeit in Kombination mit Rechenleistung und Netzwerkschnittstelle.

    Der Sinn von Ember und Konsorten ist IMHO einfach die Tatsache, dass ich geziehlt scrapen kann und die Daten dann gleich für ewig und alle zur Verfügung liegen.


  • Der "Local Only" Scraper enthält keine einzige Zeile Code, der macht garantiert nichts.Ich kann auf meinem i5 HTPC einen enormen Unterschied zwischen dem TMDB/TVDB und Local Only feststellen. Auf dem PI oder dem alten Atom Rechner ist der Unterschied nicht mehr ganz so gross, aber zumindest auf dem Atom immer noch klar erkennbar. Der Pi ist so oder so ne lahme Kiste. Ich weiss ja nicht wie lahm die Fire-Dinger sind, aber es wird halt schon ne Menge an Daten in die DB geschrieben. Jenachdem liegt es dann einfach am Speicher bzw. der Schreibgeschwindigkeit in Kombination mit Rechenleistung und Netzwerkschnittstelle.

    Der Sinn von Ember und Konsorten ist IMHO einfach die Tatsache, dass ich geziehlt scrapen kann und die Daten dann gleich für ewig und alle zur Verfügung liegen.


    Kann ich So nur bestätigen. ;)

    Bei mir hat das Scrapen übrigens kürzlich auch Ewigkeiten gedauert, allerdings nur bei Filmen - mit den aktuellen Builds von Milhouse ist das Problem aber wieder Geschichte.

    95% aller Computerfehler sitzen vor dem Bildschirm!

  • Der "Local Only" Scraper enthält keine einzige Zeile Code, der macht garantiert nichts.
    Der Pi ist so oder so ne lahme Kiste. Ich weiss ja nicht wie lahm die Fire-Dinger sind, aber es wird halt schon ne Menge an Daten in die DB geschrieben. Jenachdem liegt es dann einfach am Speicher bzw. der Schreibgeschwindigkeit in Kombination mit Rechenleistung und Netzwerkschnittstelle.

    Halt! nicht dass wir aneinander vorbeireden, ich meine den "local only" von KODI, nicht von EMBER!
    Und irgendwas muss er schon machen, sonst könnte er kaum die NFOs und Bilder lesen :-)))

    Das FireDingens ist recht flott, etwa doppelt so schnell, wie der aktuelle Pi-3. Kodi lässt sich damit deutlich flüssiger bedienen und es gibt weniger "Denkpausen". Speicher kanns auch nicht sein, die haben ja alle in dieselbe mysql Datenbank im LAN geschrieben (na ja, die thumbs/actors werden lokal auf die SD Karte geschrieben, das kann schon was ausmachen. Da ist allerdings eine "ultimate" drin mit garantierter 80Mb/s Schreibleistung)
    Das ist die 4k Kiste, die hat schon genug Dampf auch für ne 4K Oberfläche (und natürlich nen H265 Decoder ebenfalls).

    Aber ich muss das relativieren. Ich hab die Kiste heute morgen nochmal voll gekillt, alle Updates (gääähn) nacheinander einspielen lassen, dann Kodi als letztes drauf und dasselbe nochmal gemacht. Nun fliegt die "local info only" nur so rein, so wie man sich das vorstellt.
    Ich sach doch, Amazon hat die Dinger verhackt, habe schon nach erstem Meckern sofort einen neuen erhalten, aber der machte denselben Mist.
    Irgendeins der letzten Updates killt Apps, die nicht von Amazon stammen :(
    Sollte sich dieses Kodi wieder zerlegen, schick ich den ganzen Mist zurück und sie haben einen Prime Kunden weniger...

    Einmal editiert, zuletzt von mam (6. April 2016 um 16:13)

  • @mam

    Die 80 MB Schreibleistung bringen bei den kleinen Dateien eh nicht viel und das beste an Ember ist ja auch, man kann das Scrapen schön steuern und man muss es nur einmal machen. ;)

    Als ich mit Kodi, damals noch XBMC, angefangen habe, ist mir innerhalb von 2 Wochen 5 mal meine Datenbank abgeraucht.

    Seit dem benutze ich Ember, bin rundum zufrieden, sorgenfrei und möchte das Tool auch echt nicht mehr missen.

    95% aller Computerfehler sitzen vor dem Bildschirm!

  • Halt! nicht dass wir aneinander vorbeireden, ich meine den "local only" von KODI, nicht von EMBER!
    Und irgendwas muss er schon machen, sonst könnte er kaum die NFOs und Bilder lesen :-)))

    Ja ist/war klar ;)
    Ich hatte "der macht garantiert nichts" auf deine Aussage betreffend Internet-Traffic bezogen. Der Scraper hat keine Zeile Code, die irgendwas macht (guckste hier). Es wird also sicher nichts "fehlendes" im Internet abfragen. Dein Traffic muss also an was anderem gelegen haben.

    Aber ich muss das relativieren. Ich hab die Kiste heute morgen nochmal voll gekillt, alle Updates (gääähn) nacheinander einspielen lassen, dann Kodi als letztes drauf und dasselbe nochmal gemacht. Nun fliegt die "local info only" nur so rein, so wie man sich das vorstellt.

    Gut, so solls sein :)

  • Hallo,

    ich habe heute ein wenig mit den Trailern rumgespielt und dabei ist mir eventuell ein Fehler unterlaufen :( Dazu habe ich 1 Frage.

    1. In den Settings habe ich für Trailer tmdb und youtube aktiviert. Ich habe für meine Filme, wo mir noch Trailer fehlten, diverse Filme markiert und dann "Ausgewählte Filme (Re)Scrapen - Automatisch - Nur Trailer" ausgeführt. Es wurde dann auch zu fast jedem Film etwas gefunden, aber leider auch viel verkehrtes. Vermutlich kamen die falschen Trailer alle von youtube, sodass ich in den Settings nur noch tmdb als Trailer Scraper aktiviert habe. Wenn ich manuell auf der Homepage gucke gibt es z.B für den Film "300" einen Trailer, versuche ich das aber über Ember, wird kein Trailer gefunden. Mache ich was falsch oder ist das ein bekanntes Problem ?

    Danke und Gruß

  • Der Scraper hat keine Zeile Code, die irgendwas macht (guckste hier). Es wird also sicher nichts "fehlendes" im Internet abfragen. Dein Traffic muss also an was

    Hüstel :thumbup: klassisches Eigentor würde man sagen. :thumbup:
    Klick mal auf Deinen Link und dann auf den Titel, dann siehst Du die anderen 10000 Zeilen des "ach so leeren" local Scrapers, auch die, die fehlende Bilder aus URLs nachladen 8o Du hast nur zufällig einen Link erwischt, bei dem nur die Versionsnummer geändert wurde, sonst nix :D
    (dont judge a book by its cover)

    Aber egal... hab ihn gerade wieder ans Schnarchen gekriegt, "Datenbank aufräumen" ist nicht wirklich so sein Ding, das wird dann wohl bis morgen dauern (mysql im LAN... also die SD Karte kanns nicht sein).

  • Hüstel :thumbup: klassisches Eigentor würde man sagen. :thumbup:
    Klick mal auf Deinen Link und dann auf den Titel, dann siehst Du die anderen 10000 Zeilen des "ach so leeren" local Scrapers, auch die, die fehlende Bilder aus URLs nachladen 8o Du hast nur zufällig einen Link erwischt, bei dem nur die Versionsnummer geändert wurde, sonst nix :D
    (dont judge a book by its cover)

    Aber egal... hab ihn gerade wieder ans Schnarchen gekriegt, "Datenbank aufräumen" ist nicht wirklich so sein Ding, das wird dann wohl bis morgen dauern (mysql im LAN... also die SD Karte kanns nicht sein).


    Hüstel... Nein.
    Ich weiss ja nicht auf was du geklickt hast, aber mein Link zeigt eindeutig auf die Datei local.xml, welcher den aktuellen Stand der Datei und nicht auf einen Commit... und diese Datei beinhaltet nichts, erkennbar am sauberen Open und Close der XML Node. Das war kein Eigentor, du standest einfach am falschen Ende des Feldes :P

  • Hüstel... Nein.
    Ich weiss ja nicht auf was du geklickt hast, aber mein Link zeigt eindeutig auf die Datei local.xml, welcher den aktuellen Stand der Datei und nicht auf einen Commit... und diese Datei beinhaltet nichts, erkennbar am sauberen Open und Close der XML Node. Das war kein Eigentor, du standest einfach am falschen Ende des Feldes :P

    hmm, dieser $#@%&"! GitDreck macht mich noch wahnsinnig(er?)
    Love, Peace & Hippieness! :whistling:

    Ok, aber nun mal ne gaaaanz andere, offtopic Frage:

    ich kämpfe im Moment etwas verloren an der Resolver Front. Es gibt Kodi auf soviel verschiedenen Betriebssystemen, die aller mehr oder weniger anders den Begriff "Netzwerk" definieren. Am grausamsten sind da einige Linux "Distributionen" (na ja, eher Kastraten), aber es gibt auch genügend Ausreisser im kommerziellen Bereich.
    Das Problem liegt in den Datenbankeinträgen für Filme, Bilder usw.
    Es wird immer der komplette Pfad gespeichert, so wie er im Klienten konfiguriert ist.
    Das wirft dann Probleme auf, wenn der eine als Pfad die IP Adresse reinschreibt, der anderen einen Kurznamen, oder der dritte einen FQDN.
    Manch Betriebssystem erlaubt nur die eine, oder die andere Schreibweise, oder liegt voll daneben (wie z.B. Openelec, das geht nur, wenn man Kurznamen verwendet und der Klient innerhalb derselben Domäne wie der Server liegt, da der Resolver die wichtige Regel "steht ein '.' am Ende, so hänge nicht Deinen eigenen Rotz hintendran" implementiert hat).
    Will man es wirklich heterogen haben, muss man leider wirklich auf "nur IP Adressen, keinerlei Namen erlaubt" zurück.
    Das ist a) Steinzeit und b) funktioniert es nicht wenn Klienten in verschiedenen Subnetzen sind und Serveradressen z.B. über Split-Horizon-DNS verteilt werden.

    Es muss doch irgendwo noch in Ember (+Kodi) eine Mappingfunktion eingeschleift werden können a la:
    "kriegst Du Pfad X, so mach daraus Pfad Y"
    (geht in Kodi in advancedsetting.xml als Pathsubstituion, aber ich such was Komfortableres und Narrensicheres und vor allen Dingen GENERELLERES)
    Ausserdem muss das natürlich auch rückwärts gehen, wenn er was in die DB schreibt, dann muss automatisch die Regel "schreibst Du Pfad Y, so schreib lieber Pfad X" zur Anwendung kommen.
    So dass in der DB immer dasselbe Pfadformat abgelegt ist und beim Lesen auf den Klienten angepasst wird (und umgekehrt auch)

    Die Ideallösung würde ich sehen, wenn sie direkt in MySQL liefe und aus einer extra Tabelle weis: "Klient ABC braucht Format 123, ich pass das dann mal so an, so dass er gar nix merkt..."

    Einmal editiert, zuletzt von mam (6. April 2016 um 21:29)

  • @mam obwohl bei mir in der Hinsicht noch nie Probleme aufgetreten sind stimme ich dir zu. Ich nutze zuhause eigentlich nur noch OpenElec auf den HTPC's und die Windows Rechner sind alle in der selben Domain. Bei mir funktionierts so natürlich über smb//SERVER/SHARE, über IP würds auch gehen. Mein Nachbar hängt auch noch an meinem Server, dem habe ich aber einfach ein HTPC zur Verfügung gestellt, der an meinem Netz hängt, für den Rest nutzt er ein eigenes Netzwerk.

    Lässt sich dein Problem denn auf dem Papier lösen? Ich meine, woher soll Kodi anhand einer Quellinfo (IP, Domain.Client usw.) die anderen "Möglichkeiten" kennen? So wie ich das sehe wäre es nur à la Plex lösbar, sprich ein Server, der die Daten Indexiert und dann eine Schnittstelle zur Verfügung stellt, an der sich die Clients anmelden können. Dabei wäre es dann egal, ob man die Serververbindung über ein LAN oder WAN herstellt.

  • Na ja, ich hatte vorher auch alles auf Windows und Openelec und smb//SERVER/SHARE. Das ging solange gut (na ja, gut ist es eigentlich nicht, SERVER (ohne Domäne) ist ein Relikt aus dem vorigen Jahrhundert, aber Openelec kann eben kein SERVER.MIT.DOMÄNE), bis jetzt die ersten ankamen und FireTV (-2/4k) anschleppten.

    Da kann man auch Kodi drauf installieren, aber Amazon hat das Teil richtig vernagelt. Selbst die installierten Apps dürfen nicht direkt ans LAN, sondern müssen über einen VPN Tunnel mit den Servern reden. Da man auf der Kiste noch nichtmals ne Rootshell bekommt, ist das Testen auch nicht wirklich einfach, zumal auch die meisten bekannten Tools für LAN gar nicht mitinstalliert sind.
    Aber das Teil ist schick, deutlich flotter als jeder Raspi und kann 4k. Ausserdem macht es wenig Sinn ZWEI Boxen im Wohnzimmer zu haben, eine fürs Streamen und eine fürs "normale Filme gucken".
    Bei dem Teil habe ich bislang aber nur smb//http://IP.AD.RE.SSE/SHARE zum Laufen bekommen.

    Wenn man nun alle auf dieselbe Datenbank loslässt, dann knallts halt. Irgendeiner kann mit dem gelesenen Pfad immer nix anfangen. Da müsste man erstmal bei allen die Konfigurationen auf das gleiche Schema abändern und dann die Datenbank neu aufbauen.
    Würde hier aber auch nix bringen, da unterschiedliche Nachbarn in unterschiedlichen Subnetzen sind, so dass alle mit unterschiedlichen Adressen arbeiten...

    Lösen? klar :)
    Der MySQL Server müsste 2 neue Funktionen bekommen:

    1) beim Schreiben von Daten: Findet er in einem Feld eine IP Adresse vor, so hat er den Namen des zugehörigen Hosts per RDNS zu ermitteln und anstatt der Adresse einzutragen:
    "smb://192.168.0.6/Filme..." wird dann z.B. zu "smb://hexalotte.werries.local/Filme..."

    2) beim Lesen von Daten: Findet er einen Hostnamen hinter "smb://" vor, so ermittelt er die IP Adressen dieses Hosts per DNS. Anschließend geht er die erhaltene Liste durch und ermittelt die IP Adresse, die im selben Subnetz wie der Klient liegt (die Server selber hängen in ALLEN Subnetzen):
    "smb//http://hexalotte.werries.de/Filme..." wird dann z.B. zu "smb://192.168.77.4/Filme..." für den Klienten 192.168.77.222

    Damit wären dann die Unzulänglichkeiten der Kastraten (ääh Klienten) abgewälzt auf den Datenbank Server (der hoffentlich ein richtiges Betriebssystem hat).

    (und eventuell kann man noch ein paar CPU Zyklen sparen, wenn man der Datenbank eine "Liste der Klienten" Tabelle beibringt, in der alle ihr OS eintragen und der Server damit entscheiden kann, ob die Wandlung nötig ist, oder nicht. Das ist dann aber eher die Kür)

    Allerdings habe ich als passionierte Datenbankhasser ("wer ne Datenbank benutzt ist nur zu doof die Datenhaltung selber zu programmieren..." (MAM 1993)) keinen Plan von MySQL habe, weis ich nicht, ob sowas geht. Beim Microsoft SQL Server ist sowas als "stored procedure" injektierbar, aber ob MySQL das auch kann?

    Einmal editiert, zuletzt von mam (7. April 2016 um 10:39)

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!