Beiträge von buers

Am Samstag (06.09.25) Vormittag werde ich ein Update der Forensoftware (inkl. aller Plugins) durchführen. Das Forum wird deshalb auf unbestimmte Zeit nicht verfügbar sein. Neuigkeiten wird es im Matrix Chat geben: https://www.kodinerds.net/thread/79927-freischaltung-matrix-chat/

    Mit dem Copilot hatte ich gestern tatsächlich schon ein bisschen dazu herumgespielt. Allerdings ist es mir nicht gelungen ein Script zu entwickeln, was z.B. aus allen möglichen Streams der Kodinerds IPTV-Liste +1-Sender generiert hätte. Es klappte immer nur für bestimmte Sender.

    Das ist sprachlich nicht ganz eindeutig. Für alle Sender kann es nicht funktionieren, da die meisten Sender der kodinerds-Liste keinen (längeren) Zeitpuffer haben.

    Grade noch Mal probiert mit einer Pipe (analog wie das tvh macht). Scheint einwandfrei zu funktionieren:

    Code
    ffmpeg -loglevel fatal -live_start_index -5400 -i https://zdf-hls-15.akamaized.net/hls/live/2016498/de/veryhigh/master.m3u8 -map 0 -c copy -copy_unknown -f mpegts pipe:1 | "C:\Program Files\VideoLAN\VLC\vlc.exe" -

    Soll heißen, zeige mir ZDF von vor 3 h (5400*2s). Scheint einwandfrei zu funktionieren. Gerade liefen die Spieler ein des DFB Pokalfinale. Für mich erstaunlicherweise sogar ohne -re. Ähnliches Kommando kann auch aus dem Server-Zeitpuffer der ÖR Sender aufnehmen.

    ffmpeg -ss mag auch hilfreich sein. Funktionierte bei mir allerdings auf Anhieb nicht wie erwartet.

    Ich dachte immer, ich kenne mich gut mit der ffmpeg Kommandozeile aus. Das kann ich mir gar nicht erklären (oder ich stehe temporär auf dem Schlauch).

    Was ich probiert habe (ohne tvheadend, aber analog mit ffmpeg pipe), deine Pipe-Zeile direkt geprüft

    Code
    ffmpeg -loglevel fatal -i https://jlt-jltv-roku.otteravision.com/jlt/jltv/jltv_1080p.m3u8 -metadata service_name=JLTV -vcodec copy -acodec copy -f mpegts pipe:1 | "C:\Program Files\VideoLAN\VLC\vlc.exe" -

    Hier zeigt mir vlc in der Tat 4 (!) Untertitelspuren an. Keine Ahnung wo die her kommen. Nach meinem Verständnis dürften die nicht da sein. Habe Mal Spur 1 und 2 geprüft - wurden aber keine Untertitel angezeigt.

    Test mit ffprobe:

    Code
    ffmpeg -loglevel fatal -i https://jlt-jltv-roku.otteravision.com/jlt/jltv/jltv_1080p.m3u8 -metadata service_name=JLTV -vcodec copy -acodec copy -f mpegts pipe:1 | ffprobe -
    [...]
      Stream #0:0[0x100]: Video: h264 (High) ([27][0][0][0] / 0x001B), yuv420p(tv, bt709, progressive), 1920x1080 [SAR 1:1 DAR 16:9], 30 fps, 30 tbr, 90k tbn
     Stream #0:1[0x101](eng): Audio: aac (LC) ([15][0][0][0] / 0x000F), 48000 Hz, stereo, fltp, 191 kb/s

    Hier werden, wie von mir erwartet, nur Video und Audio gezeigt. Beim von mir vorgeschlagenen Parametern:

    Code
    ffmpeg -loglevel fatal -i https://jlt-jltv-roku.otteravision.com/jlt/jltv/jltv_1080p.m3u8 -metadata service_name=JLTV -map 0 -c copy -copy_unknown -f mpegts pipe:1 | ffprobe -
    [...]
     Stream #0:0[0x100]: Video: h264 (High) ([27][0][0][0] / 0x001B), yuv420p(tv, bt709, progressive), 1920x1080 [SAR 1:1 DAR 16:9], 30 fps, 30 tbr, 90k tbn
     Stream #0:1[0x101](eng): Audio: aac (LC) ([15][0][0][0] / 0x000F), 48000 Hz, stereo, fltp, 192 kb/s
     Stream #0:2[0x102]: Data: timed_id3 (ID3  / 0x20334449)
    Unsupported codec with id 98313 for input stream 2

    Bei deutschen ÖR haben sowohl Kodi als auch ffmpeg als auch VLC Probleme mit Untertiteln (siehe auch Iptv und Untertitel für Hörbehinderte)

    Ein Gegentest mit ORF2, Typ deine Kommandozeile:

    Code
    ffmpeg -loglevel fatal -i https://test02.mdn.ors.at/orf/orf2/qxa/manifest.mpd  -vcodec copy -acodec copy -f mpegts pipe:1 | "C:\Program Files\VideoLAN\VLC\vlc.exe" -

    Keine Untertitelspur vorhanden (zu erwarten nach meiner Erläuterung oben). Die URL selbst in vlc zeigt eine Untertitelspur (erwartungsgemäß). Pipe über -map 0 allerdings auch nicht. Da bin ich sehr überrascht. Bin sehr sicher, dass das früher so funktionierte. ffmpeg zeigt mir dann auch, dass es Untertitel weiterleitet, siehe Stream #0:8 (-loglevel fatal muss natürlich raus, um das zu sehen)

    Muss bei Gelegenheit mal älteres ffmpeg probieren - habe einen ganzen Zoo an Versionen hier. Ist mir nicht aufgefallen bislang - nehme an, weil ich mich daran gewöhnte, dass von dem Trio Kodi, ffmpeg, VLC niemand die Untertitel von von mir getesteten ÖR Sendern mehr hinkriegte (die Sender stellten irgend wann mal auf aktuelleres HLS um, mit separaten modularen Untertitel Stream die nicht im ts sind. Ich nahm an, dass das in den Open Source Programmen bislang niemand korrekt implementiert hatte. Standard ist allerdings schon recht alt dazu. Für ffmpeg gibt es eine schon sehr lange experimental Option, die bei mir nie funktionierte)

    Ich hatte zunächst mal mit ffmpeg 7.1 getestet. ffprobe findet die Untertitel:

    Code
    ffprobe https://test02.mdn.ors.at/orf/orf2/qxa/manifest.mpd
    [...]
     Stream #0:8(de): Subtitle: ttml (stpp / 0x70707473), 0 kb/s (default) (hearing impaired) (captions)

    Ohne es zu testen können meines Erachtens mit deinem Pipe-Befehl keine Untertitel funktionieren, da du ffmpeg nur "beauftragst" video und audio weiter zu geben. -scodec copy hinzuzufügen mag schon reichen. Bei Streams, die nur eine Videospur haben bevorzuge ich statt -vcodec copy -acodec copy lieber -map 0 -c copy -copy_unknown. Hat den Vorteil, wenn mehrerer Audiospuren oder Untertitelspuren vorhanden sind (z.B. in verschiedenen Sprachen), werden alle übernommen und Benutzer kann die passende wählen.

    Am Rande, besser in code statt in spoiler einpacken. Je nach Situation verkürzt sonst gerne die Foren-SW gerne URLs, so dass copy+paste nicht mehr funktioniert, wie man es erwarten würde.

    Bei mir kümmert sich übrigens der Emby Server darum AV1 Zeug in ein Format zu bringen was der Abspieler kann

    Da wird aber halt auch das gelten, was PvD in #10 gesagt hat.

    Man darf ja nicht vergessen, alle für Endanwender gängigen Video-Formate/Codec sind *nicht* lossless. Man kann als nicht zurück auf "Master-Qualität" und dann mit neuen Restriktionen neu codieren. Zwangsweise addieren sich die Schwächen der beteiligten Codecs. Durch Stärken kann man das nicht ausmerzen.

    Hatte da selbst einiges experimentiert mit ffmpeg. Sieht man nicht immer leicht, aber neu codiert war nach meinen Eindrücken immer schlechter, als ich erwartet hätte, selbst bei formal viel besserem Codec und kaum reduzierter Bandbreite. Die Produktions-Firmen können das viel besser, da sie ja jeweils beim Master anfangen können. Inwieweit das Streaming-Anbieter (oder klassische Sendeanstalten) auch machen (und verschiedene Streaming-Formate von einer besseren Qualität on the fly kreieren oder auf Vorrat abspeichern um Rechenzeit zu gewinnen) konnte ich nicht leicht rausfinden. Die Qualitätsunterschiede beim Recodieren zu erkennen ist nicht immer einfach. Bei statischen Bildern mit Details (Fältchen im Gesicht, Haare/Bartstoppeln, kleine Schrift, Ziffernblatt einer Armbanduhr ...) kann man in Ruhe vergleichen. Das ist aber für alle Codecs relativ einfach sparsam zu machen. Dynamische Szenen kann ich nicht so einfach semi-objektiv vergleichen. Aber irgendwie fiel mir immer was auf, was dann im Original einfach deutlich besser aussah.

    Ein Punkt mag bei AV1 noch ne Rolle spielen: ist der einzige offene lizenzkostenfreie Standard, von den hier gerade genannten Beispiele (der historischen Entwicklung).

    1. Wie kann ich einen Stream gezielt so (mit pipe über ffmpeg) in TVHeadend einbinden, dass er gezielt das Programm streamt, welches vor einer oder vor zwei Stunden ausgestrahlt wurde?

    Habe mal die ffmpeg Doku überflogen/darin gesucht. Nicht mit ffmpeg und tvh getestet aber mal kurz mit ffplay experimentiert. In FFmpeg Formats Documentation fand ich auf Anhieb nur "live_start_index: segment index to start live streams at (negative values are from the end)." Die Segmente sind bei ZDF 2 s lang. -3600 sollte als um zwei Stunden früher starten. Schien zu funktionieren. Also in der ffmpeg pipe sowas wie ffmpeg -i https://zdf-hls-15.akamaized.net/hls/live/2016498/de/veryhigh/master.m3u8 -live_start_index -3600 -map 0 -c copy -f mpegts pipe:1 könnte ein Ansatz sein. Evt. brauchst du noch den Parameter -re, damit nicht so schnell wie möglich alles bis zur Jetzt-Zeit abgespielt wird.

    Aber, wieso willst du das mit tvh machen? Kodi kann ja direkt mit IPTV Simple Client ohne Tricks in den 2-3 h Puffer der ÖR springen. Klar, Kodi kann nicht ohne weiteres aufnehmen - da kommt tvh gelegen. Nur, zeitversetzt aufnehmen zu können hat meines Erachtens keine große praktische Relevanz. (Gut, ich könnte mir vorstellen, man landet beim Zappen in der Mitte eines Filmes, und möchte den nun von Anfang an aufnehmen).

    Ich denke du hast "Prompt" missverstanden (oder ich habe das falsch benutzt ...). Ich wollte den (genauen) Wortlaut wissen, mit dem du den Code erzeugen lassen hast. Nach meinem Verständnis nennt man das "Prompting". Sehe aber an deiner Antwort, dass es eine interaktiver Prozess war. Vielleicht kannst du es dennoch skizzieren. Z.B. den Anfang (oder wie du den jetzt formulieren würdest).

    Zunächst mal nur dazu:

    2. Und wie bekomme ich heraus, wie weit in die Vergangenheit man mit einem Stream "reisen" kann?

    Nehmen wir den Stream für ZDF aus der kodinerds Liste: https://zdf-hls-15.akamaized.net/hls/live/2016498/de/veryhigh/master.m3u8

    Mit wget (oder curl) schaue ich mir den Inhalt an. Z.B.:

    Dort identifiziere ich den (z.B.) den Video-Stream https://zdf-hls-15.akamaized.net/hls/live/2016498/de/d1cfc54d10a4d0f48c6aa299ad227dd8/3/3.m3u8. Den schaue ich mir gleichermaßem mit wget an. Einmal mit "head" (die ersten Zeilen)

    Code
    >wget -O- https://zdf-hls-15.akamaized.net/hls/live/2016498/de/d1cfc54d10a4d0f48c6aa299ad227dd8/3/3.m3u8 | head
    [...]
     #EXTM3U
    #EXT-X-VERSION:3
    #EXT-X-TARGETDURATION:2
    #EXT-X-MEDIA-SEQUENCE:1640574
    #EXT-X-PROGRAM-DATE-TIME:2025-05-17T05:15:50Z
    #EXTINF:2.000,
    1640574.ts
    #EXT-X-PROGRAM-DATE-TIME:2025-05-17T05:15:52Z

    Zeitstempel in ISO-Zeit-Format (UTC) ist 2025-05-17T05:15:50Z, also vor 3 Stunden (meine Abfrage war um 10:15 CEST = 8:15 UTC)

    Mit tail sieht man auch das Ende zur Gegenkontrolle. Kann man natürlich auch leicht skripten/automatisieren. Deine Copilot-Erfahrung wird dir da sicher helfen. Head und tail brauchst du auch nicht wirklich, kannst einfach durch die Ausgabe von wget oder curl durchscrollen. (curl ist bei Windows dabei)

    Schön, dass du das so genau beschreibst, auch wenn ich persönlich keinen Bedarf habe. Kleine Anmerkung, wird der Funktionalität kaum schaden, aber mir scheint da ist mal ein Rekodierungsproblem von UTF-8 nach ISO-x und wieder zurück nach UTF-8 passiert. Sieht man z.B. bei return "Keine gültige Stream-URL verfügbar", 503. Gibt nur wenige Stellen, das kannst du leicht korrigieren. Mein Test, ob Copy+Paste aus Editor hier in Code korrekt funktioniert:

    Code
    Aus deinem Code:
    return "Keine gültige Stream-URL verfügbar", 503
    Aus Notepad in UTF-8, korrigiert
    return "Keine gültige Stream-URL verfügbar", 503

    Was mich allerdings wirklich interessiert:

    Die Programmierung hat der Bing Copilot für mich unternehmen.

    Kannst du Python programmieren? (Wie würdest du deine Kenntnisse klassifizieren?)
    Musstest du den Copilot-Code modifizieren?
    Wie war der Prompt, mit dem du den Code erzeugen ließt?

    Ich denke, es wurde schon klar, dass meine Vorschläge zumindest tlws. nicht so ernst gemeint waren.

    Das geht ganz locker an einem vorbei, wenn es nicht genug Kohle in der Familie gibt um sich unsinnig teure Luxusmarken zu goennen.

    Lacoste steht da ganz oben bei mir auf der "unnuetz" Liste.

    Nur um da keinen falschen Eindruck zu erwecken: ich habe weder Adiletten, noch Converse Sneakers, noch ein Lacoste Polo Shirt, noch ein Nike Baseball-Cap - höchstens eine klassische Molteni Radmütze wie Eddy Merckx sie trug. Gedore und Hazet Schraubenschlüssel kenne ich, wenn man Mal den Landmaschinenmechaniker für den Mähdrescher auf dem Feld brauchte. Würde das Zeug aber nicht zwingend Luxus nennen. Das Lacoste T-Shirt, das ich mal hatte, saß gut, hielt sehr lange und nix leierte aus, Kragen und Ärmel wellten sich nicht. Andere hätte man längst entsorgt oder als Putzlumpen genutzt. Der Fred geht immerhin um Gold-Standards. Da soll es schon gute Qualität sein.

    Mein Goldstandard bei T-Shirts wäre übrigens 3K gewesen. Sind leider nicht mehr zu kriegen. Kosteten vielleicht doppelt so viel wie Billig-T-Shirts, hielten aber zig Mal so lang und sahen besser aus.

    Ich kann mich auch nicht erinnern, jemals Ariel gekauft zu haben. Nehme da auch typischerweise Discounter-Produkte. Orientiere mich aber hier gerne an Öko-Test und Stiftung Warentest, insbesondere auch was Ergiebigkeit und (indirekt) Energieeffizienz angeht (wegen Eignung bei niedriger Waschtemperatur).

    Bei vielen technischen/elektronischen Geräten kann sich halt ein echter Goldstandard nicht wirklich etablieren, da sich das Zeug zu schnell/zu kontinuierlich weiter entwickelt. Auch sowas wie Stihl Motorsägen (in Land- und Forst-Betrieb aufgewachsen kenne ich die gut) - es gibt so viele Modelle und wird halt für identische Leistung kontinuierlich leichter, handlicher, ... Auch Schadstoffausstoß verbessert sich (nicht zu unterschätzen, wenn man den ganzen Tag damit rum läuft). Die Profi-Linie ist sicher meist sehr gut, wahnsinnig robust und hält auch sehr lange. CD-Player wie von don genannt ist vielleicht eine Ausnahme - gibt es schon seit über 40 Jahren und Musik-CDs sind gleich geblieben. Ein Original Apple Ipod war sicher sehr gut, sein Geld wert, ist vielleicht ikonisch, nicht jedoch Gold-Standard.

    Manches aus der Liste habe ich auch, z.B. eine hervorragende Knipex Zange für Bowden-Züge. Und die Eneloop Akkus, die vielleicht etwas mehr kosten als Amazon Basic oder Discounter Ware und ein Vielfaches so lange halten.

    Wo sind all die Leute die
    - Nicht ohne Ihre Levi’s 501 aus dem Haus gehen?
    - Dabei ihre Converse All Stars Sneakers tragen?
    - Und ein Baseball-Cap von Nike?
    - ein traditionelles Polo-Shirt von Lacoste bevorzugen?
    - seit sie Zurück in die Zukunft zum ersten Mal sahen, nur noch Boxer-Shorts von Calvin Klein tragen? Und natürlich never ever ein Schießer Doppelripp Unterhemd berühren könnten.
    - In der Sporttasche Adiletten liegen haben?
    - Schraubenschlüssel von Gedore und Hazet besitzen, die mindestens 50 Jahre halten, außer man traktiert sie mit dem Vorschlaghammer?
    - Der Schraubendrehersatz kommt hingegen von Wera und ist grün-schwarz.


    - Und der Seitenschneider ist selbstverständlich rot-blau und kommt von Knipex
    - Die auf einen bestimmten Typ von Panzer-Tape, Duct-Tape, Gaffer-Tape, was auch immer schwören?
    - Deren Holzleim-Fläschchen seit Ewigkeiten gleich aussieht und von Ponal kommt?
    - niemals Scotch Klebeband in ihrem Tesa-Abroller zulassen würden?
    - Immer Varta-Batterien und nix anderes als Eneloop Akkus verwenden?
    - seit Klementine mit Ariel-Pulver (und keinesfalls Flüssig-Waschmittel) waschen?
    - selbstverständlich nur mit Pril abspülen?
    - Ihre Rechnungen nur in Original Leitz-Ordnern abheften, selbstverständlich gelocht mit einem unzerstörbaren Locher derselben Marke?
    - Immer noch ein Aristo-Geodreick auf dem Schreibtisch liegen haben?
    - Und daneben erlauben sie nur ein Original Faber Castell H Bleistift in grün?
    - Für ihre Salzkartoffeln immer nur Sieglinde nehmen?

    te36 – in meinem großen Muskatreiben-Vergleichs-Experiment bin ich zum Schluss gekommen, dass leider Microplane gegen Omas Muskatreibe gewinnt. Dennoch werde ich ihr den Goldstandard nicht absprechen und das praktische Muskatnuss-Aufbewahrungs-Fach hat nur die Oma-Reibe.

    Hat jetzt nur noch wenig mit den Ostfriesenkrimis zu tun, aber ich denke die direkte Diskussion dazu ist durch und peripher hatten wir ja über Codecs, Formate, Auflösung der Ausstrahlungen/der Daten in den Mediatheken diskutiert. Zur Ausstrahlung auf DVB-T2 ...

    [Zur Frage, ob Arte 1080p sendet]

    Über Astra nicht, über DVB-T2 schon. Ob die 1080p in DVB-T2 jetzt aus 720p hochgerechnet sind, oder nativ, scheint von Sender und Sendung abzuhängen. Wikipedia sagt:

    "Stand 2022 werden im Ersten und den Dritten viele Sendungen ohne eine Hochskalierung von nativen 1080p50 HD-Quellen gesendet, beim ZDF beschränkt man sich dabei noch hauptsächlich auf eigene fiktionale Programme und wenige Studioproduktionen, lizenzierte fiktionale Programme werden beim ZDF nach wie vor nur hochskaliert." DVB-T2 HD in Deutschland – Wikipedia

    Hierzu wollte ich doch noch mal eine Klärung versuchen. Bei Google und auch mit Hilfe von Chat-Bots fand ich nicht wirklich was, bis auf den Wikipedia-Artikel zum Stand 2022. Dort ist auch eine Quelle für die Aussage "viele Sendungen ohne Hochskalierung" angegeben, meines Erachtens aber ohne relevanten Inhalt. Andere Aussagen scheinen sich primär auf den Wikipedia-Artikel zu stützen. Habe bei Arte nachgefragt spezifisch für terrestrische Ausstrahlung über DVB-T2 in Deutschland. Leider nur eine nicht hilfreiche Antwort erhalten, aus denen ich Teile zitiere: "In Deutschland wurde das Format „720p“ (1280 x 720 Pixel im progressiven Modus, 50 FPS) ausgewählt. Wenn Sie die richtige Frequenz (11494, H, 22000) gefunden haben, erscheint das Logo „ARTE HD“ oben am Bildschirmrand." Offenbar bezieht sich die Antwort auf Astra und nicht auf DVB-T2 terrestrisch über Antenne.

    Nicht Reply Email-Adresse. Mit bisschen Hartnäckigkeit kann man vermutlich mehr rauskriegen. Vielleicht hat jemand anders Lust ... http://www.arte.tv/zuschauerdienst

    Auch wenn die Sender wirklich natives 1080p Material auf DVB-T2 senden, was natürlich zu begrüßen wäre, scheint mir die Bandbreite etwas zu gering, selbst unter Berücksichtigung des HEVC Codec. Brutto-Datenrate bei ARTE liegt bei meinen Aufnahmen oft bei 4,5 Mbit/s, geschnitten mit TS-Doctor, Füll-Bytes entfernt noch 3 Mbit/s. Habe Mal versucht rauszufinden, was die Inhaltsproduktionsfirmen so erwarten. Da habe ich eine Zahl gefunden für 1080p Material mit HEVC wird > 20 Mbit/s erwartet. Klar, die rechnen das dann um, wie benötigt (und was die gekaufte Bandbreite hergibt, etc.).

    Um nochmals die Kurve zu den Ostfriesenkrimis zu kriegen - hatte ein Skript bereitgestellt, was sich jeweils die beste Qualität aus der Mediathek heraus pickt - da waren manche in 720er, andere in 1080er Auflösung (hatten wir diskutiert). Erstere ca 2,5 Mbit/s Bandbreite, letztere ca 5 Mbit/s, jeweils H264 Codec, formal allerdings tlws. 25 fps, tlws. 50 fps. In der Vergangenheit hatte ich schon Mal mit Live-Broadcast (verschiedene Quellen) verglichen, und kam zu dem Schluss, dass die Bildqualität in den Mediatheken oft geringfügig schlechter ist. Ton gibt es in den Mediatheken leider nach meiner Erfahrung immer nur Stereo, auch wenn im Live-Broadcast 5.1/AC3 Ton vorhanden ist.

    Das verstehe ich jetzt nicht genau, was du damit meinst.

    Sorry, als ich den Beitrag schrieb, war mir deine Ausgangssituation nicht mehr ganz klar. Du schriebst von Bildern und Thumbnails, FoLeY später nur von Thumbnails. Ich hatte mich dann fälschlicherweise auf die Thumbnails konzentriert. Hatte dann meinen Beitrag nochmals editiert (Hinter "EDIT") um auf meinen Fehler aufmerksam zu machen. Ließ den Rest aber stehen, da er meines Erachtens doch einigermaßen passte. Insbesondere vermute ich, dass die Fehlermeldungen im Log für dein Problem irreführend sind. Kannst du leicht überprüfen - ich nehme an die Fehlermeldungen zu ".../Alle Bilder/2023/Gerlingen Schillerhöhe" bleiben, auch wenn sich die grünen Bilder ändern. Das Verzeichnis kannst du auch mal prüfen, ob es das wirklich gibt. Mag aber auch anderer Folgefehler sein. Jedenfalls wirst du den Fehler durch Sucher nach "error" im Log schnell finden und selber sehen, ob der angegebene Pfadname mit dem Grünfehler korreliert.

    Die Fehlermeldung ist übrigens meines Erachtens kurios bis mysteriös. POSIX errno 14 ist normalerweise EFAULT = "bad address". In der Fehlermeldung liefert aber strerror() "'Is a directory" - was zu POSIX errno 21 EISDIR passt. Mag schon sein, dass das unter Android so ist - habe ich jetzt nicht geprüft. Und abgesehen davon, sieht der Pfad ja auch wie ein Verzeichnis aus (ohne extension). Open wird normalerweise nicht für Verzeichnisse genutzt, sondern für Dateien. Kann aber gut sein, dass ich da den Kodi-Code nicht gut genug verstehe.

    Der Pfad ist lang (Insbesondere der "Hostnamen-Teil") und IPv6. Habe bei Erstellen eines ganz andern Patches für Kodi mal im Code festgestellt, dass sehr lange Pfade Probleme machen können. Gibt zwar kein Buffer-Overflow, das ist abgefangen. Aber es gibt Situation, wo Kodi eine lange URL einfach abschneidet (damit sie in den Puffer passt). Würde mal mit Hostnamen probieren und IPv4.

    Als Workaround/Test wurde NFS vorgeschlagen. Gab kürzlich aber auch dazu einige Fehlerberichte in Kodi. Würde auch einen Test mir ftp vorschlagen.

    hapeess, ist schon Debug Log laut info <general>: Enabled debug logging due to GUI setting (2). Komischerweise sehe ich aber keine Debug-Meldungen.

    Das passiert mit Piers nicht.

    Die Fehlermeldung kommt aus platform/posix/filesystem/SMBFile.cpp - da sehe ich jetzt keine relevanten Änderungen zwischen Omega und Piers. Wie das mit dem smbclient-Code (von Samba) aussieht (smbc_creat und smbc_open) schnalle ich leider nicht. Wenn da in Piers was geändert wurde, müsste doch was dazu im Github zu finden sein? Vielleicht war da ein unbemerkter/nicht verstandener Seiteneffekt. Könnte sich lohnen, nochmals ein Issue zu öffnen, wenn das bei dir so leicht zu reproduzieren ist. Matrix, das laut hapeess auch nicht betroffen ist, schaue ich mir noch an. Nehme an, da sieht man auch nix.

    Wenn da was eng wird sollte doch auch ein Cache greifen oder nicht.

    Der Kodi Cache Code funktioniert leider nicht besonders zuverlässig. Hatte schon mal verschiedene Test/Situationen beschrieben, wo andere Programm mit einer temporären Störung gut umgingen, Kodi nicht. Hatte mir das auch schon Mal im Code angesehen - ist mir zu kompliziert. Kodi-Team hat offenbar auch ein Bewusstsein dafür, siehe z.B.: Audio Passthrough IEC - TrueHD fix/workaround - Testing build "[...] the cache does not really work as it should. [...] I think it [the cache code] needs complete replacing at a point as the internal knowledge was lost and we see tons of issues [..]"

    Ich denke, das ist noch nicht passiert. Selbst kenne ich das "Grün-Problem" nicht mit meinem OMV NAS (in vielen Versionen von Kodi und OMV/Samba, auch mit FireTV, allerdings habe ich keinen Cube). Es gab hier im Forum immer mal Vorschläge zu spezifischer Konfiguration von Cache und Samba. Vielleicht ein Mal auf Default stellen, und probieren? (Viele Samba-Konfigs benötigen Neustart von Kodi, bevor sie wirken).

    Ich möchte wetten, dass es mit dem identischen NAS bei euch unter Windows Kodi das Problem nicht gibt.

    Was mich wundert/was ich noch nicht verstanden habe, bei dir hapeess - was sind denn das genau für Bilder mit grün? Hast du da die ganze Artwork explizit auf dem NAS abgelegt? Denn, normalerweise kommen die Bilder ja aus den Thumbnails / dem Thumbnail-Cache. Der ist laut deinem Log aber nicht umgeleitet und müsste so auf dem Cube liegen. Die Fehlermeldung betrifft aber eindeutig SMB mit IPv6 IP.

    EDIT: Nicht dass am Ende die Fehlermeldungen im Log gar nix mit den grünen Bildern zu tun haben. Ähnliche Fehlermeldungen sind zu erwarten, wenn die Datenbank nicht mehr ganz zu den Files auf dem NAS passt, wie sie gescraped wurden. (Vielleicht was umbenannt, gelöscht, in anderen Ordner verschoben ...). Ok, das ist es wohl auch nicht, weil Filenamen ja im Log stehen. Sorry, war mir nicht ganz klar, dass es primär um Fotos/Bilder geht, nicht um Thumbnails. Die Fehlermeldungen scheinen dann das Problem nicht zu treffen.

    NAS ist eine Fritzbox? Vielleicht ist es ein subtiles Timing-Phänomen, das als Nebenwirkung von anderen Code-Änderungen. IT-Erfahrung zeigt ja bei Schnittstellen (hier SMB), dass es da gerne besonders komplex wird, und jeweils gerne dem anderen Schnittstellen-Partner die Schuld gegeben wird.

    Danke dir don. Als "schlecht" würde ich es jetzt nicht bezeichnen - das ist halt primär der aberwitzig und für "normale" Betrachtungen sinnlos hohen Vergrößerung geschuldet. Man kann die 11 Fenster zählen und sogar ein kleines bisschen die besondere Form des ZDF-Z erahnen. Grundlage deines Ausschnittes war natives Auflösungsvermögen des Sensors (50 MP) und das Tele mit der größten Brennweite ("5-fach") ohne digitalen Zoom (der kam erst von dir auf dem Computer). Auch da muss übrigens schon die elektronische Bildstabilisierung funktioniert haben - s.u.

    Die SW des Smartphones machte da aber schon die Details klarer erkennbar und dafür das Motiv auch künstlicher aussehend. Bei der Aufnahme mit "AI Minimum" ist es gar nicht weit weg. Oben hatte ich paar Gedanken gezeigt, wieso der direkte digitale Zoom in der Kamera (überraschenderweise) Vorteile haben kann. In der Naturwissenschaft würde man das vielleicht auf die Situation optimiertes Sampling nennen.

    Mit der kleinen Optik und Linse kann man einfach schon physikalisch (unvermeidliche Beugungseffekte, siehe z.B. Rayleigh-Kriterium – Wikipedia) bei weitem nicht an eine Qualität wie des Fotos von yard2 mit 1200 mm Brennweite darüber ran kommen. Auf Spiegelreflex-Kamera Verhältnisse umgerechnet entspricht der von mir gezeigte Bildausschnitt 2500 mm.

    Man kann auch mal schauen, wie groß ein 1200 mm Objektiv ist und was es kosten kann

    Habe auch noch Mal mit kleinem einfachen Stativ und Fernauslöser experimentiert. Foto zeigt das Live-Bild der Kamera, nicht etwa Aufnahme in der Foto-Galerie.


    Eine Berührung der Blechkiste, auf der das Stativ steht, kann den Bildausschnitt um 100% verschieben. Die Fotos werden aber für mich sichtbar kaum anders, als Frei-Hand - was die erstaunliche Effektivität der elektronischen Bildstabilisierung zeigt. Die anderen gezeigten Ausschnitte hatte ich allerdings fast alle im Querformat aufgenommen.

    (Das Foto des im Schatten stehenden Stativs ist wegen des gleißend hellen Hintergrunds natürlich zu dunkel - das war Programmautomatik der Sony RX100. Würde man sicher besser hinkriegen)

    Da hatte ich mich unklar ausgedrückt. Den Samsung-Marketing Artikel (durchaus informativ) konnte ich schon lesen. Unter dem zentralen Foto steht: "The image used in this video is for illustrative purposes only." Das hatte ich vielleicht missverstanden, und noch ein Video (und nicht nur die Image-Abfolge) erwartet. Ganz unten im Artikel ist aber offenbar explizit ein Video verlinkt (das man als "this video" im oben genannten Zitat versthen könnte). Video-URL ist wohl

    Code
    https://youtu.be/o4yLOE88kQY

    . Und da bekomme ich die Privat-Fehlermeldung.

    Da haette mich interessiert, ob die ohne/mit-AI Vergleiche, die dort gezeigt werden auch ungefaehr Deinen Erfahrungen entsprechen.

    Ich denke, das passt schon. Die Beispiele sind bei 30-fach. Meine waren bei 100-fach. Da scheint es, wie bei dem Foto das du mit "Das Photo jetzt sieht schon so aus, als ob die AI sich das ausgedacht haben koennte" deutlich artifizieller als bei den Samsung-Fotos. Mit weniger Zoom, weniger auffällig (und mit AI-Bearbeitung auf Minimum, siehe letztes Foto, auch. Aber auch weniger Details erkennbar. Soll nicht heißen, dass das jetzt besser oder schlechter sei). In dem einen Beispiel-Foto von Samsung ist der Effekt schon sehr vergleichbar: Einmal kann man den englischen Text gerade so mit Mühe lesen, das "Aufgebesserte" kann man mühelos und schnell lesen. Text kann vielleicht eine AI auch leichter verbessern.

    Wenn ich dazu komme, will ich Mal das von don genannte Chainner probieren an dem 50 MP Foto ohne digitalen Zoom. Mein Gefühl sagt mir, dass da nicht die Details rauszuholen sind, wie im Digital-Zoom direkt in der Kamera. Dass der Bildeindruck allerdings ähnlich künstlich wird, kann ich mir gut vorstellen. Könntest du das - Interesse vorausgesetzt - selbst schnell ausprobieren, don, wenn ich dir das Original zukommen lasse? Chainner selbst scheint auf den ersten Blick auch etwas Einarbeitung zu benötigen ...

    probier mal das 100x photo zu machen,nachdem Du in der Photo App alle AI Verbesserungen ausgeschaltet hast

    Möchte eigentlich ungern das Forum noch mit vielen weiteren grundsätzlich schlechten Fotos zupflastern. Mir ging es ja um einen anderen spezifischen Aspekt - was da irgendwie an optischem Auflösungsvermögen aus so einen kleinen Optik rausgeholt wird. Und die Auflösung wird man kaum erfinden können. Die spezifische Form des Z hatte ich erwähnt. Auch dass man die 11 Fenster nebeneinander eindeutig und leicht zählen kann. Und dass ich das mit der so viel größeren Optik von Zeiss nicht hingekriegt habe. Wohlbemerkt schießen beide Kameras bei vernünftigem (nicht digitalem) Zoom gute Fotos.

    Was ich leicht ausschalten konnte ist "Szenenoptimierung". Zusätzlich Qualitätsoptimierung auf Minimum gestellt (Aus gibt es nicht). Beschreibung dort: "Bilder so schnell wie möglich aufnehmen, indem die Bilder nach dem Aufnehmen nicht optimiert werden". Da kann man sicherlich noch weiter gehen, mit Raw-Modus, Pro-Modus, spezielle App die Samsung dafür anbietet, etc. Das vielleicht ein ander Mal.

    Lichtverhältnisse und Sichtverhältnisse sind natürlich jetzt nicht identisch. Sieht bisschen "natürlicher übervergrößert" aus. Sonne ist hier am Morgen noch sehr flach.

    Zu einem Punkt noch, den Lehmden1 erwähnte, dass digitaler Zoom in der Kamera eigentlich keinen Sinn macht. Der Überzeugung war ich ja auch. Hatte das früher nie gemacht und auch hier im Forum schon Fotos gezeigt, wo bisschen am Rechner der wichtige Ausschnitt rausgezoomt wurde (weil halt die Optik das sonst nicht hergab). Jetzt sieht es aber doch anders aus (und da denke ich nicht an 100-fach, das nur als Experiment gedacht war). Nicht einfach zu kapieren. Einen Punkt nannte ich schon: Ist ja ohne Stativ mit steigendem Zoom schwieriger, den Bildausschnitt ruhig zu halten. Da kriegt man allerdings im Vorschau-Fenster direkt ein unmittelbareres visuelles Feedback.

    Als zweiten Punkt nehme ich an, die elektronische Bildstabilisierung. Dafür braucht es massenweise ungenutzte Pixel außen rum um den eigentlichen Bildausschnitt, die es ohne digitalen Zoom einfach nicht gibt (Wobei vermutlich die Abbildung des 50 MP Sensors auf 12 MP Foto durch "4-fach Binning" da etwas Spielraum von 2 MP/4% gibt). Die elektronische Bildstabilisierung funktioniert überraschend sehr gut. Schon im Vorschaufenster kann ich im Motiv oben das ZDF gut lesen (was mir mit Fernglas nur gut mit Aufliegen gelingt - aber nochmals direkt verglichen, Fernglas sieht schon natürlicher aus. Bei 10-fach Zoom statt 100-fach ist das allerdings auch nicht mehr auffällig).

    Dritter Punkt wurde mir klar, als ich gestern Nacht versucht habe den Vollmond zu fotografieren. Ich denke mit manueller Einstellung wird das gelingen ohne direkten digitalen Zoom. Aber bei der Übervergrößerung macht es auch die Belichtungs-Automatik gut, die halt genau den Mond nimmt. Selbst bei 5-fach optischem Zoom ist der Mond so klein, dass die Optimierung auf die größere Szene (Mond war direkt über dem Horizont) den Mond eine weiße unstrukturierte Scheibe werden lässt. Bei anderen Motiven kann man mit Schärfe ähnlich argumentieren.

    EDIT: Hinter deinem Link, te36, steht bei mir: "Video nicht verfügbar Dieses Video ist privat". Braucht man da einen Trick?

    Die "digital-Zoom" Ergebnisse sehen genau so aus, wie bei meinen Versuchen mit Chainner (einer Ki/Algo-Kombi zum Vergrößern).
    Das ist aus meiner Sicher 99% SW.

    Vom Bildeindruck gebe ich dir und euch 100% recht - das sieht einfach sehr künstlich generiert aus. Aber da müssen im Foto einfach schon deutlich mehr Details vorhanden sein, als bei der Sony. Dort könnte man das ZDF nicht lesen. Bei dem Digital-Extrem-Zoom kann man sogar eindeutig den Stil des Z (als Zwischending zwischen Z und 2) erkennen.

    Vor Jahren hatte ein Kollege in der physikalischen Chemie an sowas wie "Entropie-Optimierung" von verrauschten Daten geforscht. Der konnte damit auch fast unleserliche Autokennzeichen auf Fotos lesen. Ich denke, das ZDF aus dem Sony-Foto hätte er nicht hingekriegt.

    Mein Smartphone ist das S21.

    Hatte zuvor S22.

    Ein Ding, was aber noch immer besser geht als mit dem Smartphone: manuell einen gewünschten Punkt im Bild scharfstellen.
    Also manueller Focus. Da hilft mir das ganze herumgetippe auf dem Smartphone nicht.

    Kenne ich, scheint auf dem S25 Ultra jetzt in der Tat besser zu funktionieren. Wenn ich ein Motiv mit großen Unterschieden in der Tiefe habe reicht ein mal Tippen, auch wenn es ab vom Zentrum ist, und die entsprechende Entfernung ist scharf. Mag aber schon vom Motiv abhängen, ob das gut klappt oder nicht.

    Habe übrigens auch schon vor langer Zeit angefangen zu Fotografieren (aber nicht zu ernsthaft und mit nicht so hohem Anspruch) mit russischer analoger Zenith Spiegelreflex ohne Blendenautomatik/Belichtungsautomatik/Autofokus. Sehe das auch bisschen mit Wehmut und auch Unverständnis und Überraschung, was man aus so kleiner Optik jetzt rausholen kann (ohne dass es mir normalerweise künstlich verzeichnet vorkommt, wie in meinen übertrieben hochgezoomten Beispielen).

    Beide Objektive und die Kamera und mein aktuelles Smartphone haben zusammen deutlich weniger gekostet als das S25 Ultra regulär kostet.

    Ja, regulär ist die sehr teuer. Kommt halt auch auf die persönlichen Anforderungen und Ansprüche an. Wir machen im Urlaub normalerweise Radreisen mit Gepäck. Spiegelreflex will ich da nicht mitschleppen. An der Sony Kompakt-Kamera hatte ich viele Jahre Freude - braucht aber (zusätzlich zum Telefon) eher mehr Platz in der Trikot-Tasche (man muss sie auch bisschen vor Nässe/Schweiß schützen was bei vielen aktuellen Smartphones nicht mehr so kritisch ist). So ist meine Wahl gefallen. Halten übrigens andere Radreisende, die man so trifft, auch echte Weltenbummler, ganz ähnlich.

    Die physikalischen Grundlagen und Unterschied digitale und optische Bildstabilisierung sind mir durchaus bewusst. Gerade deshalb ist das Auflösungsvermögen des Smartphones so erstaunlich. Habe mal verglichen mit meiner Sony RX100 III mit optischem Bildstabilisator und für die Klasse außergewöhnlich guter Optik von Zeiss, 13,2x8,8mm Sensor (3:2) mit 20 Megapixeln, 3-fach optischer Zoom, f1,8-2,8. Der größte Sensor des Samsung hat wohl ca. 10x7,5 mm (4:3).

    Von hier aus kann ich den Mainzer Lerchenberg mit ZDF sehen - Entfernung Luftlinie ca. 4,5 km. Klar, die Fotos werden in normaler Vergrößerung gut, scharf, vernünftig belichtet. Schaut man auf die kleinsten Details, gewinnt eindeutig das Smartphone - egal ob man direkt bei der Aufnahme digital übervergrößert oder erst auf dem Rechner. Früher war ich auch immer der Ansicht, dass Digital-Zoom an der Kamera sinnlos ist, und man das besser am Rechner macht. Tests zeigen, dass sich das wohl geändert. Leicht zu erklären ist es nicht. Nehme an, das visuelle Feedback (Zittern ausgleichen und im richtigen Moment abdrücken) spielt eine Rolle. Und vermutlich auch SW-Algorithmen. Mir scheint auch, die elektronische Bildstabilisierung arbeitet erstaunlich viel besser, bei hoher Vergrößerung. So, wie an meinem aktuellen Smartphone, habe ich das noch nie erlebt. Vielleicht kann ich auch Mal mit Stativ probieren. Allerdings wird mein Billigstativ bei so hohen Vergrößerungen auch überfordert sein. Die Aufnahmen unten waren alle wieder Freihand ohne Aufstützen.

    Hier paar Mal der identische Bildausschnitt mit dem ZDF-Hochhaus inkl. Logo. Mit meinem Eschenbach 8-fach Fernglas könnte ich den ZDF-Schriftzug nicht lesen, wenn ich es nicht wüsste.

    Sony RX100, Original-Aufnahme mit 20 MP und 3-fach optischem Zoom, digital am Rechner den Ausschnitt vergrößert, ohne Bildverarbeitung, nur im Original Windows Bildbetrachter gezoomt und mit dem Snipping Tool den Ausschnitt ins Forum kopiert:

    Samsung S25 Ultra, 5fach optischer Zoom, Default-Parameter (12 MPixel Aufnahme)

    5-fach optischer Zoom, 50 MP Aufnahme (siehe auch Argument von te36 aus #110) bringt keine Verbesserung, eher schlechter (mag aber auch verwackelter sein - Serientest habe ich jetzt nicht gemacht)

    ZDF kann man beide Male lesen, die Anzahl der parallel Fenster pro Etage kann man zählen, bei der Sony nicht.

    Nun direkt bis zum Maximum im Samsung Smartphone digital gezoomt ("100 fach"). Der Bildausschnitt ist noch etwas kleiner (mehr passte bei dem Zoom nicht aufs Bild):

    Klar, das will ich keinesfalls als gutes Foto ansehen. Und ich wollte auch nur einen Aspekt beleuchten (Detailschärfe/Vergrößern). Habe halt bewusst in die kleinsten Details reingesehen um Unterschiede festzustellen. So wie Fotografen auch mal gerne mit der Lupe hinschauen. Das letzte Foto sieht in der Tat künstlich aus, aber man erkennt schon die meisten Details. Mit dem neuen Spielzeug habe ich jetzt in kurzer Zeit viele Aufnahmen gemacht - hat sich so wie beschrieben überall einigermaßen bestätigt.

    Mit meinem astronomischen Fernrohr sieht man das ZDF übrigens gestochen Scharf. Hat aber sicherlich auch mehr als 100-fache Linsenfläche als die beiden anderen Kameras. Mit bloßem Auge kann man je nach Lichtverhältnissen einen orangen Punkt erkennen.

    Wenn man allerdings eh bloss bei Sonne im Freien zoomt funktioniert das ja.

    Ja. Dennoch funktioniert das Smartphone auch bei Dunkelheit erstaunlich gut. Dazu vielleicht ein anderes Mal mehr. Aber da ich gerade bei dem Ausschnitt war: Ohne was einzustellen, alles Automatik, nochmals mit 100-fach:

    Das war Sonntag Nacht, wo vielleicht kaum jemand arbeitet. Vom Kontrast her (Leuchte vs. wirklich dunkle Fassade) sicherlich auch noch Mal ne Herausforderung. Wie gesagt, soll ja primär als "Nerd-Diskussions-Grundlage" dienen. Bisschen so, wie früher die Hifi-Freaks gefühlt mehr Testplatten hörten als Musik ...

    Ja, ich hätte auch lieber das Format des S25 (plus) gehabt. Habe ne Weile mit mir gerungen, bevor ich mich für das größere Format entschieden habe - ausschlaggebend waren die Specs für die Fotographie (und der erstaunlicherweise bei meinen individuellen Konditionen bessere Preis).

    Bei Google ist es anders. Das Pixel Pro XL und das Pixel Pro haben die identischen Specs. Da war das kleinere Pixel Pro auch in meiner engeren Auswahl. Xiaomi 15 Ultra soll ja auch sehr gute Kamera haben, aber dann auch im klobigeren Format. In meine Fahrradtrikots passt das Ultra gut rein, da merkt man auch praktisch keinen Unterschied zu meinem S22 (ohne Pro). In der Hosentasche schon etwas. In der Handy-Innentasche von Jacketts wird es auch eng.

    Werde auch noch Mal versuchen mit meiner RX100 direkt zu vergleichen. Rein physikalisch gesehen sollten die viel größeren Linsen (und weil mehr Platz in der Tiefe ist, für den Optik-Designer auch ansonsten viel weniger Einschränkungen) sehr deutlich überlegen sein. Ohne den direkten Vergleich vermute ich, dass das Smartphone in vielen Situationen überlegen ist. Gerade die elektronische Bildstabilisierung bei hohem Zoom ist äußerst beeindruckend.


    EDIT:

    sensor mit 50 megapixel und 5 fach optischem zoom, also 12,5 megapixel bei 10 fach zoom

    Man muss natürlich auch noch fragen, ob die Megapixel zu dem Linsendurchmesser und dem theoretischen Auflösungsvermögen des optischen Systems passen. Wenn ich wegen unvermeidlicher Beugungseffekte zwei Punkte in (sagen wir) 1 mm Abstand bei einer bestimmten Entfernung nicht mehr unterscheiden kann, macht es wenig Sinn, das auf 10 Pixel abzubilden. Mein Überschlag ergäbe für 5 mm Linsendurchmesser und 300 m Entfernung etwas 3,5 cm Auflösung. Hmmm, scheint mir im zweitletzten Foto von #109 eher etwas besser, aber nicht weit weg. Nehmen wir 4000 Pixel Breite des Fotos an (weil 4000*3000=12M, nahe an den 12,5 M im Zitat), ist das bei 300 m Entfernung etwa 140 m Bildbreite. Kommt durchaus einigermaßen hin. Wäre auch bisschen überheblich zu vermuten, dass die das nicht vernünftig designen.

    Die Störche sind längst wieder aus dem Süden zurück gekehrt. Die in #107 widerrechtlich durch invasive Nilgänse besetzte Storchenbehausung wurde geräumt und in der nahen Umgebung ziehen nach meiner Einschätzung über 100 Störche ihren Nachwuchs auf. Überall hört man deren Klappern, der Luftraum ist voller segelnder Störche.

    Ich habe gerade ein neues Smartphone bekommen, Samsung Galaxy S25 Ultra. Dank guter Konditionen durch den Arbeitgeber war es auch preislich ok und signifikant billiger als meine Sony RX100 Kompaktkamera, die ich wohl kaum mehr nutzen werde (obwohl die schon sehr gut war und ist und auch über Jahre hinweg Testsieger bei fast allen Tests dieser Kameraklasse wurde). Für einen kleinen Test bin ich zur "Storchensiedlung" im hessischen Rheinried nahe Gernsheim. Habe mehrere Fotos in die selbe Richtung geschossen mit verschiedenem Zoom. Entfernung ist gut 300 m. Die Screenshots hier haben nicht die volle Auflösung der Originale (bis 200 MPixel).

    "Ultraweit" (die Kamera zeigt 0,6 Zoom), Brennweite 6 mm, eingekreist habe ich mal den Bereich auf den ich dann zoome.

    "Normale" Kamera, Brennweite 8 mm

    Brennweite 35 mm

    Ich glaube ab hier ist der Zoom digital, Brennweite weiterhin 35 mm:

    Und jetzt das Maximum an Zoom, was ich direkt am Telefon einstellen konnte (100)

    Klar, insbesondere das letzte Foto wirkt verpixelt und unscharf. Ist alles Freihand fotografiert, ohne Stativ und sogar ohne Abstützen. Was da offenbar die elektronische Bildstabilisierung hinkriegt ist erstaunlich. Ich hatte jetzt kein Fernglas dabei, nehme aber an, dass ich aus den 300 m Entfernung sehr viel weniger Details sehen hätte können.

    Aus kleinerer Entfernung kriegt man natürlich bessere Aufnahmen hin. Mich hat es dennoch sehr beeindruckt.

    Das war jetzt alles JPEG mit 3*8bit Farbtiefe. Die Kamera hat auch einen RAW-Modus und die Möglichkeit HEIC abzuspeichern (ähnlich HEVC bei Videos). Noch nicht rausgefunden, ob die Farbtiefe dann auch noch höher wird - werde ich bei passender Idee und bei passendem Motiv mal prüfen.

    An anderer Stelle mit 30 fach Zoom, davon 5-fach optisch, Rest digital:

    Das Smartphone ist leider schon etwas schwer, gut 200 g. Aber wenn ich die Hobby-Ornithologen hier sehe, die schleppen oft > 10 kg an Stativ, Spiegelreflex-Kamera, Riesen-Oschi an Zoom-Objektiv plus Fernrohre/Ferngläser. Klar mit denen kann ich bei der Qualität nicht mithalten.