Beiträge von no.spam

    Naja, HA habe ich auch erst seit heute, weil es in 15 Minuten eingerichtet war und der Shelly sofort gefunden wurde.

    Von daher bin ich für andere Lösungen offen, wenn mich jemand anleitet.

    Könnte als Notlösung einfach einen entsprechenden Cronjob anlegen und das ganze über URL-Aufruf lösen. Das geht mit der Shelly, allerdings kriege ich es nicht hin, den Aufruf von User und Passwort zu unterdrücken, außer ich verzichte auf den Anmeldeschutz bei der Shelly (was ich ungern mache, auch wenn HA und Shelly nicht über Cloud laufen).

    Das Unmount-Script macht mir auch noch Sorgen, allerdings gäbe in Duplicati grundsätzlich die Möglichkeit, mit Ende des Backup ein Script aufzurufen (glaube aber nicht, dass aus einem Container heraus ein systemweites Script aufgerufen werden kann). Ansonsten kann man ja über das UnassignedDevices-Plugin auch direkt ein Script aufrufen oder über CA Scripts. Dann würde ich halt einfach eine vorsichtig geschätzte Uhrzeit nehmen und schauen, dass das Backup bis dorthin sicher durch ist.

    Aber auch dieses Script habe ich noch nicht, hoffe aber, eine Lösung über das UnRaid-Forum zu finden...

    Wie baut ihr denn sonst so Eure trojanersichere Backup-Lösung bei größeren Datenmengen und deshalb nicht über externe (Cloud-)Server...

    Betreibe einen UnRaid-Server, für den ich nun gerne ein trojanersicheres Daten-Backup einrichten möchte. Dazu ist es ja notwendig, dass das Backup-Medium nicht dauerhaft mit dem Server/Netzwerk verbunden ist.
    Umsetzen würde ich das gerne nun mit 2 externen USB-Festplatten, die bei Start (Strom ein) automatisch über das UnassignedDevices-Plugin vom Server gemountet werden und dann Duplicati darauf seine jeweilige Datensicherung vornimmt.
    Danach soll die Platte wieder ausgeworfen werden. Die beiden USB-HDD würde ich dabei gerne im wöchentlichen Wechsel verwenden wollen, falls sich eine Platte doch etwas einfängt, die Sicherungen der Vorwoche wenigstens noch da sind.
    Um nun auch die Verbindung zum Server zu trennen, würde ich die USB-HDD nun auch gerne nach dem Backup stromlos machen.

    Konkret sehe das Schema also so aus:

    Woche 1 USB-HDD 1 Mo, Di, Mi, Do, Fr, Sa, So jeweils 02.00 Uhr Strom ein Mount Datensicherung Unmount Strom aus

    Woche 2 USB-HDD 2 Mo, Di, Mi, Do, Fr, Sa, So jeweils 02.00 Uhr Strom ein Mount Datensicherung Unmount Strom aus

    Woche 3 USB-HDD 1 Mo, Di, Mi, Do, Fr, Sa, So jeweils 02.00 Uhr Strom ein Mount Datensicherung Unmount Strom aus

    usw.


    Duplicati kennt den Rhythmus 14-tägig, so dass die Back-Aufträge entsprechend eingerichtet werden können mit den wechselnden Sicherungspfaden.


    Für Strom Ein/Aus habe ich mir mal testweise einen Shelly-Plug-S besorgt, da ich nicht groß in das Thema Smart Home mit tasmota etc. einsteigen will.

    Shelly ist eingerichtet und unter seiner fixen IP-Adresse steuerbar. Danach testweise mal Home Assistant Core als Docker auf dem UnRaid-Server installiert, weil dort wohl die Shelly-Einbindung out-of-the-box läuft und es wohl bedienerfreundlich sein soll.


    Shelly wird allen Entities erkannt - aber nun eine Automation mit Trigger etc. einzurichten - puuh! Keine Ahnung, wie ich da zu meinem zweiwöchentlichen Rhythmus komme...


    Am einfachsten wäre wohl stattdessen eine simple digitale Zeitschaltuhr - habe aber noch keine gefunden, die 14-tägig kann.

    Alternative wäre auch Fritz!DECT 200 für meine Fritzbox, da das Smart Home dort einen Kalender laden kann. Leider finde ich aber nichts, wie dann die Konfiguration per Kalender aussähe und ob es unbedingt der Google Kalnder sein muss oder ob auch webcal geht. Und für Experimente, ohne zu wissen, ob das mit dem Kalender klappt, sind mir die AVM-Sachen zu teuer...


    Bevor ich aber weitermache: ist das überhaupt der richtige Weg, wenn man von Scripting keine Ahnung hat? Hat jemand andere Ideeen zur Umsetzung für Einsteiger? Möchte es so simpel (und ergo stabil) wie möglich halten, weshalb ich HA z.B. auch als Core im Docker installiert habe und keine VM für Hass.io etc.

    Oder hat einfach einer eine passende Blueprintvorlage für HA [bs] [ag]

    Bei einem WinDoof-PC kann man den DNS-Cache mit

    Code
    ipconfig /flushdns

    auf der PowerShell (Konsole) löschen.

    Würde aber vielleicht erst mal die zugehörigen Cookis in firefox löschen:

    Einstellungen -> Datenschutz & Sicherheit -> Abschnitt Cookies und Website Daten -> Daten verwalten -> und nun den Unraid-Server suchen (interne IP-Adresse oder Domain) und den Eintrag löschen

    Wenn es dann in firefox geht, dann kann man weitersuchen, warum die Dektop-App nicht geht

    Virenschutz ist der MS Defender oder kommt ein anderer zum Einsatz?

    Nutzt Du denn den bitwarenRS-Docker oder den von bitwarden selber...

    Blöde Frage: der Server ist richtig eingetragen? Nutze selbst das Firefox-Addon und da muss man ja in den Einstellungen erst den richtigen Server hinterlegen, bevor man sich anmelden kann.

    Browser-Cache und DNS-Cache des PC mal gelöscht?

    Beim Docker einrichten das custom:proxynet bzw. das selbe Netzwerk wie swag ausgewählt (muss ja eigentlich sein, da Du ja von extern auf das Web-If zugreifen kannst)

    Websocket aktiviert?

    Ansonsten kann ich gerne mal meine Einstellungen posten, habe bitwardenrs-Docker selber erst vor ein paar Tagen eingerichtet und es funktioniert auch mit adGuard Home DNS sofort...

    Nutze allerdings nur das Firefox-Addon und nicht die Desktop-App - und noch die android-App.

    Super - vielen Dank an alle für die Geduld und Mithilfe.

    Besonderer Dank an @DaVu , der ja sogar mehr oder weniger ein Tutorial zu cron geposted hat. Ich hoffe, mein Thread-Titel ist aussagekräftig genug, dass auch andere Hilfesuchende auf diesen tollen Beitrag stoßen.

    Jedenfalls konnte ich mit

    Code
    nano /etc/cron.d/root

    den crontab bearbeiten und mein Problem lösen.

    Peinlicherweise muss ich gestehen, dass ich vor Jahren beim Experimentieren mit dem easyepg-Docker den crontab sicher selbst angelegt habe und ihn dann wohl vergessen habe. Und der Fehler wurde bisher nicht von den UnRaid-Notifications erfasst, da ich die erst vor kurzem richtig eingerichtet habe.

    Prima, das WE kann kommen :)

    Habe es nun über die systemweite Konsole gefunden:

    root@UNR-Server:~# cat /etc/cron.d/root
    40 18 * * * cp ~/mnt/user/appdata/tvheadend/easyepg_xml/EPGfinal.xml ~/mnt/user/appdata/tvheadend/data/
    40 18 * * * cp ~/mnt/user/appdata/tvheadend/easyepg_xml/EPGfinal.xml ~/mnt/user/video/EPG/xml/
    40 18 * * * cp ~/mnt/user/appdata/tvheadend/easyepg_xml/EPGfinal.xml ~/mnt/user/video/movie/

    Ich komme auch in den Pfad /etc/cron.d/ - aber dann komme ich nicht weiter. "crontab -l" bzw. crontab -e" funktionieren nicht; "ls -l" um nach Unterverzeichnis zu suchen leider auch nicht :(

    Puh, immer noch nicht gefunden...

    In der Konsole (UnRaid Main-Menü oben rechts klicken) habe ich mit "ps -p 1740" nach dem Prozess gesucht und "crond" ausgespuckt bekommen. Aber wie lasse ich mir auch den Pfad dahin bzw. zu den angelegten crontabs anzeigen?

    Im easyepg Docker-Container habe ich auch nochmal gesucht und nur den notwendigen crontab zum Starten des epg.sh-Scripts gefunden

    Die Befehle, die in HOWTO: Easyepg im Docker unter LibreElec installieren genannt werden, funktionieren in der UnRaid-Konsole unter bash nicht...

    Ich vernute mal, es steckt irgendwo im systemweiten Cron, nur komme ich da irgendwie nicht hin und kenne mich halt mit der Konsole/bash halt echt nicht aus...

    Also in der Konfiguration in TVHeadend finde ich nichts


    In den Logs der Container easyepg und tvheadend ist auch nicht zu finden - vielleicht kommt also die Fehlermeldung gar nicht von da??

    Habe versucht, mit Mausklick auf den Container easepg im Servermenü von UnRaid die Konsole zu starten und dann mit "docker ps" mal die geöffneten Container anzeigen zu lassen.
    Leider gibt es den Befehl so in bash nicht. Ich habe irgendwie in Erinnerung, dass es drei Container sein müssten und wollte da mal nach dem crontab suchen...

    @SkyBird1980 Wie starte ich den die Container-bash genau und kann da nach dem crontab suchen? mit normalem Mausklick auf den Container wird ja immer das allgemeine Terminal gestartet, oder?

    Mein UnRaid-Server spuckt täglich um 18.40 Uhr eine Fehlermeldung für einen Cron-Tab aus, seit ich vor ein paar Tagen wegen defektem USB-Stick ein Replacement-Stick aufsetzen musste:

    <Apr 21 18:40:01 UNR-Server crond[1740]: exit status 1 from user root cp ~/mnt/user/appdata/tvheadend/easyepg_xml/EPGfinal.xml ~/mnt/user/appdata/tvheadend/data/>

    Ich würde ja vermuten, dass der crontab im easyepg-Container liegt, aber eine Suche mit "crontab -l" brachte nur den nötigen crontab für den start des easyepg-Containers hervor.
    Selbst wenn ich dort auf der Kosnsole in den Ordner "easyepg" wechsle.

    Zweite Vermutung ist ja der tvheadend-Container - aber auch dort nada (außer den Tabs, um die xml dann zu laden)

    Auf der Konsole des UnRaid-Servers selbst ergibt "crontab -l" keinen einzigen Crontab - auch bei UserScripts ist nichts entsprechendes angelegt.

    Hat mir jemand Tipps, wie ich diesen crontab finden und löschen kann - gebraucht wird er nämlich nicht...

    Bin mit meinen domains nach 1&1 nun bei 1blu gelandet. Ist günstiger, aber okay. Wichtig ist halt, dass Du einen CNAME-Eintrag anlegen kannst.

    Bitwarden habe ich erst vorgestern bei mir eingerichtet mit subdomain bei DuckDNS.org; nextcloud läuft schon länger bei mir.

    Beides über Reverse Proxy (nginx) und swag/let's encrypt abgesichert.

    Habe mich dabei an folgende anleitung gehalten:

    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.

    @DesasterMaster: Wo hast du denn nextcloud am Laufen?

    Habe es auf meinem UnRaid-Server im Docker mit swag/nginx im Docker

    Habe nach Update auf NC21 auch die Fehler und meine nginx.conf sieht ganz anders aus als bei NC docs dargestellt...

    Darf ich noch kurz fragen, wie du den Fehler mit der Telefon-Region gelöst hast? (inzwischen selber gelöst)


    Hat hier jemand mal die conf für den UnRaid-Docker?

    Nutze nun auch AdGuard Home im Docker auf meinem UnRaid-Server.

    War easy zu installieren und vielleicht biege ich das Netzwerk noch auf host-basiert um, um auch den Datenverkehr monitoren zu können.

    Was nutzt ihrn denn für Upstream-DNS-Server - ich galube, hier habe ich noch deutliches Verbesserungspotential...

    Derzeit nutze ich:

    https://dns10.quad9.net/dns-query
    https://dns.digitale-gesellschaft.ch/dns-query
    https://dns.cloudflare.com/dns-query
    https://dns.telekom.de/dns-query

    Aber ob cloudflare und 'Telekom so eine gute Idee sind??

    Weiß jemand andere/bessere?

    Habe auch lange damit gekämpft. Die Timer-Aktualisierungen abschalten war easy, wie @don ja oben zeigt.

    Zuletzt gemachte Aufnahmen gibt es so leider nicht zum Ausschalten (zumindest nicht im Standard-Skin), so dass letztlich nur verschiedene User anlegen mit verschiedenen Aufnahmeprofilen geholfen hat.
    Die unterschiedlichen Aufnahmeprofile braucht es vermutlich nur, um unterschiedliche Aufnahmepfade festlegen zu können.
    Vermutlich reicht es also schon, einen neuen TVH-User für das Gästezimmer anzulegen und dann eben die Berechtigungen für das Standard-Aufnahmeprofil entsprechend zu setzen.