WebBuddha

Das ist merkwürdig, ich habe ohne Probleme zwischen verschiedenen Versionen und Forks geswitched und es wurde immer alles übernommen.

Von Medusa selbst braucht man eigentlich auch kein Backup machen. Bei Docker wird alles was im Container ist nicht persistent gespeichert. Für ein Update löscht man den alten Container und zieht sich ein neues Images. Alles was beibehalten werden soll, speichert man außerhalb des Containers über Volumes oder bind mounts.

Kurzes Beispiel: Ich habe auf meinem NAS folgenden Ordner angelegt:

/home/dockeruser/.config/medusa

Diesen übergebe ich dem Container via bind mount und so landet die gesamte Config inklusiver der SerienDB, des cache etc. in diesem Ordner. Nach einem Update verwendet der neue Container genau diesen Ordner weiter. Ein extra Backup ist also unnötig.

    5 days later

    Odla Super Vielen dank. Jetzt funktioniert auch alles top (y) endlich habe ich das was ich wollte.

    5 days later

    @Odla
    Erstmal vielen Dank für deine Arbeit, dein Container läuft bei mir seit Tag 1 ohne jegliche Probleme, super Arbeit!

    Ich habe bei ein paar Serien ein seltsames verhalten was du mir vielleicht einfach erklären kannst.

    Beispiel:
    Ich habe die Serie "Die verlorene Tochter" (https://www.glotz.info/show/die-verlorene-tochter-2018) über Medusa hinzugefügt und dabei natürlich den Glotz Indexer und den entsprechenden EIntrag (es werden zwei Ergebnisse angezeigt) ausgewählt.
    Die Serie wird sauber gecrawled, allerdings bekomme ich weder die Airdates von Glotz, noch das Coverbild. In der Folge davon wird die Serie in Übersicht natürlich mit 0/0 Folgen und Continuing angezeigt.
    Ich habe die Serie zwischenzeitlich auch mal gelöscht und neu hinzugefügt, Force Full Update versucht, usw. immer selbes Ergebnis.
    Hast du evtl. noch ne Idee was man probieren könnte?

    Viele Grüße

    • Odla replied to this.

      flyblubb

      Das wird ein Bug sein, ich schaue mir das die Tage mal an.

      7 days later

      Odla
      Hi, ich wollte das mit dem mount jetzt umsetzen und muß noch kurz fragen wie der Mount-Pfad innerhalb des Docker Containers zeigen muß.
      ...den Import aller Serien werde ich dann vermutlich nochmals laufen lassen müssen...

      • Odla replied to this.

        WebBuddha

        Hi, wichtig ist eigentlich nur, dass der HostPath wo deine Konfigurationsdateien liegen im Container auf "/config" verweist. Alles andere kannst du dann ja innerhalb von Medusa konfigurieren.

        Beispiel: Angenommen auf dem NAS gibts den Ordner "/home/MeineSerien/" wo die Serien liegen. Dann kannst du als zugehörigen Container Pfad "/Serien" definieren und in den Medusa-Einstellungen (General Configuration -> Reiter Misc -> Show root directories) als Serienornder definieren. Sprich: Im Container und für Medusa sichtbar hast du nun einen Pfad /Serien. Der Name des Pfades ist aber frei wählbar und spielt zunächst keine Rolle.

        Wichtig ist eher eine konsistente Benennung wenn du verschiedene Tools benutzt. Angenommen eine Docker-Sabnzbd-Instanz speichert neue Downloads unter "/NeueFolgen" und ein Script übergibt Medusa die Info, doch mal PostProcessing im Ordner "/NeueFolgen" durchzuführen. Dann muss man den Ordner bei Medusa unter gleichem Namen eingebunden haben.

          Odla
          Ich habe aktuell nur Medusa im Docker laufen. Habe das jetzt mal entsprechend geändert und warte mal auf dein nächstes Update um das ganze zu testen. ;-)

          5 days later

          flyblubb

          Ich habe mir das mal eben angesehen... Bei der Serie liefert die API keine Bilder zurück und löst dann intern einen Fehler aus. Ich muss mir noch überlegen wie ich damit umgehe. Zumindest ist dies die Ursache, dass keine Cover angezeigt werden.

          Zu den Airdates: Auf Glotz gibt es noch keine deutschen Airdates zur Serie (da steht N/A) und daher kann Medusa auch keine anzeigen und ergo bleibt der Status der Folgen auf "Unaired".

          Edit: Ich habe gerade gesehen, dass es sich um eine deutsche Serie handelt. Da müsste man wohl am besten bei Glotz die AirDates doppelt eintragen (Airdate und Original Airdate mit dem selben Wert) damit das reibungslos funktioniert. Das wurde beispielsweise bei Hindafing genau so gemacht.

          flyblubb
          WebBuddha hat freundlicherweise die AirDates nachgetragen. Interessanterweise liefert Glotz nun auch Infos zu den Bildern aus. Zumindest wurden Poster und Banner mit "Force Full Update" nun aktualisiert.

          Habe jetzt auch mal Deinen Meduse Fork im Docker auf der Synology laufen und gerade am testen. Bis jetzt sieht alles gut aus.

          Die Updatebenachrichtigungen beziehen sich auf einen anderen Fork oder?
          Funktioniert der automatische Massupdate bei Glotz zuverlässig?

          • Odla replied to this.

            @Odla @WebBuddha
            Medusa läuft echt gut im Docker Container. Über Package Center habe ich es nicht zum laufen gebracht.
            Einziges "Problem": Der post-process in NZBGet über nzbtosickbeard läuft nicht. Es kommt immer, dass der Ordner/Datei nicht existieren würde um es umzubennen und zu verschieben. Es ist aber genau an dem Ort wo sein soll. Ein manuller oder automatischer PP über Medusa funktioniert. Habe schon viel mit Rechten und Python gespielt/geändert -> bringt aber alles nichts. Kennt evtl. jemand die Lösung ?

              Ich kenne Medusa ja nur vom Hörensagen, aber es scheint ja ähnlich wie SickRage zu sein. Sollte es also nicht auch eine Möglichkeit haben, einen Ordner zu überwachen und selbst das Postprocessing zu übernehmen? Dann spart man sich das script, das an nzbget angehängt ist.

              Übrigens: Wäre nicht SABnzbd die flottere Lösung gegenüber nzbget? Läßt sich auch leichter konfigurieren 😉

              WebBuddha Ich dachte ihm geht es um das "Hinterher" und nicht um das Verschieben der nzb´s an das Downloadprogramm...

              Jack_77

              Freut mich dass es gut läuft.
              Die Updatebenachrichtigung bezieht sich auf die Originalversion von Medusa.
              Ich konnte keine Probleme bei den Massupdates feststellen. Falls du welche bemerkst, dann gib bescheid.

              Jack_77

              Weder habe ich eine Synology noch benutze ich Nzbget, daher kann ich dir leider keine Beispielkonfiguration geben. Ich könnte mir aber vorstellen, dass mein Hinweis hier dir vielleicht weiter hilft: Odla (konsistente Benennung der Pfade). In meiner Testumgebung funktioniert das Zusammenspiel Sabnzbd + Medusa + nzbToMedia als PostProcessing Script problemlos.

              @Odla @desperado591 @WebBuddha
              Meine Konfig funktioniert. Wie ich bereits geschrieben habe geht auch das automatische Postprocessing via Medusa alle 10 Minuten. D.h. alle Pfade, Mappings etc. sind korrekt.

              Mich hat es nur gewundert warum nzgtosickbeard mit Sickchill, Sickrage, Sickbeard das Postprocessing meistern kann und Medusa nicht.

              Ich hatte SABnzbd vorher in Gebrauch, NZBget kann man aber viel besser Fine tunen und das Maximum an Performance raus holen. Ist, finde ich auch, die elegantere Lösung wenn man nzbtomedia nutzt, da viele skripte bereits in der Weboberfläche integriert, wie nzbtosickbeard 😉 oder nzbtoradarr (übrigens viel besser als Couchpotato 😉 ) und man muss keine autoProcessMedia.cfg bearbeiten.

                Jack_77 Also spätestens seit SAB in der Version 2.3 aufwärts erschienen ist, muss man da nix mehr großartig tunen, sondern das Teil rennt wie Sau was die Leitung hergibt. Dazu entpackt es parallel zum Download bereits im Hintergrund (sofern die Maschine performant genug ist) und ist somit um Längen schneller als nzbget.

                Aber das sind wahrscheinlich ähnliche Glaubenskriege wie zwischen Apple und Android Anhängern 😉

                Jack_77

                Meldet denn Medusa, dass die Dateien nicht gefunden wurden oder meldet das Script den Fehler?