Hallo zusammen,

erstmal vielen Dank für die Anpassung von Medusa. Ich hab alles soweit über Docker zum laufen gebracht.
NzbtoMedia habe ich mit eingebunden. Ich steh zur Zeit aber vor einen Problem, wo ich nicht mehr weiter weiss.
Sobald Sabnzbd den Download fertig stellt und das Script ausgelöst wird, reagiert Medusa bis zum vollständigen verschieben des Downloads nicht mehr (was nicht weiter schlimm ist) und Das Hauptproblem: Die Übertragungsrate zum Zielordner beträgt maximal 3 Mb/s. Also verschiebt Medusa aus irgendeinen Grund die Datei langsamer als ich diese downloaden kann.
Ich habe Medusa dann nativ auf Ubuntu installiert, die Übertragungsrate ist dann zwischen 3-8 Mb/s.
Wenn ich Sickchill verwende beträgt die Übertragungsrate 20-30 Mb/s.
Ich weiss einfach nicht mehr weiter. Vll. hat ja jemand eine Idee was ich falsch mache,

Meine derzeitige Konfiguration:
System: Ubuntu 18.04
Die Daten liegen auf eine Gdrive mit rclone verbunden. Der Zielordner ist local und mit Mergerfs mit dem Gdrive gekoppelt. Alle anderen Programme schieben Daten mit 20-30 Mb/s zum Zielordner.

Vielen Dank im Voraus

LG

Edit:

Habe den "Fehler" gefunden. Mann muss dem Mergerfs die Option "direct_io" anfügen. Danach läuft alles wie Butter 🙂. Ich lass das mal stehen. Vll. hilft es ja mal jemanden der vor dem gleichen Problem steht.
Wenn ich es entfernen soll mache ich das natürlich.

Danke

Mein kompletter Mergerfs befehl: /usr/bin/mergerfs -o async_read=false,use_ino,allow_other,auto_cache,func.getattr=newest,category.action=all,category.create=ff,async_read=false,direct_io

    WebBuddha

    Momentan siehst du im Programm selbst leider nicht welche Version du benutzt, da im Code noch alles auf das originale Repository verweist.
    Wenn du Docker verwendest kannst du schauen ob es eine neuen Build gibt, in dem Fall gibts auch eine neue Version. Ein update führst du dann durch, indem du das neue Image ziehst. Den Updateprozess kannst du mit "Watchtower" automatisieren oder auch "Portainer" bietet eine einfache Möglichkeit mit einem Klick zu updaten.

    Eigentlich habe ich auch nicht vor das umzusetzen, da das Ziel ist den Code ins originale Medusa zu übernehmen und ich dies als temporäre Lösung ansehe, bis Medusa sich endgültig von Python 2 trennt. Sollte aber aus irgendwelchen Gründen Glotz nicht als Indexer ins originale Repo aufgenommen werden, würde ich mich der Sache annehmen.

    Zum Restore: Es kann gut sein, dass ich da noch was anpassen muss. Was genau meinst du mit Restore? Der Wechsel von einer Medusa Version zur anderen oder die Übernahme deiner Datenbank aus einem anderen Fork?

      logo00
      Schön dass es läuft 🙂

      Das Problem, dass Medusa nicht reagiert während ein Skript läuft ist mir auch schon aufgefallen. Ich werde mir nochmal ansehen, ob das generell so ist, oder ob ich bei einem Fork irgendwas kaputt gemacht habe.

      abuhamsa

      Zum ersten Link: Das betrifft Medusa mit Python 3 nicht, da sich alle Bibliotheken (SSL, etc.) auf einem aktuellen Stand halten lassen.

      Zum zweiten Link: Klar, wenn die API nicht antwortet, können sich die Tools auch keine Infos ziehen. Das betrifft alle Programme die auf der TVDB API aufsetzen.

        Odla Danke für deine ausführliche Erklärung.
        Ich werde Medusa weiter beobachten ob sich diesbezüglich etwas tut, ich denke aber das du uns doch bestimmt auch informierst, oder?

        Bezüglich des Restore. Ich hatte ein Backup von Medusa erstelle und muß ja zum Docker Update unter Synology den Container-Inhalt löschen. Beim Restore wurde dann allerdings keine Shows mit übernommen. Settings waren allerdings, scheinbar komplett, vorhanden.

        • Odla replied to this.

          WebBuddha

          Das ist merkwürdig, ich habe ohne Probleme zwischen verschiedenen Versionen und Forks geswitched und es wurde immer alles übernommen.

          Von Medusa selbst braucht man eigentlich auch kein Backup machen. Bei Docker wird alles was im Container ist nicht persistent gespeichert. Für ein Update löscht man den alten Container und zieht sich ein neues Images. Alles was beibehalten werden soll, speichert man außerhalb des Containers über Volumes oder bind mounts.

          Kurzes Beispiel: Ich habe auf meinem NAS folgenden Ordner angelegt:

          /home/dockeruser/.config/medusa

          Diesen übergebe ich dem Container via bind mount und so landet die gesamte Config inklusiver der SerienDB, des cache etc. in diesem Ordner. Nach einem Update verwendet der neue Container genau diesen Ordner weiter. Ein extra Backup ist also unnötig.

            5 days later

            Odla Super Vielen dank. Jetzt funktioniert auch alles top (y) endlich habe ich das was ich wollte.

            5 days later

            @Odla
            Erstmal vielen Dank für deine Arbeit, dein Container läuft bei mir seit Tag 1 ohne jegliche Probleme, super Arbeit!

            Ich habe bei ein paar Serien ein seltsames verhalten was du mir vielleicht einfach erklären kannst.

            Beispiel:
            Ich habe die Serie "Die verlorene Tochter" (https://www.glotz.info/show/die-verlorene-tochter-2018) über Medusa hinzugefügt und dabei natürlich den Glotz Indexer und den entsprechenden EIntrag (es werden zwei Ergebnisse angezeigt) ausgewählt.
            Die Serie wird sauber gecrawled, allerdings bekomme ich weder die Airdates von Glotz, noch das Coverbild. In der Folge davon wird die Serie in Übersicht natürlich mit 0/0 Folgen und Continuing angezeigt.
            Ich habe die Serie zwischenzeitlich auch mal gelöscht und neu hinzugefügt, Force Full Update versucht, usw. immer selbes Ergebnis.
            Hast du evtl. noch ne Idee was man probieren könnte?

            Viele Grüße

            • Odla replied to this.

              flyblubb

              Das wird ein Bug sein, ich schaue mir das die Tage mal an.

              7 days later

              Odla
              Hi, ich wollte das mit dem mount jetzt umsetzen und muß noch kurz fragen wie der Mount-Pfad innerhalb des Docker Containers zeigen muß.
              ...den Import aller Serien werde ich dann vermutlich nochmals laufen lassen müssen...

              • Odla replied to this.

                WebBuddha

                Hi, wichtig ist eigentlich nur, dass der HostPath wo deine Konfigurationsdateien liegen im Container auf "/config" verweist. Alles andere kannst du dann ja innerhalb von Medusa konfigurieren.

                Beispiel: Angenommen auf dem NAS gibts den Ordner "/home/MeineSerien/" wo die Serien liegen. Dann kannst du als zugehörigen Container Pfad "/Serien" definieren und in den Medusa-Einstellungen (General Configuration -> Reiter Misc -> Show root directories) als Serienornder definieren. Sprich: Im Container und für Medusa sichtbar hast du nun einen Pfad /Serien. Der Name des Pfades ist aber frei wählbar und spielt zunächst keine Rolle.

                Wichtig ist eher eine konsistente Benennung wenn du verschiedene Tools benutzt. Angenommen eine Docker-Sabnzbd-Instanz speichert neue Downloads unter "/NeueFolgen" und ein Script übergibt Medusa die Info, doch mal PostProcessing im Ordner "/NeueFolgen" durchzuführen. Dann muss man den Ordner bei Medusa unter gleichem Namen eingebunden haben.

                  Odla
                  Ich habe aktuell nur Medusa im Docker laufen. Habe das jetzt mal entsprechend geändert und warte mal auf dein nächstes Update um das ganze zu testen. ;-)

                  5 days later

                  flyblubb

                  Ich habe mir das mal eben angesehen... Bei der Serie liefert die API keine Bilder zurück und löst dann intern einen Fehler aus. Ich muss mir noch überlegen wie ich damit umgehe. Zumindest ist dies die Ursache, dass keine Cover angezeigt werden.

                  Zu den Airdates: Auf Glotz gibt es noch keine deutschen Airdates zur Serie (da steht N/A) und daher kann Medusa auch keine anzeigen und ergo bleibt der Status der Folgen auf "Unaired".

                  Edit: Ich habe gerade gesehen, dass es sich um eine deutsche Serie handelt. Da müsste man wohl am besten bei Glotz die AirDates doppelt eintragen (Airdate und Original Airdate mit dem selben Wert) damit das reibungslos funktioniert. Das wurde beispielsweise bei Hindafing genau so gemacht.

                  flyblubb
                  WebBuddha hat freundlicherweise die AirDates nachgetragen. Interessanterweise liefert Glotz nun auch Infos zu den Bildern aus. Zumindest wurden Poster und Banner mit "Force Full Update" nun aktualisiert.

                  Habe jetzt auch mal Deinen Meduse Fork im Docker auf der Synology laufen und gerade am testen. Bis jetzt sieht alles gut aus.

                  Die Updatebenachrichtigungen beziehen sich auf einen anderen Fork oder?
                  Funktioniert der automatische Massupdate bei Glotz zuverlässig?

                  • Odla replied to this.

                    @Odla @WebBuddha
                    Medusa läuft echt gut im Docker Container. Über Package Center habe ich es nicht zum laufen gebracht.
                    Einziges "Problem": Der post-process in NZBGet über nzbtosickbeard läuft nicht. Es kommt immer, dass der Ordner/Datei nicht existieren würde um es umzubennen und zu verschieben. Es ist aber genau an dem Ort wo sein soll. Ein manuller oder automatischer PP über Medusa funktioniert. Habe schon viel mit Rechten und Python gespielt/geändert -> bringt aber alles nichts. Kennt evtl. jemand die Lösung ?

                      Ich kenne Medusa ja nur vom Hörensagen, aber es scheint ja ähnlich wie SickRage zu sein. Sollte es also nicht auch eine Möglichkeit haben, einen Ordner zu überwachen und selbst das Postprocessing zu übernehmen? Dann spart man sich das script, das an nzbget angehängt ist.

                      Übrigens: Wäre nicht SABnzbd die flottere Lösung gegenüber nzbget? Läßt sich auch leichter konfigurieren 😉