Odla
Ich habe aktuell nur Medusa im Docker laufen. Habe das jetzt mal entsprechend geändert und warte mal auf dein nächstes Update um das ganze zu testen. ;-)
Medusa mit Glotz Support
- Edited
Ich habe mir das mal eben angesehen... Bei der Serie liefert die API keine Bilder zurück und löst dann intern einen Fehler aus. Ich muss mir noch überlegen wie ich damit umgehe. Zumindest ist dies die Ursache, dass keine Cover angezeigt werden.
Zu den Airdates: Auf Glotz gibt es noch keine deutschen Airdates zur Serie (da steht N/A) und daher kann Medusa auch keine anzeigen und ergo bleibt der Status der Folgen auf "Unaired".
Edit: Ich habe gerade gesehen, dass es sich um eine deutsche Serie handelt. Da müsste man wohl am besten bei Glotz die AirDates doppelt eintragen (Airdate und Original Airdate mit dem selben Wert) damit das reibungslos funktioniert. Das wurde beispielsweise bei Hindafing genau so gemacht.
Habe jetzt auch mal Deinen Meduse Fork im Docker auf der Synology laufen und gerade am testen. Bis jetzt sieht alles gut aus.
Die Updatebenachrichtigungen beziehen sich auf einen anderen Fork oder?
Funktioniert der automatische Massupdate bei Glotz zuverlässig?
@Odla @WebBuddha
Medusa läuft echt gut im Docker Container. Über Package Center habe ich es nicht zum laufen gebracht.
Einziges "Problem": Der post-process in NZBGet über nzbtosickbeard läuft nicht. Es kommt immer, dass der Ordner/Datei nicht existieren würde um es umzubennen und zu verschieben. Es ist aber genau an dem Ort wo sein soll. Ein manuller oder automatischer PP über Medusa funktioniert. Habe schon viel mit Rechten und Python gespielt/geändert -> bringt aber alles nichts. Kennt evtl. jemand die Lösung ?
Ich kenne Medusa ja nur vom Hörensagen, aber es scheint ja ähnlich wie SickRage zu sein. Sollte es also nicht auch eine Möglichkeit haben, einen Ordner zu überwachen und selbst das Postprocessing zu übernehmen? Dann spart man sich das script, das an nzbget angehängt ist.
Übrigens: Wäre nicht SABnzbd die flottere Lösung gegenüber nzbget? Läßt sich auch leichter konfigurieren
Jack_77 Warum nutzt du nicht einfach die NZB "Übergabe" an nzbget innerhalb der NZB Suche?
- Edited
WebBuddha Ich dachte ihm geht es um das "Hinterher" und nicht um das Verschieben der nzb´s an das Downloadprogramm...
- Edited
Weder habe ich eine Synology noch benutze ich Nzbget, daher kann ich dir leider keine Beispielkonfiguration geben. Ich könnte mir aber vorstellen, dass mein Hinweis hier dir vielleicht weiter hilft: Odla (konsistente Benennung der Pfade). In meiner Testumgebung funktioniert das Zusammenspiel Sabnzbd + Medusa + nzbToMedia als PostProcessing Script problemlos.
- Edited
@Odla @desperado591 @WebBuddha
Meine Konfig funktioniert. Wie ich bereits geschrieben habe geht auch das automatische Postprocessing via Medusa alle 10 Minuten. D.h. alle Pfade, Mappings etc. sind korrekt.
Mich hat es nur gewundert warum nzgtosickbeard mit Sickchill, Sickrage, Sickbeard das Postprocessing meistern kann und Medusa nicht.
Ich hatte SABnzbd vorher in Gebrauch, NZBget kann man aber viel besser Fine tunen und das Maximum an Performance raus holen. Ist, finde ich auch, die elegantere Lösung wenn man nzbtomedia nutzt, da viele skripte bereits in der Weboberfläche integriert, wie nzbtosickbeard oder nzbtoradarr (übrigens viel besser als Couchpotato
) und man muss keine autoProcessMedia.cfg bearbeiten.
- Edited
Jack_77 Also spätestens seit SAB in der Version 2.3 aufwärts erschienen ist, muss man da nix mehr großartig tunen, sondern das Teil rennt wie Sau was die Leitung hergibt. Dazu entpackt es parallel zum Download bereits im Hintergrund (sofern die Maschine performant genug ist) und ist somit um Längen schneller als nzbget.
Aber das sind wahrscheinlich ähnliche Glaubenskriege wie zwischen Apple und Android Anhängern
Jack_77
Also normalerweise funktioniert das folgendermaßen:
1. Das Sab/Nzbget zieht sich den Download und entpackt alles nach sagen wir /home/me/TvDownloads/
2. Sab/Nzbget führt nach dem Download das Script aus und das Script übergibt Medusa u.a. folgende Infos: a) War der Download erfolgreich?, b) falls ja findest du (Medusa) die Folge unter "/home/me/TvDownloads/IrgendwasS01E01"
3. Medusa schnappt sich die unter /home/me/TvDownloads/IrgendwasS01E01 liegenden Dateien und macht das PostProcessing
Wenn dir jetzt gemeldet wird, dass der Ordner nicht existiert kann es nun folgende Gründe haben:
1. Das Script findet den Ordner nicht -> dann stimmt mit dem Script im Zusammenspiel mit Nzbget etwas nicht
2. Medusa findet nichts unter dem Pfad den das Script meldet -> dann stimmen die Pfadzuweisungen nicht da Medusa den Pfad nicht kennt
3. Eines der Tools hat nicht die nötigen Rechte auf den Ordner zuzugreifen -> Das würde ich mal ausschließen, da ja sowohl der Download klappt, als auch das Scheduled PostProcessing bei Medusa.
"2. Medusa findet nichts unter dem Pfad den das Script meldet -> dann stimmen die Pfadzuweisungen nicht da Medusa den Pfad nicht kennt" hat mich zum nachdenken gebracht und schließlich auf die Lösung.
- Meine fertigen DL´s werden von NZBget (über Package Center der Synology installiert) auf /volume1/Downloads/tv geschoben
- In Medusa habe ich /volume1/Downloads/tv unter dem Mountpoint /downloads definiert
- Warumm gehts also nicht mit nzbtosickbeard aber manuell über Medusa?
- Ganz einfach: Medusa läuft im abgeschlossenem System des Docker Containers. nzbtosickbeard sagt nun Medusa schaue bitte in /volume1/Downloads/tv nach ob es was für den PostProcess gibt. Innerhalb des Containers gibt es aber den direkten Zugang dahin nicht, sonern nur über den Mountpoint /downloads.
- Lösung: In NZBget unter Settingts->nzbtosickbeard kann man das dem Script mitgeben. sbremote_path aktivieren und bei mountPoints in meinem Fall folgendes /volume1/Downloads/tv,/downloads eintragen.
PS: wenn Ihr Auto PP in Medusa aktiviert/deaktiviert immer speichern und danach den Container in Docker neustarten. Sonst wird die Einstellung nicht übernommen, sieht man unter Server Status. Weiß nicht für was das noch alles gilt. Deshalb habe ich mir angewohnt nach jeder Änderung den Container neu zu starten.
@Odla ich muss sagen das läuft alles nun schon sehr gut mit Glotz als Indexer. Vielen Dank für Deine großartige Arbeit! Bin gespannt was da noch so kommt.
Schön dass es läuft.
"In Medusa habe ich /volume1/Downloads/tv unter dem Mountpoint /downloads definiert"
Ich glaube es ist möglich "/volume1/Downloads/tv" auch direkt im Container unter "/volume1/Downloads/tv" zu mounten. Dann arbeiten beide Programme mit dem gleichen Pfad und eine Anpassung des Scripts ist nicht mehr nötig.
Eigentlich wollte ich schon längst ein Update gemacht haben, bin aber noch nicht dazu gekommen. Solange aber alles läuft sehe ich da jetzt keinen Zeitdruck.
- Edited
Vielen Dank erst mal für deine Arbeit und Bemühungen. Vielen Dank.
Blöde Frage, läuft das auch auf Windows, wenn hier SR auch läuft ? Kann man bei Medusa auch custom Indexer erstellen (Also auf denen die NZB's gesucht werden ? Von welchem Script ist hier die rede, was Medusa mitteilt, das der DL fertig ist und in xyz liegt ? Wie aktuell ist dein Fork ?
Das klingt alles recht gut, will ich mir mal anschauen. Da mein Server nicht immer läuft, läuft auch SR nicht rund, ich muss ständig von Hand die Serieninfos /Sendedaten aktualisieren. Somit läuft das ganze nicht so wirklich autark.
Vllt sieht das mit Medusa ja anders aus.
D3ltorohd
https://github.com/pymedusa/Medusa/wiki/Installation-&-Configuration-Guides. Hättest Du mal den ersten Link vom ersten Post von @Odla angeklickt wärst Du von selbst drauf gekommen. DU kannst alles machen was Du auch in SR machen kannst, Aufbau ist gleich. Bei den Skripten handelt es sich um nzbtomedia. In der Wiki kann man lesen wie es konfiguriert wird https://github.com/clinton-hall/nzbToMedia/wiki.
Odla
Da hier einige so auf SABnzbd schwören, habe ich mir das nochmal angeschaut und erste Tests haben ergeben, dass es mittlerweile wirklich performant ist. Bei kleinen Dateien macht das zwar nicht viel aber wenn es mal um 40-60GB große Dateien geht und diese parallel entpackt werden...
Also habe ich von NZBget auf SAB umgestellt und alles (SAB, Medusa, Radarr) mittlerweile in Docker installiert. Habe in diesem Zug gleich einen neuen Share erstellt, das sich alle Teilen und nichts mehr seperat wo anders hin geschoben wird.
Das schöne an Docker ist, dass man unendlich viele Container zum vorherigen Test erstellen kann und wenn es läuft schwenkt man z.B. auf die neuere Version.
Was beinhaltet da Update denn ?