@Technikus5 - eviltoast
  • 0 Posts
  • 9 Comments
Joined 1 year ago
cake
Cake day: June 13th, 2023

help-circle
  • I’ve set up several instances in circumstances like yours. The easiest way is to create a duckdns domain for yourself, and install their updater on one of your systems, to keep your external IP up to date with their DNS-Servers. Then you can use a DNS-Provider of your choice (I use Cloudflare) to create a “CNAME” DNS Record, that basically just tells a browser to redirect from your domain to the IP Address of the duckdns domain. That way you can have an automatically updating public IP behind your domain name. Then you “just” have to set up a reverse proxy (I use Nginx Proxy Manager, but there are newer and easier alternatives), and create the correct port forwarding rules in your router/firewall, and you should be good to go




  • It shouldn’t really scale above a certain point, it’s just that if you import a lot of pictures all at once (in my case with immich-go, as mentioned from a Google photos takeout), all the ML-Tasks (facial recognition, search tagging) together with the normal tasks (thumbnail extraction, video transcoding) can suddenly increase the ram usage from in my case normally 1-2gb to around 6, which even on an 8gb raspi could get a little tight. But for example even just 16gb in the HP should be enough, assuming you don’t have a bunch of other stuff clogging up your RAM. As for the CPU, I’m not too sure tbh, I’m using a Ryzen 5 5600G, which can handle everything that’s running on my server with ease. I think the only significant downside you’d have here going with 4th gen is power efficiency. I still have an i7 6850K (OCd to 4.3GHz) in my main PC, and that thing uses a couple hundred watts when fully loaded, compared to my Ryzens 65W or so. If you’re just going for an i5 or i3 with the fourth gen that’s probably not gonna matter too much, but the performance probably also won’t be amazing at the same time.






  • Also ich habe bei mir inzwischen seit fast zwei Jahren Photoprism laufen. Meiner Meinung nach die größten Vorteile sind 1.) es schluckt einfach vorhandene Ordnerstrukturen, ohne sich zu beschweren, und 2.) alle thumbnails und Previews werden vorab (also beim Einlesen) generiert und müssen nur von der Festplatte gerufen werden. Das zahlt man natürlich in Form von mehr verwendetem Speicher, sorgt dafür aber für schnelle Ladezeiten auch bei großen Bibliotheken. Für den BananaPi würde ich dann allerdings einige Features wie die Gesichtserkennung per ML abdrehen. Dinge über Links verteilen geht natürlich auch, dafür braucht man allerdings, logischerweise, eine Domain und alles was dazugehört. Bei mir ist das einfach Nginx Proxy Manager mit einem Let’s Encrypt Zertifikat.

    Um etwas direkter auf deine Frage einzugehen, ich hab Mal einen ganzen Haufen Bilder mit ffmpeg zurechtgeschnitten, das lässt sich wunderbar einfach automatisieren und ist auch ziemlich effizient, auf einem i5 8.Gen (weiß das genaue Modell nicht mehr, aber ein Laptop 4-Kerner) waren es 7-9fps. Hier gibt’s einen ganzen Haufen Example-Commands: https://stackoverflow.com/questions/28806816/use-ffmpeg-to-resize-image