Вопрос или проблема
Может кто-то помочь мне? У меня есть несколько сервисов, работающих в контейнерах Docker, но в последнее время они работают некорректно…
Когда я запускаю Docker PS
, я получаю следующее
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
40bb1aaadd75 ghcr.io/flaresolverr/flaresolverr:latest "/usr/bin/dumb-init …" 11 часов назад Запущен 7 часов 0.0.0.0:8191->8191/tcp, :::8191->8191/tcp, 8192/tcp flaresolverr
f6bbc753a9ac lscr.io/linuxserver/lidarr:latest "/init" 11 часов назад Запущен 7 часов 0.0.0.0:8686->8686/tcp, :::8686->8686/tcp lidarr
a6536a9b4dfe lscr.io/linuxserver/prowlarr:latest "/init" 11 часов назад Запущен 7 часов 0.0.0.0:9696->9696/tcp, :::9696->9696/tcp prowlarr
Что странно, все мои сервисы на базе Docker работают (FlareSolverr, Lidarr, Prowlarr, Radarr, Deluge и Sonarr), но Docker говорит иначе… Я также могу получить к ним доступ через веб-адрес (например, https://radarr.localhost).
Проверив работающие сервисы, я получаю следующее…
● raspberrypi
State: running
Units: 408 loaded (incl. loaded aliases)
Jobs: 0 queued
Failed: 0 units
Since: Thu 1970-01-01 01:00:04 BST; 54 years 9 months ago
systemd: 252.30-1~deb12u2
CGroup: /
├─init.scope
│ └─1 /sbin/init splash
├─system.slice
│ ├─ModemManager.service
│ │ └─753 /usr/sbin/ModemManager
│ ├─NetworkManager.service
│ │ └─723 /usr/sbin/NetworkManager --no-daemon
│ ├─accounts-daemon.service
│ │ └─592 /usr/libexec/accounts-daemon
│ ├─avahi-daemon.service
│ │ ├─594 "avahi-daemon: running [raspberrypi.local]"
│ │ └─612 "avahi-daemon: chroot helper"
│ ├─bluetooth.service
│ │ └─595 /usr/libexec/bluetooth/bluetoothd
│ ├─containerd.service
│ │ ├─ 797 /usr/bin/containerd
│ │ ├─2576 /usr/bin/containerd-shim-runc-v2 -namespace moby -id 40bb1aaadd758a325591312f9b77f67da451927a8a3ec21a52cd278873b6b031 -address /run/containerd/containerd.sock
│ │ ├─2577 /usr/bin/containerd-shim-runc-v2 -namespace moby -id f6bbc753a9acee25b44bbb32bd8a79b10e082098125d46fa8efb4cc141e1d64e -address /run/containerd/containerd.sock
│ │ └─2578 /usr/bin/containerd-shim-runc-v2 -namespace moby -id a6536a9b4dfebfcd3eba9811f6811ec3c03b60843d3f5384a22eb59401e9a332 -address /run/containerd/containerd.sock
│ ├─cron.service
│ │ └─597 /usr/sbin/cron -f
│ ├─cups-browsed.service
│ │ └─1311 /usr/sbin/cups-browsed
│ ├─cups.service
│ │ └─786 /usr/sbin/cupsd -l
│ ├─dbus.service
│ │ └─598 /usr/bin/dbus-daemon --system --address=systemd: --nofork --nopidfile --systemd-activation --syslog-only
│ ├─docker-40bb1aaadd758a325591312f9b77f67da451927a8a3ec21a52cd278873b6b031.scope
│ │ ├─2697 /usr/bin/dumb-init -- /usr/local/bin/python -u /app/flaresolverr.py
│ │ ├─2967 /usr/local/bin/python -u /app/flaresolverr.py
│ │ └─4828 Xvfb :512257067 -screen 0 800x680x24
│ ├─docker-a6536a9b4dfebfcd3eba9811f6811ec3c03b60843d3f5384a22eb59401e9a332.scope
│ │ ├─2700 /package/admin/s6/command/s6-svscan -d4 -- /run/service
│ │ ├─3116 s6-supervise s6-linux-init-shutdownd
│ │ ├─3124 /package/admin/s6-linux-init/command/s6-linux-init-shutdownd -d3 -c /run/s6/basedir -g 3000 -C -B
│ │ ├─3316 s6-supervise svc-prowlarr
│ │ ├─3317 s6-supervise s6rc-fdholder
│ │ ├─3318 s6-supervise svc-cron
│ │ ├─3319 s6-supervise s6rc-oneshot-runner
│ │ ├─3345 /package/admin/s6/command/s6-ipcserverd -1 -- /package/admin/s6/command/s6-ipcserver-access -v0 -E -l0 -i data/rules -- /package/admin/s6/command/s6-sudod -t 30000 -- /package/admin/s6-rc/command/s6-rc-oneshot-run -l ../.. --
│ │ ├─3762 /app/prowlarr/bin/Prowlarr -nobrowser -data=/config
│ │ └─3763 busybox crond -f -S -l 5
│ ├─docker-f6bbc753a9acee25b44bbb32bd8a79b10e082098125d46fa8efb4cc141e1d64e.scope
│ │ ├─2703 /package/admin/s6/command/s6-svscan -d4 -- /run/service
│ │ ├─3113 s6-supervise s6-linux-init-shutdownd
│ │ ├─3123 /package/admin/s6-linux-init/command/s6-linux-init-shutdownd -d3 -c /run/s6/basedir -g 3000 -C -B
│ │ ├─3320 s6-supervise svc-lidarr
│ │ ├─3321 s6-supervise s6rc-fdholder
│ │ ├─3322 s6-supervise svc-cron
│ │ ├─3323 s6-supervise s6rc-oneshot-runner
│ │ ├─3344 /package/admin/s6/command/s6-ipcserverd -1 -- /package/admin/s6/command/s6-ipcserver-access -v0 -E -l0 -i data/rules -- /package/admin/s6/command/s6-sudod -t 30000 -- /package/admin/s6-rc/command/s6-rc-oneshot-run -l ../.. --
│ │ ├─4766 busybox crond -f -S -l 5
│ │ └─4767 /app/lidarr/bin/Lidarr -nobrowser -data=/config
│ ├─docker.service
│ │ ├─1328 /usr/bin/dockerd -H fd:// --containerd=/run/containerd/containerd.sock
│ │ ├─2172 /usr/bin/docker-proxy -proto tcp -host-ip 0.0.0.0 -host-port 8686 -container-ip 172.18.0.2 -container-port 8686
│ │ ├─2177 /usr/bin/docker-proxy -proto tcp -host-ip 0.0.0.0 -host-port 9696 -container-ip 172.18.0.3 -container-port 9696
│ │ ├─2193 /usr/bin/docker-proxy -proto tcp -host-ip :: -host-port 8686 -container-ip 172.18.0.2 -container-port 8686
│ │ ├─2194 /usr/bin/docker-proxy -proto tcp -host-ip :: -host-port 9696 -container-ip 172.18.0.3 -container-port 9696
│ │ ├─2215 /usr/bin/docker-proxy -proto tcp -host-ip 0.0.0.0 -host-port 8191 -container-ip 172.18.0.4 -container-port 8191
│ │ └─2228 /usr/bin/docker-proxy -proto tcp -host-ip :: -host-port 8191 -container-ip 172.18.0.4 -container-port 8191
│ ├─lightdm.service
│ │ └─804 /usr/sbin/lightdm
│ ├─nginx.service
│ │ ├─1373 "nginx: master process /usr/sbin/nginx -g daemon on; master_process on;"
│ │ ├─1374 "nginx: worker process"
│ │ ├─1375 "nginx: worker process"
│ │ ├─1376 "nginx: worker process"
│ │ └─1377 "nginx: worker process"
│ ├─php8.2-fpm.service
│ │ ├─ 787 "php-fpm: master process (/etc/php/8.2/fpm/php-fpm.conf)"
│ │ ├─1032 "php-fpm: pool www"
│ │ └─1033 "php-fpm: pool www"
│ ├─plexmediaserver.service
│ │ ├─1345 "/usr/lib/plexmediaserver/Plex Media Server"
│ │ ├─1711 "Plex Plug-in [com.plexapp.system]" /usr/lib/plexmediaserver/Resources/Plug-ins-af5eaea7a/Framework.bundle/Contents/Resources/Versions/2/Python/bootstrap.py --server-version 1.41.1.9057-af5eaea7a /usr/lib/plexmediaserver/Resources/Plug-ins-af5eaea7a/System.bundle
│ │ └─3907 "/usr/lib/plexmediaserver/Plex Tuner Service" /usr/lib/plexmediaserver/Resources/Tuner/Private /usr/lib/plexmediaserver/Resources/Tuner/Shared 1.41.1.9057-af5eaea7a 32600
│ ├─polkit.service
│ │ └─606 /usr/lib/polkit-1/polkitd --no-debug
│ ├─rtkit-daemon.service
│ │ └─1045 /usr/libexec/rtkit-daemon
│ ├─ssh.service
│ │ └─839 "sshd: /usr/sbin/sshd -D [listener] 0 of 10-100 startups"
│ ├─systemd-journald.service
│ │ └─270 /lib/systemd/systemd-journald
│ ├─systemd-logind.service
│ │ └─613 /lib/systemd/systemd-logind
│ ├─systemd-timesyncd.service
│ │ └─563 /lib/systemd/systemd-timesyncd
│ ├─systemd-udevd.service
│ │ └─udev
│ │ └─309 /lib/systemd/systemd-udevd
│ ├─triggerhappy.service
│ │ └─615 /usr/sbin/thd --triggers /etc/triggerhappy/triggers.d/ --socket /run/thd.socket --user nobody --deviceglob "/dev/input/event*"
│ ├─udisks2.service
│ │ └─617 /usr/libexec/udisks2/udisksd
│ ├─wayvnc-control.service
│ │ └─1516 python /usr/sbin/wayvnc-control.py
│ ├─wayvnc.service
│ │ ├─791 /bin/sh /usr/sbin/wayvnc-run.sh
│ │ └─817 wayvnc --render-cursor --detached --gpu --config /etc/wayvnc/config --socket /tmp/wayvnc/wayvncctl.sock
│ └─wpa_supplicant.service
│ └─727 /sbin/wpa_supplicant -u -s -O "DIR=/run/wpa_supplicant GROUP=netdev"
└─user.slice
└─user-1000.slice
├─session-2.scope
│ ├─ 963 lightdm --session-child 8 14
│ ├─ 1001 /usr/bin/wayfire
│ ├─ 1136 /usr/bin/ssh-agent /usr/bin/wayfire-pi
│ ├─ 1801 /bin/sh -c "wfrespawn wf-panel-pi"
│ ├─ 1806 /bin/sh /usr/bin/wfrespawn wf-panel-pi
│ ├─ 1807 /bin/sh -c "wfrespawn pcmanfm --desktop --profile LXDE-pi"
│ ├─ 1811 /bin/sh /usr/bin/wfrespawn pcmanfm --desktop --profile LXDE-pi
│ ├─ 1830 /usr/bin/python3 /usr/share/system-config-printer/applet.py
│ ├─ 1858 systemd-inhibit --what=handle-power-key gtk-nop
│ ├─ 1888 /usr/libexec/polkit-mate-authentication-agent-1
│ ├─ 1915 pcmanfm --desktop --profile LXDE-pi
│ ├─ 1918 gtk-nop
│ ├─ 1919 wf-panel-pi
│ ├─ 2769 /usr/lib/menu-cache/menu-cached /run/user/1000/menu-cached-:0
│ ├─17362 lxterminal
│ ├─17373 bash
│ ├─17501 sudo systemctl status
│ ├─17502 sudo systemctl status
│ └─17503 systemctl status
├─session-3.scope
│ ├─1359 /bin/login -f
│ └─1524 -bash
└─[email protected]
├─app.slice
│ ├─docker.service
│ │ ├─ 994 rootlesskit --state-dir=/run/user/1000/dockerd-rootless --net=slirp4netns --mtu=65520 --slirp4netns-sandbox=auto --slirp4netns-seccomp=auto --disable-host-loopback --port-driver=builtin --copy-up=/etc --copy-up=/run --propagation=rslave /usr/bin/dockerd-rootless.sh
│ │ ├─1073 /proc/self/exe --state-dir=/run/user/1000/dockerd-rootless --net=slirp4netns --mtu=65520 --slirp4netns-sandbox=auto --slirp4netns-seccomp=auto --disable-host-loopback --port-driver=builtin --copy-up=/etc --copy-up=/run --propagation=rslave /usr/bin/dockerd-rootless.sh
│ │ ├─1139 slirp4netns --mtu 65520 -r 3 --disable-host-loopback --enable-sandbox --enable-seccomp 1073 tap0
│ │ ├─1156 dockerd
│ │ ├─1420 containerd --config /run/user/1000/docker/containerd/containerd.toml
│ │ ├─2262 /usr/bin/rootlesskit-docker-proxy -proto tcp -host-ip 0.0.0.0 -host-port 8989 -container-ip 172.18.0.3 -container-port 8989
│ │ ├─2282 /usr/bin/rootlesskit-docker-proxy -proto tcp -host-ip 0.0.0.0 -host-port 7878 -container-ip 172.18.0.4 -container-port 7878
│ │ ├─2290 docker-proxy -container-ip 172.18.0.3 -container-port 8989 -host-ip 127.0.0.1 -host-port 8989 -proto tcp
│ │ ├─2291 docker-proxy -container-ip 172.18.0.4 -container-port 7878 -host-ip 127.0.0.1 -host-port 7878 -proto tcp
│ │ ├─2305 /usr/bin/rootlesskit-docker-proxy -proto tcp -host-ip :: -host-port 7878 -container-ip 172.18.0.4 -container-port 7878
│ │ ├─2310 /usr/bin/rootlesskit-docker-proxy -proto tcp -host-ip :: -host-port 8989 -container-ip 172.18.0.3 -container-port 8989
│ │ ├─2320 docker-proxy -container-ip 172.18.0.4 -container-port 7878 -host-ip ::1 -host-port 7878 -proto tcp
│ │ ├─2321 docker-proxy -container-ip 172.18.0.3 -container-port 8989 -host-ip ::1 -host-port 8989 -proto tcp
│ │ ├─2376 /usr/bin/rootlesskit-docker-proxy -proto tcp -host-ip 0.0.0.0 -host-port 6881 -container-ip 172.18.0.6 -container-port 6881
│ │ ├─2386 docker-proxy -container-ip 172.18.0.6 -container-port 6881 -host-ip 127.0.0.1 -host-port 6881 -proto tcp
│ │ ├─2395 /usr/bin/rootlesskit-docker-proxy -proto tcp -host-ip :: -host-port 6881 -container-ip 172.18.0.6 -container-port 6881
│ │ ├─2402 docker-proxy -container-ip 172.18.0.6 -container-port 6881 -host-ip ::1 -host-port 6881 -proto tcp
│ │ ├─2412 /usr/bin/rootlesskit-docker-proxy -proto udp -host-ip 0.0.0.0 -host-port 6881 -container-ip 172.18.0.6 -container-port 6881
│ │ ├─2419 docker-proxy -container-ip 172.18.0.6 -container-port 6881 -host-ip 127.0.0.1 -host-port 6881 -proto udp
│ │ ├─2429 /usr/bin/rootlesskit-docker-proxy -proto udp -host-ip :: -host-port 6881 -container-ip 172.18.0.6 -container-port 6881
│ │ ├─2437 docker-proxy -container-ip 172.18.0.6 -container-port 6881 -host-ip ::1 -host-port 6881 -proto udp
│ │ ├─2446 /usr/bin/rootlesskit-docker-proxy -proto tcp -host-ip 0.0.0.0 -host-port 8112 -container-ip 172.18.0.6 -container-port 8112
│ │ ├─2453 docker-proxy -container-ip 172.18.0.6 -container-port 8112 -host-ip 127.0.0.1 -host-port 8112 -proto tcp
│ │ ├─2462 /usr/bin/rootlesskit-docker-proxy -proto tcp -host-ip :: -host-port 8112 -container-ip 172.18.0.6 -container-port 8112
│ │ ├─2470 docker-proxy -container-ip 172.18.0.6 -container-port 8112 -host-ip ::1 -host-port 8112 -proto tcp
│ │ ├─2480 /usr/bin/rootlesskit-docker-proxy -proto tcp -host-ip 0.0.0.0 -host-port 58846 -container-ip 172.18.0.6 -container-port 58846
│ │ ├─2487 docker-proxy -container-ip 172.18.0.6 -container-port 58846 -host-ip 127.0.0.1 -host-port 58846 -proto tcp
│ │ ├─2496 /usr/bin/rootlesskit-docker-proxy -proto tcp -host-ip :: -host-port 58846 -container-ip 172.18.0.6 -container-port 58846
│ │ ├─2504 docker-proxy -container-ip 172.18.0.6 -container-port 58846 -host-ip ::1 -host-port 58846 -proto tcp
│ │ ├─2611 /usr/bin/containerd-shim-runc-v2 -namespace moby -id 291aa11bafd7972a8ecea7ddd9b6378b85cbc0857ed94a20402bf3905068c107 -address /run/user/1000/docker/containerd/containerd.sock
│ │ ├─2633 /usr/bin/containerd-shim-runc-v2 -namespace moby -id 871aecb85b1a0070445ed8f082718e1f3f26156a6a5f8a7689c0bb67f2ae7818 -address /run/user/1000/docker/containerd/containerd.sock
│ │ └─2758 /usr/bin/containerd-shim-runc-v2 -namespace moby -id 2e48d150d9723eab23973ee70a0abb13fb0e6f66b02a33ccb4d6eea9fa2bb210 -address /run/user/1000/docker/containerd/containerd.sock
│ ├─gnome-keyring-daemon.service
│ │ └─2547 /usr/bin/gnome-keyring-daemon --foreground --components=pkcs11,secrets --control-directory=/run/user/1000/keyring
│ └─xdg-desktop-portal-gtk.service
│ └─2261 /usr/libexec/xdg-desktop-portal-gtk
├─init.scope
│ ├─805 /lib/systemd/systemd --user
│ └─842 "(sd-pam)"
├─session.slice
│ ├─dbus.service
│ │ ├─1022 /usr/bin/dbus-daemon --session --address=systemd: --nofork --nopidfile --systemd-activation --syslog-only
│ │ └─2546 /usr/bin/gnome-keyring-daemon --start --foreground --components=secrets
│ ├─filter-chain.service
│ │ └─996 /usr/bin/pipewire -c filter-chain.conf
│ ├─gvfs-afc-volume-monitor.service
│ │ └─2757 /usr/libexec/gvfs-afc-volume-monitor
│ ├─gvfs-daemon.service
│ │ ├─2033 /usr/libexec/gvfsd
│ │ ├─2072 /usr/libexec/gvfsd-fuse /run/user/1000/gvfs -f
│ │ └─2897 /usr/libexec/gvfsd-trash --spawner :1.16 /org/gtk/gvfs/exec_spaw/0
│ ├─gvfs-goa-volume-monitor.service
│ │ └─2691 /usr/libexec/gvfs-goa-volume-monitor
│ ├─gvfs-gphoto2-volume-monitor.service
│ │ └─2573 /usr/libexec/gvfs-gphoto2-volume-monitor
│ ├─gvfs-mtp-volume-monitor.service
│ │ └─2843 /usr/libexec/gvfs-mtp-volume-monitor
│ ├─gvfs-udisks2-volume-monitor.service
│ │ └─2550 /usr/libexec/gvfs-udisks2-volume-monitor
│ ├─pipewire-pulse.service
│ │ └─1000 /usr/bin/pipewire-pulse
│ ├─pipewire.service
│ │ └─995 /usr/bin/pipewire
│ ├─wireplumber.service
│ │ └─998 /usr/bin/wireplumber
│ ├─xdg-desktop-portal.service
│ │ └─2175 /usr/libexec/xdg-desktop-portal
│ ├─xdg-document-portal.service
│ │ ├─2227 /usr/libexec/xdg-document-portal
│ │ └─2257 fusermount3 -o rw,nosuid,nodev,fsname=portal,auto_unmount,subtype=portal -- /run/user/1000/doc
│ └─xdg-permission-store.service
│ └─1283 /usr/libexec/xdg-permission-store
└─user.slice
├─docker-291aa11bafd7972a8ecea7ddd9b6378b85cbc0857ed94a20402bf3905068c107.scope
│ ├─2728 /package/admin/s6/command/s6-svscan -d4 -- /run/service
│ ├─3168 s6-supervise s6-linux-init-shutdownd
│ ├─3172 /package/admin/s6-linux-init/command/s6-linux-init-shutdownd -d3 -c /run/s6/basedir -g 3000 -C -B
│ ├─3423 s6-supervise svc-radarr
│ ├─3424 s6-supervise s6rc-fdholder
│ ├─3425 s6-supervise svc-cron
│ ├─3427 s6-supervise s6rc-oneshot-runner
│ ├─3456 /package/admin/s6/command/s6-ipcserverd -1 -- /package/admin/s6/command/s6-ipcserver-access -v0 -E -l0 -i data/rules -- /package/admin/s6/command/s6-sudod -t 30000 -- /package/admin/s6-rc/command/s6-rc-oneshot-run -l ../.. --
│ ├─4352 busybox crond -f -S -l 5
│ └─4356 /app/radarr/bin/Radarr -nobrowser -data=/config
├─docker-2e48d150d9723eab23973ee70a0abb13fb0e6f66b02a33ccb4d6eea9fa2bb210.scope
│ ├─2814 /package/admin/s6/command/s6-svscan -d4 -- /run/service
│ ├─3202 s6-supervise s6-linux-init-shutdownd
│ ├─3206 /package/admin/s6-linux-init/command/s6-linux-init-shutdownd -d3 -c /run/s6/basedir -g 3000 -C -B
│ ├─3467 s6-supervise svc-deluge-web
│ ├─3468 s6-supervise s6rc-fdholder
│ ├─3469 s6-supervise svc-cron
│ ├─3470 s6-supervise svc-deluged
│ ├─3471 s6-supervise s6rc-oneshot-runner
│ ├─3498 /package/admin/s6/command/s6-ipcserverd -1 -- /package/admin/s6/command/s6-ipcserver-access -v0 -E -l0 -i data/rules -- /package/admin/s6/command/s6-sudod -t 30000 -- /package/admin/s6-rc/command/s6-rc-oneshot-run -l ../.. --
│ ├─3820 busybox crond -f -S -l 5
│ ├─3821 /usr/bin/python3 /usr/bin/deluged -c /config -d --loglevel=info
│ └─4838 deluge-web
└─docker-871aecb85b1a0070445ed8f082718e1f3f26156a6a5f8a7689c0bb67f2ae7818.scope
├─2768 /package/admin/s6/command/s6-svscan -d4 -- /run/service
├─3183 s6-supervise s6-linux-init-shutdownd
├─3187 /package/admin/s6-linux-init/command/s6-linux-init-shutdownd -d3 -c /run/s6/basedir -g 3000 -C -B
├─3401 s6-supervise svc-sonarr
├─3402 s6-supervise s6rc-fdholder
├─3403 s6-supervise svc-cron
├─3407 s6-supervise s6rc-oneshot-runner
├─3451 /package/admin/s6/command/s6-ipcserverd -1 -- /package/admin/s6/command/s6-ipcserver-access -v0 -E -l0 -i data/rules -- /package/admin/s6/command/s6-sudod -t 30000 -- /package/admin/s6-rc/command/s6-rc-oneshot-run -l ../.. --
├─3864 busybox crond -f -S -l 5
└─3865 /app/sonarr/bin/Sonarr -nobrowser -data=/config
Когда я пытаюсь запустить свои контейнеры вручную, я получаю эту ошибку
Ошибка ответа от демона: драйвер не смог запрограммировать внешнюю доступность на конечной точке sonarr4 (3b8b24317ea7580854003dd6cb50adeeb342168d2af7875e70014e617b67b15b): не удалось привязать порт 0.0.0.0:8989/tcp: Ошибка при запуске прокси пользователя: слушать tcp4 0.0.0.0:8989: привязка: адрес уже используется
Это наводит меня на мысль, что у меня запущены две инстанции одновременно…
И мой docker-compose.yml
выглядит так…
version: "3"
services:
deluge:
container_name: deluge
image: lscr.io/linuxserver/deluge:latest
restart: unless-stopped
networks:
- my-network
environment:
- PUID=1000
- PGID=1000
- TZ=Europe/London
ports:
- 8112:8112
- 6881:6881
- 6881:6881/udp
- 58846:58846
volumes:
- /mnt/MediaServer/TBD/deluge:/downloads:rw
- /home/user/dockerStuff/deluge/config:/config:rw
sonarr4:
container_name: sonarr4
image: lscr.io/linuxserver/sonarr:latest
restart: unless-stopped
networks:
- my-network
environment:
- PUID=1000
- PGID=1000
- TZ=Europe/London
ports:
- 8989:8989
volumes:
- /etc/localtime:/etc/localtime:ro
- /home/user/dockerStuff/sonarr/config:/config:rw
- /mnt/MediaServer/TV:/TV:rw
- /mnt/MediaServer/TBD/deluge/complete:/downloads/complete:rw
radarr:
container_name: radarr
image: lscr.io/linuxserver/radarr:latest
restart: unless-stopped
networks:
- my-network
environment:
- PUID=1000
- PGID=1000
- TZ=Europe/London
ports:
- 7878:7878
volumes:
- /etc/localtime:/etc/localtime:ro
- /home/user/dockerStuff/radarr/config:/config:rw # config files
- /mnt/MediaServer/Movies:/movies:rw
- /mnt/MediaServer/TBD/deluge/complete:/downloads/complete:rw
lidarr:
image: lscr.io/linuxserver/lidarr:latest
container_name: lidarr
environment:
- PUID=1000
- PGID=1000
- TZ=Europe/London
- UMASK_SET=022
volumes:
- /etc/localtime:/etc/localtime:ro
- /home/user/dockerStuff/lidarr/config:/config:rw
- /mnt/MediaServer/Managed:/music/:rw
- /mnt/MediaServer/TBD/deluge/complete:/downloads/complete:rw
ports:
- 8686:8686
restart: unless-stopped
networks:
- my-network
flaresolverr:
image: ghcr.io/flaresolverr/flaresolverr:latest
container_name: flaresolverr
environment:
- LOG_LEVEL=info
- TZ=Europe/London
volumes:
- /etc/localtime:/etc/localtime:ro
- /home/user/dockerStuff/flaresolverr/config:/config:rw
ports:
- 8191:8191
restart: unless-stopped
networks:
- my-network
prowlarr:
image: lscr.io/linuxserver/prowlarr:latest
container_name: prowlarr
environment:
- PUID=1000
- PGID=1000
- TZ=Europe/London
volumes:
- /home/user/dockerStuff/prowlarr/config:/config:rw
ports:
- 9696:9696
restart: unless-stopped
networks:
- my-network
networks:
my-network:
driver: bridge
Если это поможет, я обычно оставляю Docker работать самостоятельно, однако, похоже, это случилось само по себе…
Что произошло? Может кто-то помочь мне разобраться в этом беспорядке, пожалуйста…?
Ответ или решение
Отчет о проблемах с настройкой Docker
Ваша проблема с контейнерами Docker кажется комплексной, и мы постараемся разобрать её по шагам. Судя по предоставленной информации, у вас есть несколько запущенных контейнеров, но вы получаете сообщение о конфликте портов при попытке запустить их вручную. Давайте разберёмся, что происходит.
Состояние контейнеров
Выполнив команду docker ps
, вы видите, что контейнеры FlareSolverr, Lidarr и Prowlarr запущены, и вы можете получить к ним доступ через веб-интерфейсы. Однако, когда вы пробуете запустить контейнер Sonarr4, вы получаете ошибку, указывающую на то, что порт 8989 уже занят:
Error starting userland proxy: listen tcp4 0.0.0.0:8989: bind: address already in use
Это сообщение указывает на то, что другой процесс или контейнер уже используют порт 8989 на хосте.
Анализ ошибок
-
Конфликт портов: Ошибка, связанна с тем, что Docker не может привязать порт 8989, так как он уже занят. Вам нужно выяснить, какой сервис или контейнер использует этот порт. Вы можете использовать следующую команду, чтобы определить процессы, использующие порт:
sudo lsof -i :8989
Если в результате команды вы увидите, что порт используется, вы сможете идентифицировать процесс и принять решение о том, что с ним делать (например, остановить его или изменить конфигурацию).
-
Существующие экземпляры: По вашему разъяснению видно, что у вас может быть несколько экземпляров Sonarr или какого-либо другого сервиса, который пытается использовать тот же порт. Убедитесь, что старые экземпляры правильно остановлены.
-
Логи контейнеров: Проверьте логи контейнеров, чтобы понять, что происходит. Вы можете использовать следующую команду для получения логов Sonarr:
docker logs sonarr4
Это может помочь понять, почему контейнер не запускается или если возникают ошибки при запуске.
Решение проблем
-
Определите конфликтующие процессы: Как указано выше, выясните, какие процессы используют порт 8989, и решите, что с ними делать.
-
Остановите ненужные контейнеры: Если вы обнаружите, что контейнер Sonarr уже запущен, вы можете остановить его:
docker stop sonarr4
-
Измените конфигурацию порта: Если вы не можете остановить процесс, который использует порт 8989, подумайте о том, чтобы изменить порт в файле
docker-compose.yml
для Sonarr:ports: - 8990:8989
После этого перезапустите контейнеры с помощью:
docker-compose up -d
Заключительные рекомендации
- Убедитесь, что ваши контейнеры правильно настроены и работают в пределах выделенных портов.
- Проверьте, нет ли конфигурационных ошибок в файле
docker-compose.yml
. - Если проблема не решается, попробуйте перезапустить Docker, что иногда помогает решить проблемы с зависшими процессами.
Если все шаги выполнены, но проблема продолжает возникать, возможно, стоит рассмотреть переустановку Docker или поднятие его с нуля в результате проблем в конфигурации или состоянии системы. Совсем не редкость, что проблемы возникают из-за программного конфликта или исчерпания ресурсов.
Основная проблема заключается в конфликте портов, и с помощью вышеописанных шагов вы сможете вычислить и устранить источник сложности.