Usuwałem juz wszystkie kontenery jakie mam, wszystkie wolumeny, wszystkie obrazy
#programowanie #docker
Wrzuc to w gpt
@Cybulion gówno znalazł. Wrzucam tutaj pytanie dopiero jak juz sam przegrzebie co mogłem
wydaje mi się, że problem leży w 'depends on' przy webui. dla testu bym się tego pozbył
ponadto sprawdź 'docker ps -a' (czy tam podman) czy nie wypluwa zatrzymanych kontenerów
@redve Dokładnie jak mówi @bprzem - ollama pewnie zależy od tego new.
@redve a jestes pewny, ze nie uzywasz? Jesteś w katalogu o nazwie Ollama, w docker-compose.yml masz 2 service: ollama_new oraz ten openwebui_new. Z tego co pamiętam, docker do nazw kontenerów domyślnie dorzuca oprócz nazwy serwisu dodatkowo katalog (nazwa projektu) w którym się docker-compose.yml znajduje. Dlatego odpalając całość masz:
ollama_openwebui_new_1 gdzie:
ollama -> nazwa projektu (nazwa katalogu z docker-compose.yml)
openwebui_new -> nazwa service z docker-compose.yml
1 -> pewnie kolejny "iterator" na kolejne uruchomione kontenery z danego image
Z podmana nie korzytałem, więc możliwe, że się mylę, ale zajrzałbym w dokumentację podmana jak on zarządza dokładnie nazwami kontenerów i jak obsluguje docker-compose. Bo wcale bym się nie zdziwił, że obsługiwałby te docker-compose właśnie na zasadzie, że ma konwencję nazewniczą service -> container i za jej pomocą próbuje sobie to zestawić, ale nie ma kontenerów/podów o danych nazwach
nie wiem kurwa o co chodzi, ale
version: '3.8'
services:
openWebUI:
image: ghcr.io/open-webui/open-webui:main
restart: always
ports:
- "3000:8080"
extra_hosts:
- "host.docker.internal:host-gateway"
volumes:
- open-webui-local:/app/backend/data
environment:
- WEBUI_AUTH=False
- OLLAMA_BASE_URL=ollama:11434
ollama:
image: ollama
ports:
- "11434:11434"
volumes:
- ollama-local:/root/.ollama
volumes:
ollama-local:
external: true
open-webui-local:
external: true
już działa
@redve wywaliles sekcje depends_on, czyli startujacy kontener open-webui nie będzie czekał na podniesienie kontenera z ollama. Jeśli odpalasz docker-compose, to ollama może się nie podnieść bo: może się np nie pobrać, uruchomić z błędem itd, ale openwebui będzie miał to gdzieś i się uruchomi, ale może nie działać poprawnie (z jakiegoś powodu w compose dorzucili go, czyli jakieś elementy są wykorzystywane przez open-webui).
Dobra już wiem: https://docker.io/ollama/ollama nie istnieje. 404.
Weź popraw url, bo ten jest nieprawidłowy. Zessaj obraz ollama/ollama:latest ręcznie i wtedy odpalaj + zmień compose.yml żeby nie pobierał z tego adresu tylko samo ollama/ollama:latest
@damw no dobra, ale wyjaśnienie jakieś? Obraz był tylko w domyślnym repo, a nie było go w docker.io? Ale jak? Przecież docker.io jest domyślny. Pls elaborate.
@vrkr bo chyba też wie
@Legendary_Weaponsmith bo teraz adres masz:
a nie https://docker.io
a na screenie opa widać: docker.io/ollama/ollama
docker.io robi redirecta na docker.com a nie hub.docker.com, wiec dalsza czesc patha laduje na stronie glownej dockera a tam raczej layer'ów/image'ów nie znajdziesz
@damw no i o to chodziło! teraz rozumiem, dzięki!
@redve protip: jeśli nie wiesz o co chodzi, to spróbuj pullować obrazy ręcznie ( ͡° ͜ʖ ͡°)
Bym Ci powiedział o co chodzi, ale ładnie się denerwujesz i potrzebujesz więcej, żeby nawyknąć xD
Zaloguj się aby komentować