Вопросы с тегами [docker-compose]

1

голосов
2

ответ
31

Просмотры

идиоматическая Makefile и аргументы команды

Контекст У меня есть Makefile для запуска докер-зованный сервис RUN = докер-Compose запустить $ (ARGS) --rm имя_службы .PHONY: оболочки оболочки: $ {RUN} / бен / ш .PHONY: сервер-сервер: $ (Eval ARGS = --service-порты) задача $ {RUN} Проблема сервер дополнительные аргументы (- сервис-порты), установленные для запуска контейнера. Просто жестко прописывать аргументы в RUN не будет работать, потому что оболочка будет публиковать порт, а также и не получится (с работоспособностью сервера). Вопрос Что идиоматический способ указать аргументы ARGS в зависимости от контекста? $ (Eval ARGS = - сервис-порты) работает, но есть «правильный путь»?
Maryan
1

голосов
2

ответ
135

Просмотры

Docker дизайн для нескольких приложений [закрыт]

Что такое хороший дизайн, когда у вас есть несколько приложений? Поэтому в основном я dockerized приложения среагировать и nodejs приложения. Так что моя идея состоит в том, чтобы иметь 3 Docker контейнеров - один для реакции приложения, один для nodejs бэкэнда и Nginx в качестве маршрутизатора. Любой вызов с / перенаправит реагировать приложение и все, что с / АНП маршрут к nodejs бэкенд. Кроме того, для среагировать приложения, в процесс разработки мы будем запускать приложение с началом НПМ запуска и во время развертывания мы будем иметь несколько шага сборки, где мы будем работать НУЮ сборку запуска и скопировать папку сборки на Nginx изображение. Я использую Docker Compose запустить их на моем местное время как разработчик, а также на серверах QA / этапе. Идея имея Nginx маршрутизатор должен был разрешить прокси-сервер для различных приложений из любого приложения. Таким образом, я хочу, чтобы поощрить команду следовать постное achitecture. Чтобы понять конструкцию, см ниже: DEV СРЕДЫ - -> "
bhb
1

голосов
0

ответ
86

Просмотры

Перенаправление портов из Докер-XXX создания письма: 443

У меня есть питон + uwsgi + Nginx приложение. Я могу запустить это приложение через этот докер-Compose файла: версия: «3.4» услуги: бэкенд: перезагрузка: всегда изображение: бэкенд: 0,1 depends_on: - дБ разоблачить: - 5001 томов: - share_vol_lab: / Главная / убунту / данные интерфейс: перезагрузка: всегда изображения: интерфейс: 1.1 depends_on: - порты серверные: - 443: 443 дБ: перезагрузка: всегда изображения: Postgres: 1.1 среда: выставить: - 5432 томов: - data_lab: Lib тома / VAR / / PostgreSQL / данных : data_lab: {} share_vol_lab: {} Все работает, как принято, что означает, что я могу получить доступ к приложению в URL: https: // хост-IP / логин Я хотел бы запустить мое приложение еще несколько раз на том же принимающий выступать в качестве различных сред. Я скопировал мой докер-Compose файл в другую папку, изменил внешний интерфейс порта от 443: 443 до 444: 443 для предотвращения порта числа конфликтов, в браузере: https: // хост-IP: 444 / логина и первую страницу (статический HTML) действительно успешно загружен. Когда я пытаюсь войти, запрос должен быть обратный прокси-сервер для службы бэкэнда от Nginx, но никакого ответа на все. вот Nginx конф: сервер {слушать 80; кодировка UTF-8; Местонахождение / {перепишет ^ https: // $ хоста $ REQUEST_URI? постоянный; }} {Сервер слушать 443 SSL; error_page 497 301 = 307 https: // $ хоста / логин; корень / USR / доли / Nginx / html; кодировка UTF-8; место ~ ^ / (скрипты * JS | стили | изображения.) {gzip_static на; истекает 1y; общественного add_header Cache-Control; add_header ETag ""; перерыв; } Местоположение / {try_files $ /index.html URI; } Местоположение / API / v1 {включают uwsgi_params; uwsgi_pass бэкенд: 5001; uwsgi_read_timeout 60-х годов; uwsgi_send_timeout 60-х годов; uwsgi_connect_timeout 60-х годов; }} И мой uwsgi.ini: [uwsgi] модуль = app.api: приложение процессы = 5 мастера = истинный сокет =: 5001 протокола = uwsgi ленивого-приложение = верно харакири = 30 хотело бы получить помощь от вас, ребят, спасибо !
ido
1

голосов
1

ответ
432

Просмотры

Общая логика построения с докер-Compose и многоступенчатых Dockerfiles

Я использую докер-компоновать с многоступенчатым Dockerfiles для создания и запуска несколько служб. Это работает, но «строить» часть каждого многоступенчатой ​​сборки в значительной степени скопировать и вставить между Dockerfile каждой службы. Я хочу, чтобы уменьшить от копирования и вставки / централизовать общую логику построения в одном месте. Чтение https://engineering.busbud.com/2017/05/21/going-further-docker-multi-stage-builds/ я мог бы создать локальный файл с общими шагами сборки и имею службу Docker файлы зависят от него, но я хочу, чтобы опыт разработки, чтобы быть простой докер-Compose вверх. Создание локальной сборки образа означает, что разработчик должен знать, чтобы запустить Docker сборки [common_build_image] первой, так что строить образ существует локально, а затем запустить докер составить до сборки и запуска всех услуг, которые зависят от него. Там Безразлично» отображаться быть способом включить Dockerfile в другую Dockerfile. ОТ-видимому, не поддерживает локальные пути. Есть ли способ добиться того, чего я хочу? Конечно, я могу использовать скрипт, чтобы связать все вместе, но это в основном то, что многоступенчатые сборки пытаются решить в первой очереди.
LegNeato
1

голосов
0

ответ
190

Просмотры

Игнорировать драйвер: cloudstor: АМС в Докер-compose.yml

Я хотел бы следующий драйвер и driver_opts быть проигнорировано при работе в определенной среде (в основном разработки): объемы: Foobar: имя: «{{.Service.Name}} - {. {Task.Slot}} - foobar- т»# AWS EBS только водитель: cloudstor: AWS driver_opts: изнанка: перемещаемый ebstype: размер gp2: 4 Если я бегу докер-компоновать вверх, используя тот же Докер-compose.yml файл в моей местной среде Dev, я получаю следующее сообщение: ОШИБКА: Volume {{.Service.Name}} - {{Task.Slot}.} - Foobar-т указывает несуществующий cloudstor драйвера: AWS я могу переопределить локально, если я переобъявить именованный объем Foobar в Докер-compose.override.yml , но я хотел бы также построить и запустить производственную среду на местном уровне без необходимости создавать новый файл сочинять.
willsquire
1

голосов
1

ответ
475

Просмотры

Why is consul health check returning an empty array?

We have a docker-compose.yml file: version: '3' services: consul: container_name: consul command: agent -dev -config-dir=/consul/config dns: 8.8.8.8 hostname: consul-docker image: docker-registry.mycompany.net/ap/consul-ent:0.9.2 ports: - "8500:8500" volumes: - ./consul/config/conf.json:/consul/config/conf.json # https://github.com/gliderlabs/registrator registrator: command: consul://consul:8500 container_name: registrator depends_on: - consul image: gliderlabs/registrator:latest restart: always volumes: - /var/run/docker.sock:/tmp/docker.sock myservice1: container_name: myservice1 image: docker-registry.mycompany.net/ap/myservice1/develop:latest ports: - "8080:8080" - "5000:5000" # more services below When I check the health status using consul v1 API by going to http://localhost:8500/v1/health/checks/myservice1 , it returns an empty array []. According to docker ps and the logs of myservice1, myservice1 is Ready. myservice1 shows green on http://localhost:8500/ui/#/dc1/services myservice1 is a dropwizard based java microservice. According to https://www.consul.io/api/health.html, sample response to $ curl https://consul.rocks/v1/health/service/my-service looks like: [ { "Node": { "ID": "40e4a748-2192-161a-0510-9bf59fe950b5", "Node": "foobar", "Address": "10.1.10.12", "Datacenter": "dc1", "TaggedAddresses": { "lan": "10.1.10.12", "wan": "10.1.10.12" }, "Meta": { "instance_type": "t2.medium" } }, "Service": { "ID": "redis", "Service": "redis", "Tags": ["primary"], "Address": "10.1.10.12", "Port": 8000 }, "Checks": [ { "Node": "foobar", "CheckID": "service:redis", "Name": "Service 'redis' check", "Status": "passing", "Notes": "", "Output": "", "ServiceID": "redis", "ServiceName": "redis", "ServiceTags": ["primary"] }, { "Node": "foobar", "CheckID": "serfHealth", "Name": "Serf Health Status", "Status": "passing", "Notes": "", "Output": "", "ServiceID": "", "ServiceName": "", "ServiceTags": [] } ] } ] According to registrator logs, it is seeing myservice1 fine and adding myservice1. Any ideas on why I am seeing [] response would be greatly appreciated?
user674669
1

голосов
0

ответ
46

Просмотры

Невозможно получить доступ к Docker частного реестра на gitlab

Я пытаюсь установить непрерывную интеграцию с gitlab и частным реестре Докер. Я следовал всему учебники, чтобы настроить его, мне удалось установить вкладку реестра слева в среде проекта, но когда я нажимаю на этой вкладке, gitlab приносит мне сразу ошибку 500. Я использую gitlab грузчика контейнер, частный реестр в другой контейнер. Я должен отредактировать файл gitlab.yml? Я думаю, что эта проблема вызвана сертификатом. здесь мои журналы расположены на: /var/log/gitlab/gitlab/production.log Errno :: ENOENT (Нет такого файла или каталога @ rb_sysopen - /certs/registry.key): Библиотека / json_web_token / rsa_token.rb: 20: в `чтения 'Библиотека / json_web_token / rsa_token.rb: 20: в` key_data' Библиотека / json_web_token / rsa_token.rb: 24: в `ключ 'Библиотека / json_web_token / rsa_token.rb: 28: в` public_key' Библиотека / json_web_token / rsa_token.rb: 33: в `ребенок» Библиотека / json_web_token / rsa_token.rb: 12: в `закодированных 'приложения / услуги / авториз / container_registry_authentication_service.rb: 31: в` full_access_token' приложение / модели / container_repository.rb: 13: в `реестра» приложение / модели / container_repository. гь: 7: в `клиента 'приложение / модели / container_repository.rb: 36: в` манифеста' приложение / модели / container_repository.rb: 41: в `TAGS' приложение / модели / container_repository.rb: 53: в` has_tags? ' приложение / контроллеры / проекты / регистрация / repositories_controller.rb: 48: в `блока (2 уровень) в ensure_root_container_repository«! приложение / контроллеры / проекты / регистрация / repositories_controller.rb: 47: в `водопроводной 'приложения / контроллеры / проекты / реестр / repositories_controller.rb: 47: в` блока в ensure_root_container_repository! приложение / контроллеры / проекты / регистрация / repositories_controller.rb: 44: в `крана» приложение / контроллеры / проекты / регистрация / repositories_controller.rb: 44: в `ensure_root_container_repository«! Библиотека / gitlab / i18n.rb: 47: в `with_locale 'Lib / gitlab / i18n.rb: 53: в` with_user_locale' приложение / контроллеры / application_controller.rb: 337: в `set_locale» Lib / gitlab / промежуточного слоя / многоголосных. RB: 93: в `вызов 'Библиотека / gitlab / request_profiler / middleware.rb: 14: в` называют' Библиотека / gitlab / промежуточного программного обеспечения / go.rb: 17: в `вызов» Библиотека / gitlab / etag_caching / middleware.rb: 11: в `называют 'LIB / gitlab / промежуточного программного обеспечения / read_only.rb: 30: в` называем' Библиотека / gitlab / request_context.rb: 18: в `вызов» Библиотека / gitlab / метрики / requests_rack_middleware.rb: 27: в ` называют»Спасибо за помощь мне, я застрял здесь в течение 1 месяца, (я новичок в докер и CI) Спасибо за вашу помощь, Grtz, Том
Thomas
1

голосов
0

ответ
96

Просмотры

Как проверить, если «команда» Докер-Compose была выполнена

Я добавил команду: Баш -c './wait-for-it.sh -t 4 -s PHP: 9000 - Баш run-ssh-on-php.sh' на мой Докер-compose.yml PHP: сборка : докер / PHP пользователя: "$ LOCAL_USER_ID: $ LOCAL_GROUP_ID" depends_on: - MySQL - RabbitMQ - почта - phantomjs - volumes_from данные: - данные порты: - "9000: 9000" окружающая среда: - команда SYMFONY_ENV: Баш -c»./wait -for-it.sh -t 4 -s PHP: 9000 - Баш run-ssh-on-php.sh», и кажется, что он не был выполнен вообще, как я могу проверить, если это было? Я попытался добавить «сенсорный», но некий-файл ничего не было создано
pablosd
1

голосов
1

ответ
551

Просмотры

Работа узла модулей с Докером-композом

Я строю набор подключенных услуг с использованием узлов Докер-Compose и не могу понять, что лучший способ справиться узлов модулей. Вот то, что должно произойти в идеальном мире: Полная установка node_modules в каждом контейнере происходит на начальной сборке с помощью модулей Dockerfile узла каждой службы кэшируется после начальной загрузки - то есть функциональность, так что НПМ устанавливается только когда package.json изменилось Существует ясно, способ установки NPM модулей - нужно ли это быть перестроены или есть более простой способ Прямо сейчас, когда я НПМ установить --save некоторый-модуль, а затем запустить докер-сборки или создания сообщения докер-компоновать до --build, я в конечном итоге с модулем фактически не установлен. Вот один из Dockerfiles от узла: последний # Создать приложение каталог WORKDIR / главный / приложение / API-шлюз зависимости # Intall приложения (и кэш, если пакет. JSON не изменяется) COPY package.json. RUN НОЙ установка # Bundle источник приложения COPY. , # Выполните команду запуска CMD [ "НАЯ", "DEV"] а вот версия докеров-compose.myl: услуги '3': пользователи-дб: container_name: пользователи-дб сборка: ./users-db порты: - '27018: 27017' Healthcheck: тест: выход 0' апи-шлюз: container_name: апи-шлюз сборки: ./api-gateway команда: НПМ запустить тома Dev: -»./api-gateway:/home/app/api- шлюз»- / главная / приложение / апи-шлюз / node_modules порты: - '3000: 3000' depends_on: - пользователи дб ссылки: - пользователи-дб
Lexi Smith
1

голосов
0

ответ
248

Просмотры

отдельные журналы контейнеров Docker для кота и приложения к AWS cloudwatch журналов

По умолчанию докер контейнер записывает все на стандартный вывод и, таким образом, в свою очередь, что можно было бы отправить на другой драйвер бревнами, поэтому я использую драйвер awslogs и его регистрации в AWS cloudwatch. (Https://docs.docker.com/config/containers/logging/awslogs/) Docker-Compose вход части выглядит, как показано ниже протоколирование: драйвер: опции 'awslogs': awslogs-область: '$ {REGION}' awslogs-группа : «- $ {XXXX}» awslogs-поток: «$ {XXXX} _xxx_aap Теперь, как это кот контейнер, который принимает мое приложение, и я получаю все, что записывается в стандартный вывод с помощью log4j конфигурации. Я хочу, чтобы иметь возможность сегрегации журналы кота и мой веб-приложение в различной awslog-группе. Так что мне было интересно, это их возможность делать это с помощью любой конфигурации в Докер-сочинить? или любым другим способом?
Ruchir Bharadwaj
1

голосов
1

ответ
422

Просмотры

Docker-Compose dynamically assigned ports with Consul

I'm running a number of Spring Boot applications (with Actuator) that use Consul for service discovery. If I start the applications using docker-compose, specifying both the Host and Container port for each of the containers then they register correctly with Consul and pretty quickly get marked as healthy. spring: application: name: myapp-A profiles: active: default cloud: consul: enabled: true host: consul port: 8500 discovery: prefer-ip-address: true healthCheckUrl: http://docker-host:${server.port}/health The host address values for "consul" and "docker-host" are passed in as environment variables in the docker-compose yml file on startup and in simplistic terms relate to the ip address of the docker host machine (I am running Consul on the same server). Please also note the use of the : ${server.port} variable to tell Consul how to connect back to the container to check its health (it just uses Actuator in this respect). This needs to be an externally accessible address and port so that Consul can check the services. This all works fine when I specify both the Host and Container port numbers in the docker-compose file for the containers. I have got to the point where I want to scale up a few of the containers, but when I try to execute the docker-compose up -d --scale myapp-A=5 command it tells me that it's not possible as the Host port has been specified. If I change the docker-compose yml file to only define the container port, and leave the Host port to be dynamically assigned it all then goes wrong as Consul (running externally) gets given the wrong URL to connect to and marks the containers as being unhealthy. The question I have is how do I tell Consul the dynamically and "externally" exposed port number to use from my app running inside the container? Is there some way to get the port number and pass that into the container at the point of creation? I'd like to try and crack this using Compose if I can (rather than using Swarm, or by running Consul in another container in the same composed set of containers).
Steve Davis
1

голосов
0

ответ
82

Просмотры

matching service names in docker-compose and those of kubenetes

У меня есть конфигурация в Google Cloud kubernetes, что я хотел бы подражать с Докером-композом для местного развития. Моя проблема заключается в том, что Докер-Compose создает имя службы с именем папки (purplecloud) плюс подчеркивание на передней панели и подчеркивание плюс «1» в конце, а kubernetes нет. Кроме того, kubenetes не позволяет мне использовать имена служб с «_». Это вызывает у меня дополнительный шаг изменения моего Nginx конфигурации, который направляет к этому микро-службе и другим microservices с той же проблемой имен. Есть ли способ, чтобы назвать службу в Докер-композе быть такой же, как kubernetes? Мой Google Cloud YAML включает apiVersion: v1 вида: метаданные службы: Имя: счет-сервис # совпадает с именем в nginx.conf для правила "местоположение / счет /", то есть HTTP: // счет-служба: 80 / спецификации: порты: - порт : 80 targetPort: 80 Тип: NodePort селектор: приложение: счет-стручок У меня есть Nginx стручок, который должен направлять на вышеуказанный счет микро-службу. Nginx направиться к этой службе с помощью HTTP: // счета-службы: 80 / My докер-Compose YAML включает в себя версию: «3,1» # необходимо указать, либо версия 1 будет использоваться услуги: счет: # DNS имя HTTP: // purplecloud_account_1: 80 /; строить: контекст: ./account dockerfile: account.Dockerfile изображения: account_get_jwt порты: - '4001: 80' - '42126: 42126' # хрома Debuger окружающей среды: - PORT = 80 У меня есть Nginx стручок, который нуждается в пути к вышесказанному счета микро-сервис. Nginx может направить на эту услугу с помощью HTTP: // purplecloud_account_1: 80 / Так что мне нужно поменять в Nginx конфигурацию, когда я иду между Докерами-композом и kubernetes.
grabbag
1

голосов
0

ответ
1.2k

Просмотры

Начиная с Redis Докер-композе и другой файл конфигурации: ошибка - Не может Chdir к «/ вар / Lib / Redis»: Нет такого файла или каталога

Мой докер-compose.yml файл: версия: "3.1" услуги: Redis: container_name: my_redis изображения: Redis: 4.0.8 альпийские порты: - "6379: 6379" объемы: - ./docker/data/:/data - ./docker/redis/redis.conf:/usr/local/etc/redis/redis.conf Когда я бегу Докер-сочинить до --build, это ошибка, я получаю: не могу Chdir к «/ вар / Lib / Redis': нет такого файла или каталога не Что здесь происходит? Кажется, единственный раз, когда это работает, если я не смонтировать конфигурационный файл, но мне нужен мой собственный конфигурационный файл.
AAA
1

голосов
0

ответ
412

Просмотры

Ошибка присоединения Peer к каналу, используя пример Hyperledger Ткани

Работа с примерами, приведенными композитором инструментов, что я получаю от следующей ссылке. https://github.com/hyperledger/composer-tools/tree/master/packages/fabric-dev-servers я смог запустить файл downloadFabric.sh и получить Docker изображения, что мне нужно, чтобы запустить сеть ткани, после того, как это, я запускаю файл startFabric.sh и через некоторое время, все работает отлично. Теперь я пытаюсь создать свою собственную сеть ткани и что я сделал изменения в YAML файлы, чтобы использовать мою конфигурацию, чтобы генерировать сертификаты, артефакты, и Докер контейнер изображения. Я успешно изменить файлы и запустить сеть. Затем я перехожу создать канал, а затем объединить все сверстник или, по крайней мере, анкерные сверстник канала, но делать это я получил сообщение об ошибке. Первый сверстников был в состоянии присоединиться к каналу, но вторые сверстникам не удается. Это ошибка, которую я получил. 2018-03-13 23: 13: 31,737 UTC [главная] главная -> ERRO 001 Не удается запустить пэра, потому что не может инициализации крипто, отсутствует папка /etc/hyperledger/fabric/users/[email protected]/msp Я не» знаю, что означает эта ошибка, но ищу ответ я нашел следующую статью с возможным решением. Не удается запустить пэра, потому что не может инициализировать крипто я пытался, но не повезло. На данный момент, я не знаю, что может быть истинной причиной этой ошибки. Если вы хотите, чтобы повторить эту проблему просто загрузите следующий репозиторий и запустить 2 файлов. https://github.com/osvaldovega/blockchain-fabric downloadFabric.sh startFabric.sh startFabric.sh это файл, который я могу настроить, чтобы сделать все это для меня, и тогда я не должен выполнять команды вручную. Если вы хотите, вы можете проверить startFabric. ш скрипт и посмотреть, что функции выполняют. Первая команда, которую я выполняю, чтобы присоединиться к первым сверстникам это. Докер Exec -e CORE_PEER_ADDRESS = peer0.portal.example.com: 7051 -е CORE_PEER_LOCALMSPID = -е CORE_PEER_TLS_ROOTCERT_FILE 'PortalMSP' = / и т.д. / hyperledger / ткань / TLS / ca.crt -e CORE_PEER_MSPCONFIGPATH = / и т.д. / hyperledger / ткань / пользователей /[email protected]/msp peer0.portal.example.com сверстников канала присоединиться -b composerchannel.block Эта команда работает отлично, однако, когда я пытаюсь присоединиться второй пэра для второго члена, когда я получил ошибку. Команда очень похожа. Докер Exec -e CORE_PEER_ADDRESS = peer0.manufacture.example.com: 7051 -е CORE_PEER_LOCALMSPID = -е CORE_PEER_TLS_ROOTCERT_FILE 'ManufactureMSP' = / и т.д. / hyperledger / ткань / TLS / ca.crt -e CORE_PEER_MSPCONFIGPATH = / и т.д. / hyperledger / ткань / пользователей / Admin @ производство. example.com/msp peer0.portal.example.com сверстники канал присоединиться к -b composerchannel.block Я знаю, что партнер в этом случае должен быть peer0.manufacture.example.com однако, если я могу изменить его на это всмотреться сообщение об ошибке. 2018-03-14 16: 29: 50,122 UTC [MSP] GetLocalMSP -> Debu 001 Возвращение существующего локального MSP 2018-03-14 16: 29: 50,122 UTC [MSP] GetDefaultSigningIdentity -> Debu 002 Получение идентичности подписи по умолчанию 2018-03- 14 16: 29: 50,124 UTC [channelCmd] InitCmdFactory -> INFO 003 индоссант и подключение инициализируется заказчик Ошибка: генезис блок файл не найден открытым composerchannel.block: нет такого файла или каталога Но если я использую пир peer0.portal.example.com который является равноправной, что я использовал, чтобы создать канал, я получаю эту первоначальную ошибку. 2018-03-14 16: 32: 08,995 UTC [главная] главная -> ERRO 001 Не удается запустить пэра, потому что не может инициализации крипто,
Osvaldo Vega
1

голосов
1

ответ
895

Просмотры

Стойкие хранения: Как смонтировать каталог в Kubernetes?

Я понимаю, что в Kubernetes вы не хотите, чтобы «привязать» стручок к хозяину, но в некоторых случаях вам может понадобиться. В моем конкретном случае, у меня есть БД, который живет на blockstorage, которая крепится к определенному хосту. То, что я пытаюсь сделать с Kubernetes является эквивалентом Bind-горе в Докер. Я хочу, чтобы указать каталог на хосте, что мне нужно, установленный в стручках, похожее на это: /mnt/BTC_2:/root/.bitcoin:rw Как указать место, где я хочу, чтобы мое постоянное хранение, чтобы быть на узел / хост? Будет ли это объем hostPath как следующие: volumeMounts: - mountPath: /root/.bitcoin Название: объемы испытаний объем: - название: тест-объем hostPath: # каталог для размещения на пути хоста: / шоссе / BTC_2
relik
1

голосов
0

ответ
28

Просмотры

Маршрут конкретных докер Интернет от конкретного интерфейса

У меня есть некоторые Docker контейнеры и сетевые интерфейсы. Как следующее изображение: Каждый интерфейс имеет один статический публичный интернет IP и Docker контейнер имеет частный мост сети (подсети: 172.17.0.0.0 / 24 и шлюз: 17.17.0.1) В настоящее время я прошу к Интернету от каждого из контейнеров, запроса разгром с интерфейсом 1 (xxx.xxx.xxx.1) проблема: как я могу маршрут, как это: контейнер запроса 1 посыла от Interface1 (IP: xxx.xxx.xxx.1) запрос на отправку контейнера 2 из interface2 (IP: ххх. xxx.xxx.2) контейнер 3 отправить запрос от interface3 (IP: xxx.xxx.xxx.3) контейнер 4 отправить запрос от interface4 (IP: xxx.xxx.xxx.4)
Amir Mohsen
1

голосов
1

ответ
471

Просмотры

Невозможно создать контейнер для hyperledger служебных окон 10

ком (99b374fc4dc75a62ccdf3b1e5e99c87996941547e67da0adc45958f20d464501): Ошибка при запуске прокси пользовательские программы: MkDir /port/tcp:0.0.0.0:9053:tcp:172.18.0.4:7053: ошибка ввода / вывода ОШИБКА: Встречающиеся ошибки при воспитании проекта. Я пытался удалить контейнеры с помощью докер-компоновать -f Докер-cli.yaml-создания сообщения вниз докер-компоновать -f докер-Compose-cli.yaml остановку, но ничего worked.Do вы знаете, почему? Кроме того, я думаю, когда я запускаю команду вверх создает контейнеры, но услуги, вероятно, не работает. Ты знаешь почему? Кроме того, я думаю, когда я запускаю команду вверх создает контейнеры, но услуги, вероятно, не работает. Ты знаешь почему? Кроме того, я думаю, когда я запускаю команду вверх создает контейнеры, но услуги, вероятно, не работает.
1

голосов
0

ответ
256

Просмотры

GET HTTP: // Серверные / API / страны нетто :: ERR_NAME_NOT_RESOLVED

$ {MYSQL_USER} MYSQL_PASSWORD: $ {MYSQL_PASSWORD} PHPMyAdmin: Изображение: PHPMyAdmin / PHPMyAdmin: край-4,7 container_name: PHPMYADMIN сети: - порты minn_net: - 8080: 80 ссылки: - БД во внешнем интерфейсе: сборки: во внешнем интерфейсе-угловых container_name: во внешнем интерфейсе сети: - minn_net ссылки: - бэкенд # Я добавил ссылки в качестве дополнительно: может быть внешний интерфейс распознает серверные порты: - 88:80 тома: - ./frontend-angular/frontend2/dist:/var/www/frontend - ./frontend- угловой / CONF / грузчик / default.conf: /etc/nginx/conf.d/default.conf - ./frontend-angular/logs/nginx/:/var/log/nginx конфиг Nginx для сервера бэкэнда {слушать 80 ; ## слушать ipv4; эта строка по умолчанию и подразумеваемой слушать [::]: 80 по умолчанию ipv6only = о; ## слушать ipv6 корень / вар / WWW / HTML / общественности; Индекс index.php; # Сделать сайт доступным из HTTP: // локальный / server_name _; # Отключить SendFile согласно https://docs.vagrantup.com/v2/synced-folders/virtualbox.html SendFile выкл; # Добавить стандартный вывод каротаж error_log / DEV / стандартный вывод информации; access_log / DEV / стандартный вывод; # Добавлена ​​опция для X-вперед для (реальный IP, когда за УДР) #real_ip_header X-Forwarded-For; #set_real_ip_from 172.16.0.0/12; Местонахождение / {# Match хоста, используя имя хоста, если вы хотите #if ($ http_origin ~ * (HTTPS: //.* \ .tarunlalwani \ .com (?: [0-9] +) $)) {# множество $ CORS "1"; #} Набор $ CORS "1"; # OPTIONS указывает на запрос предварительного полета CORS, если ($ REQUEST_METHOD = 'Options' ) {Набор $ CORS "$ {CORS} о"; } # OPTIONS (перед полетом) запрос от разрешенной области # CORS. возвращать ответ непосредственно, если ($ Корс = "1о") {add_header 'Access-Control-Allow-Origin' '$ http_origin' всегда; add_header 'Access-Control-Allow-Methods' 'GET, POST, OPTIONS, PUT, DELETE, PATCH' всегда; 'Access-Control-Allow-Credentials' add_header 'истинные' всегда; add_header 'Access-Control-Allow-Headers' 'Origin, Content-Type, Accept, Ланг, Authorization' всегда; add_header Content-Length 0; add_header Content-Type текст / равнина; вернуться 204; } Add_header ' Access-Control-Allow-Headers' 'Content-Type, Authorization, Lang'; # Add_header 'Access-Control-Allow-Headers' '*'; add_header 'Access-Control-Allow-Methods' 'POST, GET, PUT, DELETE, OPTIONS'; add_header 'Access-Control-Allow-Origin' '*'; try_files $ /index.php$is_args$args URI; } Место ~ * \. (JPG | JPEG | GIF | CSS | PNG | JS | ICO | HTML | ВФ | Уофф | TTF) $ {add_header 'Access-Control-Allow-Headers' 'Content-Type, Authorization, Lang' ; #add_header 'Access-Control-Allow-Headers' '*'; add_header 'Access-Control-Allow-Methods' 'POST, GET, PUT, DELETE, OPTIONS'; add_header 'Access-Control-Allow-Origin' '*'; если (-f $ REQUEST_FILENAME) {истекает 30d; access_log выкл; }} Место ~ \ .php $ {add_header 'Access-Control-Allow-Headers' 'Content-Type, Authorization, Lang'; #add_header 'Access-Control-Allow-Headers' '*'; add_header 'Access-Control-Allow-Methods' 'POST, GET, PUT, DELETE, OPTIONS'; add_header 'Access-Control-Allow-Origin' '*'; fastcgi_pass Unix: /var/run/php-fpm.sock; fastcgi_param SCRIPT_FILENAME $ document_root $ fastcgi_script_name; включают в себя fastcgi_params; }} Угловая служба, которая вызывает импорт бэкэнда {инъекционные} от «@ угловое / ядро»; импорт {HttpClient, HttpErrorResponse, HttpHeaders} от ' @ Угловое / общие / HTTP '; // импорт {HttpClientModule} от '@ угловой / общий / HTTP'; // Grab все с импортом 'rxjs / Rx'; импорт {} Наблюдаемые из 'rxjs / Наблюдаемые'; 'Rxjs / добавить / наблюдаемый / бросок' импорта; импорт {} наблюдатель от 'rxjs / наблюдателя'; 'Rxjs / добавить / оператор / сделать' импорт; 'Rxjs / добавить / оператор / карты' импорта; 'Rxjs / добавить / оператор / поймать' импорта; импорт *, как _ от 'lodash'; импорт {ICountry} из @ приложения / общие / интерфейсы '; @Injectable () экспорт класса DataService {BaseUrl = 'HTTP: // бэкенд / апи'; // не работает // BaseUrl = 'http://172.18.0.4/api'; // он отлично работает конструктор (частный Http: HttpClient) {} // частное httpheadersGet = новые HttpHeaders () набор ( "Access-Control-Allow-Origin", «HTTP: //. Локальный: 15-1 ~ растянуть RUN установить -е \ && APT-получить обновление \ && APT-получить установку --no-установка рекомендую --no-установить--y предлагает gnupg1 склонных-транспортные HTTPS-CA-сертификаты \ && \ NGINX_GPGKEY = 573BFD6B3D8FBC641079A6ABABF5BD827BD9BF62; \ Нашел = ''; \ Для сервера \ ha.pool.sks-keyservers.net \ HKP: //keyserver.ubuntu.com: 80 \ HKP: //p80.pool.sks-keyservers.net: 80 \ pgp.mit.edu \; сделать \ эхо "Fetching GPG ключ $ NGINX_GPGKEY от $ сервера"; \ Склонного ключ наречи --keyserver "$ Сервер" --keyserver-параметры тайм-аут = 10 --recv-ключей "$ NGINX_GPGKEY" && нашел = да && перерыв; \ сделанный; \ Тест -z "$ найдено" && эхо> & 2 "Ошибка: Не удалось получить GPG ключ $ NGINX_GPGKEY" && выход 1; \ APT-получить удалить --purge --auto-удалить -y gnupg1 && гт -rf / вар / Библиотека / кв / списки / * \ && dpkgArch = "$ (DPKG --print-архитектуры)" \ && nginxPackages =» \ Nginx = $ {NGINX_VERSION} \ Nginx-модуля XSLT = $ {NGINX_VERSION} \ Nginx-модуль-GeoIP = $ {NGINX_VERSION} \ Nginx-модуль-изображения фильтр = $ {NGINX_VERSION} \ Nginx-модуль-NJS = $ {NJS_VERSION} \ "\ && случай "$ dpkgArch" в \ amd64 | i386) \ # арки официально построен вверх по течению эхо "Деб https://nginx.org/packages/mainline/debian/ простирания Nginx" >> / и т.д. / кв / sources.list.d / nginx.list \ && APT-получить обновление \ ;; \ *) \ # Мы на архитектуре вверх по течению официально не строить для # пусть» (\ CD "$ TEMPDIR" \ && DEB_BUILD_OPTIONS = "NOCHECK параллельно = $ (NPROC)" \ APT-получить источник --compile $ nginxPackages \) \ # мы не удаляем APT списков здесь, потому что они получают повторно загружены и удалены позже \ # сброс «ручной» список APT-Mark, так что «чистка --auto-удалить» удалит все зависимостей для сборки # (что делается после того, как мы устанавливаем встроенные пакеты, поэтому мы не должны перезакачают никаких дублирующих зависимости) && склонный знак showmanual | xargs APT-знак авто> / DEV / нуль \ && {[-z "$ savedAptMark"] || склонный знак ручной $ savedAptMark; } \ \ # Создать временный локальный APT репозиторий для установки (так что разрешение зависимостей могут быть обработаны с помощью APT, И APT-получить -o Приобретать :: GzipIndexes = ложное обновление \ ;; \ ESAC \ \ && APT-получить установку --no-установки рекомендует --no-установить-предлагает -y \ $ nginxPackages \ Gettext база \ && APT-получить удалить --purge --auto-удалить -y apt- транспортно-HTTPS CA-сертификаты && ет -rf / вар / Библиотека / кв / списки / * /etc/apt/sources.list.d/nginx.list \ \ # если у нас есть остатки от здания, давайте очистить их (в том числе дополнительным , ненужные сборки Deps) &&, если [-n "$ TEMPDIR"]; то \ склонная-прибудет продувка -y --auto-удалить \ && ет -rf "$ TEMPDIR" /etc/apt/sources.list.d/temp.list; \ Ц # вперед запрос об ошибках и журналы в докер журнала коллектора RUN пер -sf / DEV / STDOUT /var/log/nginx/access.log \ &&
Amine Jallouli
1

голосов
2

ответ
401

Просмотры

Can't connect to my Elasticsearch instance: NoNodeAvailableException

Can't connect to my Elasticsearch started with: docker-compose up Running command: curl -XGET http://localhost:9200/_nodes/http?pretty Output: { "cluster_name" : "elasticsearch", "nodes" : { "qD18rHzhQaexExUw5sBgXg" : { "name" : "Scanner", "transport_address" : "172.19.0.3:9300", "host" : "172.19.0.3", "ip" : "172.19.0.3", "version" : "6.2.3", "build" : "fcbb46d", "http_address" : "172.19.0.3:9200", "http" : { "bound_address" : [ "0.0.0.0:9200" ], "publish_address" : "172.19.0.3:9200", "max_content_length_in_bytes" : 104857600 } } } } Connect with transport client: public Client client() throws Exception { Settings settings = Settings.builder() .put("spring.data.elasticsearch.cluster-nodes", "localhost:9300") .build(); TransportClient client = TransportClient.builder() .settings(settings) .build() .addTransportAddress(new InetSocketTransportAddress(InetAddress.getByName("localhost"), 9300)); return client; } Get error: Caused by: NoNodeAvailableException[None of the configured nodes are available: [{#transport#-1}{localhost}{127.0.0.1:9300}]] at org.elasticsearch.client.transport.TransportClientNodesService.ensureNodesAreAvailable(TransportClientNodesService.java:326) at org.elasticsearch.client.transport.TransportClientNodesService.execute(TransportClientNodesService.java:223) docker-compose.yml services: elasticsearch: image: elasticsearch ports: - '9200:9200' - '9300:9300' kibana: image: kibana ports: - '5601:5601' environment: - ELASTICSEARCH_URL=http://elasticsearch:9200 Dockerfile FROM elasticsearch, kibana EXPOSE 9200 EXPOSE 9300 (running a local installed Elasticsearch without Docker it works!) What am I doing wrong? Any idea how to fix it?
powder366
0

голосов
1

ответ
60

Просмотры

Запуск задачи того же даг на разных серверах

Мне нужно выполнить следующую DAG - даг = DAG ( 'dummy_for_testing', default_args = default_args, schedule_interval = None) t1 = BashOperator (TASK_ID = 'print_date', bash_command = 'дата', даг = даг) t2 = BashOperator (TASK_ID = 'print_host', bash_command = 'имя хоста', очереди = 'druid_queue', даг = DAG) t3 = BashOperator (TASK_ID = 'print_directory', bash_command = 'PWD', даг = DAG) t3.set_upstream (t2) t2.set_upstream ( t1), где t1 и t3 работает на сервере а и t2 работает на сервере в (очереди = druid_queue). Я в настоящее время использую puckel / докер-потока воздуха для создания воздушного потока. Файлы YML для сервера выглядит следующим образом: Server1 версии: '2.1' услуги: Redis: IMAGE: 'Redis: 3.2.7' порты: - команда "10.0.11.4:6999:6379": воздушный поток @ Postgres: 5432 / воздушный поток переменной сервера 2 выглядит как broker_url = Redis: //10.0.11.4: 6999/1 result_backend = дб + PostgreSQL: // воздушный поток: [email protected]: 5434 / воздуха Есть ли что-то неправильно с моими конфигурациями. когда я бегу даг от веб-сервера на сервере А ГПДР застрял: Бревна захватили в планировщик сервера Контейнер: [2019-04-12 14: 42: 35184] {{}} jobs.py:1215 INFO - Установка задач в последующие очереди состояние: [2019-04-12 14: 42: 35194] {{jobs.py:1299}} ИНФО - Настройка следующие задачи 1 очереди состояние: [2019-04-12 14:42: 35194] {{jobs.py:1341}} ИНФО - Отправка ( 'dummy_for_testing', '' print_date, datetime.datetime (2019, 4, 12, 14, 42, 33, 552786, tzinfo =), 1) с исполнителем приоритет 3 и очереди по умолчанию [2019-04-12 14: 42: 35194] {{base_executor.py:56}} ИНФО - Добавление в очередь: воздушный поток прогон dummy_for_testing print_date 2019-04-12T14: 42: 33,552786 + 00: 00 --local -sd /usr/local/airflow/dags/dag_test.py [2019-04-12 14: 42: 35,199] {{celery_executor. р: 83}} ИНФО - [сельдерей] массовое обслуживание ( 'dummy_for_testing', 'print_date', datetime.datetime (2019, 4, 12, 14, 42, 33, 552786, tzinfo =), 1) через сельдерей, очередь по умолчанию = [2019-04-12 14: 42: 37152] {{jobs.py:1559}} INFO - Сбор ДАГ синтаксического анализа результатов [2019-04-12 14: 42: 39154] {{}} jobs.py:1559 INFO - Заготовка DAG синтаксического анализа результаты [2019-04-12 14: 42: 40610] {{sqlalchemy.py:79}} ПРЕДУПРЕЖДЕНИЕ - подключение к БД недействительным. Воссоединение ... [2019-04-12 14: 42: 41,156] {{}} jobs.py:1559 INFO - Сбор DAG разбор результатов [2019-04-12 14: 42: 41179] {{jobs.py:1106 }} ИНФО - 1 задачи вверх для выполнения: [2019-04-12 14: 42: +41182] {{jobs.py:
anarchy
1

голосов
0

ответ
534

Просмотры

Не удалось выполнить скрипт докер-компоновать в окнах 10

Когда я исполняю докер-компоновать -f Докер-compose.yml в окнах 10, в мерзавца MING64, в Powershell, а также в получении командной строки ниже вопрос может ли один помочь мне в этом. $ Докер-компоновать -f Докер-compose.yml до Начиная common_configserver_1 ... сделано Начиная common_configserver_1 ... сделано Запуск common_licensingservice_1 ... сделал [9624] Не удалось выполнить скрипт докер-компоновать Traceback (самый последний вызов последнего): Файл " докер-Compose "строка 6, в файле "сочинить \ кли \ main.py", строка 71, в главном файле "сочинить \ кли \ main.py", строка 127, в perform_command Файл" сочинить \ кли \ main.py », строка 1065, в вверх Файл "сочинить \ кли \ log_printer.py", строка 87, в перспективе File "составляют \ кли \ log_printer.py", строка 245, в consume_queue Файл "сочинить \ кли \ log_printer.py", линия 160, в tail_container_logs Файл "сочинить \ utils.py", строка 61, в split_buffer Файл "сочинить \ utils.py", строка 37, в stream_as_text Файл "сайт-пакеты \ докер \ Drivers \ socket.py", строка 73, в frames_iter Файл "сайт-пакеты \ докер \ Utils \ socket.py", строка 60, в next_frame_size файлов "сайта-пакеты \ докер \ Utils \ socket.py", строка 45, в read_exactly Файл «сайт-пакеты \ докер \ Utils \ socket.py», строка 32, в считывающей OSError: [Errno 9] дескриптор файла Bad Прикрепление к common_database_1, common_configserver_1, common_licensingservice_1 Ниже моему докеру-compose.yml содержимого файла. версия: '3.6' услуги: configserver: Изображение: johncarnell / TMX-confsvr: chapter3 порты: - "8888: 8888" окружающая среда: ENCRYPT_KEY: база данных "IMSYMMETRIC": изображение: Postgres: 9.5 порты: - "5432: 5432" среда: POSTGRES_USER: "Postgres" POSTGRES_PASSWORD: "p0stgr @ s" POSTGRES_DB: "eagle_eye_local" licensingservice: Изображение: johncarnell / TMX-licensingservice: Chapter3 порты: - «8080 : 8080" окружающая среда: ПРОФИЛЬ: "по умолчанию" CONFIGSERVER_URI: "HTTP: // configserver: 8888" CONFIGSERVER_PORT: "8888" DATABASESERVER_PORT: "5432" ENCRYPT_KEY: "IMSYMMETRIC" Вот мой докер информацию о версии. Клиент: Версия: 18.03.0-в.п. версия API: 1,37 Go версия: go1.9.4 Git совершить: 0520e24 Built: ср 21 марта 23:06:28 +2018 OS / Arch: окна / amd64 Experimental: ложные Orchestrator: роем Сервер: Двигатель :
chandiprasad
1

голосов
0

ответ
398

Просмотры

Спринг загрузки подключиться к докер службы MongoDB

мое приложение загрузки пружины, соединенное с Монго дб. вот конфиги: набор имя spring.mongodb.embedded.storage.repl = Монго spring.data.mongodb.host = Монго spring.data.mongodb.port = 27017 это работает отлично, но я хочу, чтобы создать Монго реплик с помощью Докер сервис, как этот: сервис Docker создать --name монго --replicas = 3 монго вот мой монго служба 53cf3b73a510 монго: последние "Докер-EntryPoint ..." 23 секунд назад до 23 секунд 27017 / TCP mongo.3.i5yvbe0mo0d2x83j2xf9ubvnv 54c9a5dbb93a монго: последняя "докер-EntryPoint ..." 24 секунд назад до 23 секунд 27017 / TCP mongo.1.rlqtw055adklfr4jqn8uete94 a6b78191b0e3 монго: последние "докер-EntryPoint ..." 24 секунд назад до 23 секунд 27017 / TCP mongo.2 , 52ha34l414k1k8xgndkkzm25m Таким образом, после этого мое подключение к MongoDB не работает. Я не хочу использовать IP-адрес. Я использую Докер-Compose и Докер сеть. https://github.com/armdev/docker-mongo-service/blob/master/docker-compose.yml Это также не работает org.mongodb.driver.cluster: Исключение в потоке монитора при подключении к серверу mongo.2 : 27017 spring.data.mongodb.uri = MongoDB: //mongo.1: 27017, mongo.2: 27017 / guruDB replicaSet = MC
Armen Arzumanyan
1

голосов
0

ответ
428

Просмотры

Пачка с Докером-композом устанавливает камни с нуля

Я пытаюсь пачка кэша установить на Докер строить. Я пытался рекомендации от нескольких сообщений в блоге, и я оказался в чем-то вроде этого: Dockerfile: ОТ рубина: 2.5.0-альпийской обновление RUN APK && APK добавить встроенный базовый PostGreSQL-DEV nodejs GIT tzdata ENV APP_HOME / panabus-апи RUN MkDir $ APP_HOME WORKDIR $ APP_HOME COPY Gemfile Gemfile.lock ./ ENV BUNDLE_PATH / камни ENV GEM_PATH / камни ENV GEM_HOME / камни RUN расслоение проверка || расслоение установки COPY. $ APP_HOME ENV RAILS_ENV = производственный цикл расслоение Exec грабли RAILS_ENV = производственные активы: прекомпиляция apipie: кэш LABEL Сопровождающего = "Харя Каррерас Перес" CMD расслоение EXEC пумы -C конфига / puma.rb докер-compose.yml версия: услуги '3': объемы BusyBox:: коробка: изображение - gem_cache: / камни Postgres: изображения: Postgres: 10,3-альпийские порты: - 5432: 5432 объемы: - Postgres: вар / Библиотека рестарта / / PostgreSQL / данные: всегда веб: Сложение:. Изображение: panabus-апи-веб-команда: расслоение EXEC пуму -C конфиг / puma.rb -p 3000 depends_on: - Postgres - коробки тома: -.: / panabus-апи - gem_cache: / драгоценные камни порты: - "3000: 3000" перезагрузки: всегда среды: - RAILS_ENV = TTY развития: истинное stdin_open: истинная настройка: сборка:. depends_on: - Postgres - коробка среды: - объемы RAILS_ENV = развитие: -:. / panabus-апи - gem_cache: / камни команды: "Bin / Рельсы дб: создать БД: мигрировать" тома: Postgres: gem_cache: Это не обновляется драгоценные камни, если Gemfile не изменилась. К сожалению, если он изменился, он устанавливает все драгоценные камни с нуля, не используя кэш. Есть ли способ, чтобы кэшировать драгоценные камни на сборке? Я хотел бы, чтобы узелок в Dockerfile поскольку Heroku использует то же Dockerfile.
hcarreras
1

голосов
0

ответ
159

Просмотры

Volume specification error, docker-compose up

Мой код строится в порядке, но когда я бегу докер-компоновать до я получаю эту ошибку. Создание app_webapp_1 ... ERROR Ошибки: для app_webapp_1 Невозможно создать контейнер для обслуживания веб-приложения: неверная спецификация объема: 'C: \ Users \ Me \ Путь \ App \ фронт: ./ dFront: RW' ОШИБКА: для веба-приложение не удается создать контейнер для обслуживания WebApp: неверная спецификация объема: 'C: \ Users \ Me \ пути \ App \ фронт: ./ dFront: RW' ОШИБКА: Возникли ошибки при воспитании проекта. Config для Windows 10 последняя версия все (стабильный) контейнер для Windows (я не могу перейти на Линукс из них по причине памяти) Докер-compose.yml версии: услуги «3»: WebAPP: Сложение: объемы ./Front: - ./Front : ./ dFront порты: - 5001: 8080 То, что я уже пробовал (и не работал) COMPOSE_CONVERT_WINDOWS_PATHS = 0 COMPOSE_CONVERT_WINDOWS_PATHS = 1 Abosute путь: -. / Front: C: / Users / Me / Path / App / Front Последние приводят к другой ошибке, хотя: ОШИБКА: для app_webapp_1 Не удается запустить службу веб-приложение: контейнер d36a23d8e44193a16734d8c12f0cab4cc13d7d492671081d8b016795b1f79f8c обнаружил ошибку при CreateProcess: сбой в системе вызова с Windows: Система не удается найти указанный файл. (0x2) дополнительная информация: { "CommandLine": "NPM старт", "WorkingDirectory": "C: \\ dFront", "Окружающая среда": { "NPM_CONFIG_LOGLEVEL": "Информация о"}, "CreateStdInPipe": правда, "CreateStdOutPipe ": правда," CreateStdErrPipe ": правда," ConsoleSize ": [0,0]} Контейнер d36a23d8e44193a16734d8c12f0cab4cc13d7d492671081d8b016795b1f79f8c обнаружил ошибку при CreateProcess: сбой в системном вызове с Windows: Система не может найти указанный файл. (0x2) дополнительная информация: { "CommandLine": "NPM старт", "WorkingDirectory": "C: \\ dFront", "Окружающая среда": { "NPM_CONFIG_LOGLEVEL": "Информация о"}, "CreateStdInPipe": правда, "CreateStdOutPipe ": правда," CreateStdErrPipe ": правда," ConsoleSize ": [0,0]} Контейнер d36a23d8e44193a16734d8c12f0cab4cc13d7d492671081d8b016795b1f79f8c обнаружил ошибку при CreateProcess: сбой в системном вызове с Windows: Система не может найти указанный файл. (0x2) дополнительная информация: { "CommandLine": "NPM старт", "WorkingDirectory": "C: \\ dFront", "Окружающая среда": { "NPM_CONFIG_LOGLEVEL": "Информация о"}, "CreateStdInPipe": правда, "CreateStdOutPipe ": правда," CreateStdErrPipe ": правда," ConsoleSize ": [0,0]}
Emilien
1

голосов
0

ответ
336

Просмотры

Не удалось настроить учетные данные по умолчанию для официального Монго Docker изображения

Я использую Докер-Compose запустить официальный контейнер базы данных MongoDB. Чтение сценариев и некоторые StackOverflow вопросов выглядит как переменные окружения MONGO_INITDB_ может быть использовано для установки учетных данных по умолчанию. После запуска следующей Докер-compose.yml: версия: '2' услуги: MongoDB: Изображение: Монго: 3,6 среды: - MONGO_INITDB_ROOT_USERNAME = пользователь - MONGO_INITDB_ROOT_PASSWORD = пароль - MONGO_INITDB_DATABASE = Коллекцию Портов: - 27017: 27017 и пытается соединиться с Монго кли или мангуст Node.js ODM я получаю сообщение об ошибке аутентификации: ➔ Монго -u пользователь -p пароль --verbose локального хоста: 27017 / коллекции версия MongoDB оболочки: 2.6.10 подключения: локальный: 27017 / коллекции 2018-04-10T12: 29 : 46,386 + 0200 создание нового подключения к: локальному хосту: 27017 2018-04-10T12: 29: 46. 386 + 0200 [ConnectBG] BackgroundJob начала: ConnectBG 2018-04-10T12: 29: 46,387 + 0200 подключен к серверу локального хоста: 27017 (127.0.0.1) 2018-04-10T12: 29: 46.387 + 0200 связное соединение! 2018-04-10T12: 29: 46,391 + 0200 Утверждение Пользователь: 18: {ОК: 0.0, ErrMsg: "Ошибка аутентификации", код: 18, кодовое название: "AuthenticationFailed"} 2018-04-10T12: 29: 46,392 + 0200 Ошибка : 18 {оК: 0.0, ErrMsg: "Ошибка аутентификации", код: 18, кодовое название: "AuthenticationFailed"} в SRC / MONGO / оболочки / db.js 1287 2018-04-10T12: 29: 46.392 + 0200 пользователя Утверждение: 12514: Логин не удалось 2018-04-10T12: 29: 46,393 + 0200 освободив 1 неубранный N5mongo12DBClientBaseE объектов исключение: Логин не удалось Подключение к / коллекции администратора, как это определено в сценарии Entrypoint [1] дал тот же результат. Я не могу видеть, что я делаю неправильно. EDIT: Дерик, из irc.freenode.org #mongodb канала, предположил, что это может быть не выбирая --auth флага. Я пытался войти без учетных данных (Монго --verbose локальный: 27017 / администратор), и она работала. Я все еще имею вопрос об установлении значения по умолчанию учетных данных, так что вопрос еще не решен. [1] https://github.com/docker-library/mongo/blob/b96fddd1e1a100c01f0ea6d28e1c7ccc750fd5c0/3.6/docker-entrypoint.sh#L292
Francisco Canela
1

голосов
0

ответ
56

Просмотры

Docker-Compose тома не правильно установлен в VirtualBox под Windows,

Я пытаюсь запустить BYFN Учебник Hyperledger в на Win10 дома с помощью докер Toolbox, с VirtualBox 5.2.4. Я использую изображение по умолчанию для VirtualBox VM. Я создал общую папку (не в C: / Users, но на моем другом диске) и, кажется, работает правильно - изменения, внесенные либо из Windows, или докер-машины отражаются в обоих местах, как предполагалось. Я успешно генерировать сетевые артефакты с помощью «./byfn -m генерировать», но я получаю сообщение об ошибке при попытке «./byfn вверх» его. Что происходит, что, насколько я могу видеть из бревен, все контейнеры получают воспитаны правильно, но по какой-то причине объемы контейнера Cli не прилагаются правильно (я думаю). Когда byfn.sh заканчивается я получаю следующее сообщение об ошибке: Когда я SSH в контейнер CLI, я могу увидеть канал-артефакты, криптография и скрипты папки, но их содержание, кажется, не коррелируют с объемами: часть Докер-Compose файла. Во-первых, папка скрипты пуст (в то время как в файле докер-создания письма это указано, что он должен установить кучу файлов), так что я получаю вышеуказанную ошибку. Во-вторых, канал-артефакты containes только один каталог с именем genesis.block, который должен быть на самом деле файл. И в криптографической папке есть только куча каталогов. Как вы уже догадались, я довольно новый в грузчиком, так что это может быть предназначено поведение, но я все еще получаю сообщение об ошибке. Пожалуйста, дайте мне знать, если я могу предоставить дополнительную информацию. Заранее спасибо. S указано, что он должен установить кучу файлов), так что я получаю вышеуказанную ошибку. Во-вторых, канал-артефакты containes только один каталог с именем genesis.block, который должен быть на самом деле файл. И в криптографической папке есть только куча каталогов. Как вы уже догадались, я довольно новый в грузчиком, так что это может быть предназначено поведение, но я все еще получаю сообщение об ошибке. Пожалуйста, дайте мне знать, если я могу предоставить дополнительную информацию. Заранее спасибо. S указано, что он должен установить кучу файлов), так что я получаю вышеуказанную ошибку. Во-вторых, канал-артефакты containes только один каталог с именем genesis.block, который должен быть на самом деле файл. И в криптографической папке есть только куча каталогов. Как вы уже догадались, я довольно новый в грузчиком, так что это может быть предназначено поведение, но я все еще получаю сообщение об ошибке. Пожалуйста, дайте мне знать, если я могу предоставить дополнительную информацию. Заранее спасибо. Пожалуйста, дайте мне знать, если я могу предоставить дополнительную информацию. Заранее спасибо. Пожалуйста, дайте мне знать, если я могу предоставить дополнительную информацию. Заранее спасибо.
Teodor Savov
1

голосов
0

ответ
250

Просмотры

How do I add a table in MySQL using docker-compose

I am using docker-compose to create a web application using PHP and MySQL.The container that runs MySQL has the database installed however, I am not able to find the table in there. I have made use of a volume that contains the table .sql extension). Below is my docker-compose.yml file `version: '3' services: web_1: container_name: web1_2 build: . ports: - "8081:80" networks: test: ipv4_address: 172.28.0.2 web_2: container_name: web2_2 build: . ports: - "8082:80" networks: test: ipv4_address: 172.28.0.3 lb_2: container_name: lb_2 build: ./lb ports: - "8080:80" networks: test: ipv4_address: 172.28.0.4 db_2: container_name: db_2 image: mysql:latest restart: always volumes: - dbdata:/var/lib/mysql environment: MYSQL_ROOT_PASSWORD: password MYSQL_DATABASE: cloud MYSQL_USER: root MYSQL_PASSWORD: password ports: - "3306:3306" networks: test: ipv4_address: 172.28.0.5 networks: test: ipam: driver: default config: - subnet: 172.28.0.0/16 volumes: dbdata: ` This is the sql file present on the hostmachine which I am mountig on /var/lib/sql on the docker container. `CREATE TABLE cloud.basic (name VARCHAR(20), age INT, location VARCHAR(20)); INSERT INTO TABLE cloud.basic VALUES ("Sampy", 23, "Boulder"); INSERT INTO TABLE cloud.basic VALUES ("Gian", 27, "Raton");` Where doyou think I am going wrong? Is my approach wrong? Any help will be greatly appreciated
Sam
1

голосов
0

ответ
477

Просмотры

ВКЛЮЧИТЬ роли пользователей в KIBANA и Elasticsearch с помощью DOCKER.compose?

Below is my docker.compose.yml file that starts Elasticsearch 6.2.4 with 2 nodes + Kibana 6.2.4. I am using Elastisearch 6.2.4 platinum version and I have configured user login and password across ELK. The problem is that when I log into Kibana>Management I don't see the panel to configure Security and User roles, even after having configured all that. (Picture 1 attached here -> Kibana pic) I need to configure a user which has a role that allows only to read dashboards - dashboard user with read only permission. Please help. How can I do this?! version: '2.2' services: elasticsearch: image: docker.elastic.co/elasticsearch/elasticsearch-platinum:6.2.4 container_name: elasticsearch environment: - ELASTICSEARCH_USERNAME=elastic - ELASTICSEARCH_PASSWORD=MagicWord - cluster.name=docker-cluster - bootstrap.memory_lock=true - "ES_JAVA_OPTS=-Xms512m -Xmx512m" - xpack.security.enabled=true - xpack.ml.enabled=true - xpack.watcher.enabled=true ulimits: memlock: soft: -1 hard: -1 volumes: - esdata1:/usr/share/elasticsearch/data ports: - 32769:9200 - 32770:9300 networks: - esnet elasticsearch2: image: docker.elastic.co/elasticsearch/elasticsearch-platinum:6.2.4 container_name: elasticsearch2 environment: - ELASTICSEARCH_USERNAME=elastic - ELASTICSEARCH_PASSWORD=MagicWord - cluster.name=docker-cluster - bootstrap.memory_lock=true - "ES_JAVA_OPTS=-Xms512m -Xmx512m" - "discovery.zen.ping.unicast.hosts=elasticsearch" - xpack.security.enabled=true - xpack.ml.enabled=true - xpack.watcher.enabled=true ulimits: memlock: soft: -1 hard: -1 volumes: - esdata2:/usr/share/elasticsearch/data networks: - esnet kibana: image: docker.elastic.co/kibana/kibana:6.2.4 container_name: kibana volumes: - ./kibana.yml:/usr/share/kibana/config/kibana.yml environment: - ELASTICSEARCH_URL="http://elasticsearch:9200" - ELASTICSEARCH_USERNAME=elastic - ELASTICSEARCH_PASSWORD=MagicWord links: - elasticsearch ports: - 32771:5601 volumes: - esdata3:/usr/share/kibana networks: - esnet depends_on: - elasticsearch volumes: esdata1: driver: local esdata2: driver: local esdata3: driver: local networks: esnet: driver: bridge kibana.yml # Kibana is served by a back end server. This setting specifies the port to use. #server.port: 5601 # Specifies the address to which the Kibana server will bind. IP addresses and host names are both valid values. # The default is 'localhost', which usually means remote machines will not be able to connect. # To allow connections from remote users, set this parameter to a non-loopback address. #server.host: "localhost" # Enables you to specify a path to mount Kibana at if you are running behind a proxy. This only affects # the URLs generated by Kibana, your proxy is expected to remove the basePath value before forwarding requests # to Kibana. This setting cannot end in a slash. #server.basePath: "" # The maximum payload size in bytes for incoming server requests. #server.maxPayloadBytes: 1048576 # The Kibana server's name. This is used for display purposes. #server.name: "your-hostname" xpack.security.enabled: true LOG PS C:\Users\C0> cd documents/docker PS C:\Users\C0\documents\docker> docker-compose up Creating network "docker_esnet" with driver "bridge" Creating elasticsearch2 ... done Creating elasticsearch ... done Creating kibana ... done Attaching to elasticsearch2, elasticsearch, kibana . ... ..... elasticsearch | [2018-04-25T16:50:31,189][INFO ][o.e.n.Node ] JVM arguments [-Xms1g, -Xmx1g, -XX:+UseConcMarkSweepGC, -XX:CMSInitiatingOccupancyFraction=75, -XX:+UseCMSInitiatingOccupancyOnly, -XX:+AlwaysPreTouch, -Xss1m, -Djava.awt.headless=true, -Dfile.encoding=UTF-8, -Djna.nosys=true, -XX:-OmitStackTraceInFastThrow, -Dio.netty.noUnsafe=true, -Dio.netty.noKeySetOptimization=true, -Dio.netty.recycler.maxCapacityPerThread=0, -Dlog4j.shutdownHookEnabled=false, -Dlog4j2.disable.jmx=true, -Djava.io.tmpdir=/tmp/elasticsearch.39xvr3ne, -XX:+HeapDumpOnOutOfMemoryError, -XX:+PrintGCDetails, -XX:+PrintGCDateStamps, -XX:+PrintTenuringDistribution, -XX:+PrintGCApplicationStoppedTime, -Xloggc:logs/gc.log, -XX:+UseGCLogFileRotation, -XX:NumberOfGCLogFiles=32, -XX:GCLogFileSize=64m, -Des.cgroups.hierarchy.override=/, -Xms512m, -Xmx512m, -Des.path.home=/usr/share/elasticsearch, -Des.path.conf=/usr/share/elasticsearch/config] elasticsearch | [2018-04-25T16:50:35,776][INFO ][o.e.p.PluginsService ] [obWycXg] loaded module [aggs-matrix-stats] elasticsearch | [2018-04-25T16:50:35,777][INFO ][o.e.p.PluginsService ] [obWycXg] loaded module [analysis-common] elasticsearch | [2018-04-25T16:50:35,777][INFO ][o.e.p.PluginsService ] [obWycXg] loaded module [ingest-common] elasticsearch | [2018-04-25T16:50:35,777][INFO ][o.e.p.PluginsService ] [obWycXg] loaded module [lang-expression] elasticsearch | [2018-04-25T16:50:35,777][INFO ][o.e.p.PluginsService ] [obWycXg] loaded module [lang-mustache] elasticsearch | [2018-04-25T16:50:35,778][INFO ][o.e.p.PluginsService ] [obWycXg] loaded module [lang-painless] elasticsearch | [2018-04-25T16:50:35,778][INFO ][o.e.p.PluginsService ] [obWycXg] loaded module [mapper-extras] elasticsearch | [2018-04-25T16:50:35,778][INFO ][o.e.p.PluginsService ] [obWycXg] loaded module [parent-join] elasticsearch | [2018-04-25T16:50:35,779][INFO ][o.e.p.PluginsService ] [obWycXg] loaded module [percolator] elasticsearch | [2018-04-25T16:50:35,779][INFO ][o.e.p.PluginsService ] [obWycXg] loaded module [rank-eval] elasticsearch | [2018-04-25T16:50:35,780][INFO ][o.e.p.PluginsService ] [obWycXg] loaded module [reindex] elasticsearch | [2018-04-25T16:50:35,780][INFO ][o.e.p.PluginsService ] [obWycXg] loaded module [repository-url] elasticsearch | [2018-04-25T16:50:35,781][INFO ][o.e.p.PluginsService ] [obWycXg] loaded module [transport-netty4] elasticsearch | [2018-04-25T16:50:35,782][INFO ][o.e.p.PluginsService ] [obWycXg] loaded module [tribe] elasticsearch | [2018-04-25T16:50:35,783][INFO ][o.e.p.PluginsService ] [obWycXg] loaded plugin [ingest-geoip] elasticsearch | [2018-04-25T16:50:35,783][INFO ][o.e.p.PluginsService ] [obWycXg] loaded plugin [ingest-user-agent] elasticsearch | [2018-04-25T16:50:35,784][INFO ][o.e.p.PluginsService ] [obWycXg] loaded plugin [x-pack-core] elasticsearch | [2018-04-25T16:50:35,784][INFO ][o.e.p.PluginsService ] [obWycXg] loaded plugin [x-pack-deprecation] elasticsearch | [2018-04-25T16:50:35,784][INFO ][o.e.p.PluginsService ] [obWycXg] loaded plugin [x-pack-graph] elasticsearch | [2018-04-25T16:50:35,785][INFO ][o.e.p.PluginsService ] [obWycXg] loaded plugin [x-pack-logstash] elasticsearch | [2018-04-25T16:50:35,785][INFO ][o.e.p.PluginsService ] [obWycXg] loaded plugin [x-pack-ml] elasticsearch | [2018-04-25T16:50:35,785][INFO ][o.e.p.PluginsService ] [obWycXg] loaded plugin [x-pack-monitoring] elasticsearch | [2018-04-25T16:50:35,785][INFO ][o.e.p.PluginsService ] [obWycXg] loaded plugin [x-pack-security] elasticsearch | [2018-04-25T16:50:35,789][INFO ][o.e.p.PluginsService ] [obWycXg] loaded plugin [x-pack-upgrade] elasticsearch | [2018-04-25T16:50:35,789][INFO ][o.e.p.PluginsService ] [obWycXg] loaded plugin [x-pack-watcher] elasticsearch2 | [2018-04-25T16:50:35,828][INFO ][o.e.p.PluginsService ] [fJor1LC] loaded module [aggs-matrix-stats] elasticsearch2 | [2018-04-25T16:50:35,829][INFO ][o.e.p.PluginsService ] [fJor1LC] loaded module [analysis-common] elasticsearch2 | [2018-04-25T16:50:35,829][INFO ][o.e.p.PluginsService ] [fJor1LC] loaded module [ingest-common] elasticsearch2 | [2018-04-25T16:50:35,829][INFO ][o.e.p.PluginsService ] [fJor1LC] loaded module [lang-expression] elasticsearch2 | [2018-04-25T16:50:35,829][INFO ][o.e.p.PluginsService ] [fJor1LC] loaded module [lang-mustache] elasticsearch2 | [2018-04-25T16:50:35,829][INFO ][o.e.p.PluginsService ] [fJor1LC] loaded module [lang-painless] elasticsearch2 | [2018-04-25T16:50:35,829][INFO ][o.e.p.PluginsService ] [fJor1LC] loaded module [mapper-extras] elasticsearch2 | [2018-04-25T16:50:35,829][INFO ][o.e.p.PluginsService ] [fJor1LC] loaded module [parent-join] elasticsearch2 | [2018-04-25T16:50:35,829][INFO ][o.e.p.PluginsService ] [fJor1LC] loaded module [percolator] elasticsearch2 | [2018-04-25T16:50:35,829][INFO ][o.e.p.PluginsService ] [fJor1LC] loaded module [rank-eval] elasticsearch2 | [2018-04-25T16:50:35,830][INFO ][o.e.p.PluginsService ] [fJor1LC] loaded module [reindex] elasticsearch2 | [2018-04-25T16:50:35,830][INFO ][o.e.p.PluginsService ] [fJor1LC] loaded module [repository-url] elasticsearch2 | [2018-04-25T16:50:35,830][INFO ][o.e.p.PluginsService ] [fJor1LC] loaded module [transport-netty4] elasticsearch2 | [2018-04-25T16:50:35,830][INFO ][o.e.p.PluginsService ] [fJor1LC] loaded module [tribe] elasticsearch2 | [2018-04-25T16:50:35,831][INFO ][o.e.p.PluginsService ] [fJor1LC] loaded plugin [ingest-geoip] elasticsearch2 | [2018-04-25T16:50:35,831][INFO ][o.e.p.PluginsService ] [fJor1LC] loaded plugin [ingest-user-agent] elasticsearch2 | [2018-04-25T16:50:35,831][INFO ][o.e.p.PluginsService ] [fJor1LC] loaded plugin [x-pack-core] elasticsearch2 | [2018-04-25T16:50:35,831][INFO ][o.e.p.PluginsService ] [fJor1LC] loaded plugin [x-pack-deprecation] elasticsearch2 | [2018-04-25T16:50:35,831][INFO ][o.e.p.PluginsService ] [fJor1LC] loaded plugin [x-pack-graph] elasticsearch2 | [2018-04-25T16:50:35,831][INFO ][o.e.p.PluginsService ] [fJor1LC] loaded plugin [x-pack-logstash] elasticsearch2 | [2018-04-25T16:50:35,831][INFO ][o.e.p.PluginsService ] [fJor1LC] loaded plugin [x-pack-ml] elasticsearch2 | [2018-04-25T16:50:35,831][INFO ][o.e.p.PluginsService ] [fJor1LC] loaded plugin [x-pack-monitoring] elasticsearch2 | [2018-04-25T16:50:35,831][INFO ][o.e.p.PluginsService ] [fJor1LC] loaded plugin [x-pack-security] elasticsearch2 | [2018-04-25T16:50:35,831][INFO ][o.e.p.PluginsService ] [fJor1LC] loaded plugin [x-pack-upgrade] elasticsearch2 | [2018-04-25T16:50:35,832][INFO ][o.e.p.PluginsService ] [fJor1LC] loaded plugin [x-pack-watcher] elasticsearch2 | [2018-04-25T16:50:43,096][INFO ][o.e.x.m.j.p.l.CppLogMessageHandler] [controller/126] [[email protected]] controller (64 bit): Version 6.2.4 (Build 524e7fe231abc1) Copyright (c) 2018 Elasticsearch BV elasticsearch | [2018-04-25T16:50:43,115][INFO ][o.e.x.m.j.p.l.CppLogMessageHandler] [controller/126] [[email protected]] controller (64 bit): Version 6.2.4 (Build 524e7fe231abc1) Copyright (c) 2018 Elasticsearch BV elasticsearch | [2018-04-25T16:50:46,547][INFO ][o.e.d.DiscoveryModule ] [obWycXg] using discovery type [zen] elasticsearch2 | [2018-04-25T16:50:46,581][INFO ][o.e.d.DiscoveryModule ] [fJor1LC] using discovery type [zen] elasticsearch | [2018-04-25T16:50:48,136][INFO ][o.e.n.Node ] initialized elasticsearch | [2018-04-25T16:50:48,136][INFO ][o.e.n.Node ] [obWycXg] starting ... elasticsearch2 | [2018-04-25T16:50:48,316][INFO ][o.e.n.Node ] initialized elasticsearch2 | [2018-04-25T16:50:48,316][INFO ][o.e.n.Node ] [fJor1LC] starting ... elasticsearch | [2018-04-25T16:50:48,486][INFO ][o.e.t.TransportService ] [obWycXg] publish_address {172.20.0.3:9300}, bound_addresses {0.0.0.0:9300} elasticsearch | [2018-04-25T16:50:48,545][INFO ][o.e.b.BootstrapChecks ] [obWycXg] bound or publishing to a non-loopback address, enforcing bootstrap checks elasticsearch2 | [2018-04-25T16:50:48,617][INFO ][o.e.t.TransportService ] [fJor1LC] publish_address {172.20.0.2:9300}, bound_addresses {0.0.0.0:9300} elasticsearch2 | [2018-04-25T16:50:48,705][INFO ][o.e.b.BootstrapChecks ] [fJor1LC] bound or publishing to a non-loopback address, enforcing bootstrap checks elasticsearch2 | [2018-04-25T16:50:51,848][INFO ][o.e.c.s.MasterService ] [fJor1LC] zen-disco-elected-as-master ([0] nodes joined), reason: new_master {fJor1LC}{fJor1LCXT2GsgCPQcK0QFQ}{69qs2_xyQc-VB09xONjjJQ}{172.20.0.2}{172.20.0.2:9300}{ml.machine_memory=4641857536, ml.max_open_jobs=20, ml.enabled=true} elasticsearch2 | [2018-04-25T16:50:51,857][INFO ][o.e.c.s.ClusterApplierService] [fJor1LC] new_master {fJor1LC}{fJor1LCXT2GsgCPQcK0QFQ}{69qs2_xyQc-VB09xONjjJQ}{172.20.0.2}{172.20.0.2:9300}{ml.machine_memory=4641857536, ml.max_open_jobs=20, ml.enabled=true}, reason: apply cluster state (from master [master {fJor1LC}{fJor1LCXT2GsgCPQcK0QFQ}{69qs2_xyQc-VB09xONjjJQ}{172.20.0.2}{172.20.0.2:9300}{ml.machine_memory=4641857536, ml.max_open_jobs=20, ml.enabled=true} committed version [1] source [zen-disco-elected-as-master ([0] nodes joined)]]) elasticsearch2 | [2018-04-25T16:50:51,894][INFO ][o.e.c.s.MasterService ] [fJor1LC] zen-disco-node-join[{obWycXg}{obWycXgmRx2fKdDKeYQAKA}{WIC48jIVQQiN8CMuPgznqg}{172.20.0.3}{172.20.0.3:9300}{ml.machine_memory=4641857536, ml.max_open_jobs=20, ml.enabled=true}], reason: added {{obWycXg}{obWycXgmRx2fKdDKeYQAKA}{WIC48jIVQQiN8CMuPgznqg}{172.20.0.3}{172.20.0.3:9300}{ml.machine_memory=4641857536, ml.max_open_jobs=20, ml.enabled=true},} elasticsearch | [2018-04-25T16:50:51,911][INFO ][o.e.c.s.ClusterApplierService] [obWycXg] detected_master {fJor1LC}{fJor1LCXT2GsgCPQcK0QFQ}{69qs2_xyQc-VB09xONjjJQ}{172.20.0.2}{172.20.0.2:9300}{ml.machine_memory=4641857536, ml.max_open_jobs=20, ml.enabled=true}, added {{fJor1LC}{fJor1LCXT2GsgCPQcK0QFQ}{69qs2_xyQc-VB09xONjjJQ}{172.20.0.2}{172.20.0.2:9300}{ml.machine_memory=4641857536, ml.max_open_jobs=20, ml.enabled=true},}, reason: apply cluster state (from master [master {fJor1LC}{fJor1LCXT2GsgCPQcK0QFQ}{69qs2_xyQc-VB09xONjjJQ}{172.20.0.2}{172.20.0.2:9300}{ml.machine_memory=4641857536, ml.max_open_jobs=20, ml.enabled=true} committed version [2]]) elasticsearch2 | [2018-04-25T16:50:51,926][INFO ][o.e.c.s.ClusterApplierService] [fJor1LC] added {{obWycXg}{obWycXgmRx2fKdDKeYQAKA}{WIC48jIVQQiN8CMuPgznqg}{172.20.0.3}{172.20.0.3:9300}{ml.machine_memory=4641857536, ml.max_open_jobs=20, ml.enabled=true},}, reason: apply cluster state (from master [master {fJor1LC}{fJor1LCXT2GsgCPQcK0QFQ}{69qs2_xyQc-VB09xONjjJQ}{172.20.0.2}{172.20.0.2:9300}{ml.machine_memory=4641857536, ml.max_open_jobs=20, ml.enabled=true} committed version [2] source [zen-disco-node-join[{obWycXg}{obWycXgmRx2fKdDKeYQAKA}{WIC48jIVQQiN8CMuPgznqg}{172.20.0.3}{172.20.0.3:9300}{ml.machine_memory=4641857536, ml.max_open_jobs=20, ml.enabled=true}]]]) elasticsearch2 | [2018-04-25T16:50:51,928][WARN ][o.e.d.z.ElectMasterService] [fJor1LC] value for setting "discovery.zen.minimum_master_nodes" is too low. This can result in data loss! Please set it to at least a quorum of master-eligible nodes (current value: [1], total number of master-eligible nodes used for publishing in this round: [2]) elasticsearch | [2018-04-25T16:50:51,995][INFO ][o.e.x.s.t.n.SecurityNetty4HttpServerTransport] [obWycXg] publish_address {172.20.0.3:9200}, bound_addresses {0.0.0.0:9200} elasticsearch2 | [2018-04-25T16:50:52,008][INFO ][o.e.x.s.t.n.SecurityNetty4HttpServerTransport] [fJor1LC] publish_address {172.20.0.2:9200}, bound_addresses {0.0.0.0:9200} elasticsearch | [2018-04-25T16:50:52,016][INFO ][o.e.n.Node ] [obWycXg] started elasticsearch2 | [2018-04-25T16:50:52,017][INFO ][o.e.n.Node ] [fJor1LC] started elasticsearch | [2018-04-25T16:50:52,975][INFO ][o.e.x.s.a.TokenService ] [obWycXg] refresh keys elasticsearch | [2018-04-25T16:50:53,397][INFO ][o.e.x.s.a.TokenService ] [obWycXg] refreshed keys elasticsearch | [2018-04-25T16:50:53,406][INFO ][o.e.l.LicenseService ] [obWycXg] license [cb110a0f-9082-4077-901f-52ec7519e4a6] mode [basic] - valid elasticsearch | [2018-04-25T16:50:53,952][INFO ][o.e.d.z.ZenDiscovery ] [obWycXg] master_left [{fJor1LC}{fJor1LCXT2GsgCPQcK0QFQ}{69qs2_xyQc-VB09xONjjJQ}{172.20.0.2}{172.20.0.2:9300}{ml.machine_memory=4641857536, ml.max_open_jobs=20, ml.enabled=true}], reason [failed to ping, tried [3] times, each with maximum [30s] timeout] elasticsearch | [2018-04-25T16:50:53,953][WARN ][o.e.d.z.ZenDiscovery ] [obWycXg] master left (reason = failed to ping, tried [3] times, each with maximum [30s] timeout), current nodes: nodes: elasticsearch | {obWycXg}{obWycXgmRx2fKdDKeYQAKA}{WIC48jIVQQiN8CMuPgznqg}{172.20.0.3}{172.20.0.3:9300}{ml.machine_memory=4641857536, ml.max_open_jobs=20, ml.enabled=true}, local elasticsearch | {fJor1LC}{fJor1LCXT2GsgCPQcK0QFQ}{69qs2_xyQc-VB09xONjjJQ}{172.20.0.2}{172.20.0.2:9300}{ml.machine_memory=4641857536, ml.max_open_jobs=20, ml.enabled=true}, master elasticsearch | elasticsearch | [2018-04-25T16:50:53,960][INFO ][o.e.x.w.WatcherService ] [obWycXg] stopping watch service, reason [no master node] elasticsearch2 | [2018-04-25T16:50:53,972][INFO ][o.e.l.LicenseService ] [fJor1LC] license [cb110a0f-9082-4077-901f-52ec7519e4a6] mode [basic] - valid elasticsearch2 | [2018-04-25T16:50:54,006][INFO ][o.e.g.GatewayService ] [fJor1LC] recovered [6] indices into cluster_state elasticsearch | [2018-04-25T16:50:53,962][WARN ][o.e.d.z.UnicastZenPing ] [obWycXg] failed to send ping to [{fJor1LC}{fJor1LCXT2GsgCPQcK0QFQ}{69qs2_xyQc-VB09xONjjJQ}{172.20.0.2}{172.20.0.2:9300}{ml.machine_memory=4641857536, ml.max_open_jobs=20, ml.enabled=true}] elasticsearch | org.elasticsearch.transport.RemoteTransportException: [fJor1LC][172.20.0.2:9300][internal:discovery/zen/unicast] elasticsearch | Caused by: org.elasticsearch.ElasticsearchSecurityException: missing authentication token for action [internal:discovery/zen/unicast] elasticsearch | at org.elasticsearch.xpack.core.security.support.Exceptions.authenticationError(Exceptions.java:36) ~[?:?] elasticsearch | at org.elasticsearch.xpack.core.security.authc.DefaultAuthenticationFailureHandler.missingToken(DefaultAuthenticationFailureHandler.java:74) ~[?:?] elasticsearch | at org.elasticsearch.xpack.security.authc.AuthenticationService$AuditableTransportRequest.anonymousAccessDenied(AuthenticationService.java:535) ~[?:?] elasticsearch | at org.elasticsearch.xpack.security.authc.AuthenticationService$Authenticator.lambda$handleNullToken$17(AuthenticationService.java:347) ~[?:?] elasticsearch | at org.elasticsearch.xpack.security.authc.AuthenticationService$Authenticator.handleNullToken(AuthenticationService.java:352) ~[?:?] elasticsearch | at org.elasticsearch.xpack.security.authc.AuthenticationService$Authenticator.consumeToken(AuthenticationService.java:267) ~[?:?] elasticsearch | at org.elasticsearch.xpack.security.authc.AuthenticationService$Authenticator.lambda$extractToken$7(AuthenticationService.java:238) ~[?:?] elasticsearch | at org.elasticsearch.xpack.security.authc.AuthenticationService$Authenticator.extractToken(AuthenticationService.java:256) ~[?:?] elasticsearch | at org.elasticsearch.xpack.security.authc.AuthenticationService$Authenticator.lambda$authenticateAsync$0(AuthenticationService.java:190) ~[?:?] elasticsearch | at org.elasticsearch.action.ActionListener$1.onResponse(ActionListener.java:60) ~[elasticsearch-6.2.4.jar:6.2.4] elasticsearch | at org.elasticsearch.xpack.security.authc.TokenService.getAndValidateToken(TokenService.java:313) ~[?:?] elasticsearch | at org.elasticsearch.xpack.security.authc.AuthenticationService$Authenticator.lambda$authenticateAsync$2(AuthenticationService.java:186) ~[?:?] elasticsearch | at org.elasticsearch.xpack.security.authc.AuthenticationService$Authenticator.lambda$lookForExistingAuthentication$4(AuthenticationService.java:217) ~[?:?] elasticsearch | at org.elasticsearch.xpack.security.authc.AuthenticationService$Authenticator.lookForExistingAuthentication(AuthenticationService.java:228) ~[?:?] elasticsearch | at org.elasticsearch.xpack.security.authc.AuthenticationService$Authenticator.authenticateAsync(AuthenticationService.java:182) ~[?:?] elasticsearch | at org.elasticsearch.xpack.security.authc.AuthenticationService$Authenticator.access$000(AuthenticationService.java:143) ~[?:?] elasticsearch | at org.elasticsearch.xpack.security.authc.AuthenticationService.authenticate(AuthenticationService.java:113) ~[?:?] elasticsearch | at org.elasticsearch.xpack.security.transport.ServerTransportFilter$NodeProfile.inbound(ServerTransportFilter.java:142) ~[?:?] elasticsearch | at org.elasticsearch.xpack.security.transport.SecurityServerTransportInterceptor$ProfileSecuredRequestHandler.messageReceived(SecurityServerTransportInterceptor.java:314) ~[?:?] elasticsearch | at org.elasticsearch.transport.RequestHandlerRegistry.processMessageReceived(RequestHandlerRegistry.java:66) ~[elasticsearch-6.2.4.jar:6.2.4] elasticsearch | at org.elasticsearch.transport.TcpTransport$RequestHandler.doRun(TcpTransport.java:1555) ~[elasticsearch-6.2.4.jar:6.2.4] elasticsearch | at org.elasticsearch.common.util.concurrent.AbstractRunnable.run(AbstractRunnable.java:37) ~[elasticsearch-6.2.4.jar:6.2.4] elasticsearch | at org.elasticsearch.common.util.concurrent.EsExecutors$1.execute(EsExecutors.java:135) ~[elasticsearch-6.2.4.jar:6.2.4] elasticsearch | at org.elasticsearch.transport.TcpTransport.handleRequest(TcpTransport.java:1512) [elasticsearch-6.2.4.jar:6.2.4] elasticsearch | at org.elasticsearch.transport.TcpTransport.messageReceived(TcpTransport.java:1382) [elasticsearch-6.2.4.jar:6.2.4] elasticsearch | at org.elasticsearch.transport.netty4.Netty4MessageChannelHandler.channelRead(Netty4MessageChannelHandler.java:64) [transport-netty4-6.2.4.jar:6.2.4] elasticsearch | at io.netty.channel.AbstractChannelHandlerContext.invokeChannelRead(AbstractChannelHandlerContext.java:362) [netty-transport-4.1.16.Final.jar:4.1.16.Final] elasticsearch | at io.netty.channel.AbstractChannelHandlerContext.invokeChannelRead(AbstractChannelHandlerContext.java:348) [netty-transport-4.1.16.Final.jar:4.1.16.Final] elasticsearch | at io.netty.channel.AbstractChannelHandlerContext.fireChannelRead(AbstractChannelHandlerContext.java:340) [netty-transport-4.1.16.Final.jar:4.1.16.Final] elasticsearch | at io.netty.handler.codec.ByteToMessageDecoder.fireChannelRead(ByteToMessageDecoder.java:310) [netty-codec-4.1.16.Final.jar:4.1.16.Final] elasticsearch | at io.netty.handler.codec.ByteToMessageDecoder.fireChannelRead(ByteToMessageDecoder.java:297) [netty-codec-4.1.16.Final.jar:4.1.16.Final] elasticsearch | at io.netty.handler.codec.ByteToMessageDecoder.callDecode(ByteToMessageDecoder.java:413) [netty-codec-4.1.16.Final.jar:4.1.16.Final] elasticsearch | at io.netty.handler.codec.ByteToMessageDecoder.channelRead(ByteToMessageDecoder.java:265) [netty-codec-4.1.16.Final.jar:4.1.16.Final] elasticsearch | at io.netty.channel.AbstractChannelHandlerContext.invokeChannelRead(AbstractChannelHandlerContext.java:362) [netty-transport-4.1.16.Final.jar:4.1.16.Final] elasticsearch | at io.netty.channel.AbstractChannelHandlerContext.invokeChannelRead(AbstractChannelHandlerContext.java:348) [netty-transport-4.1.16.Final.jar:4.1.16.Final] elasticsearch | at io.netty.channel.AbstractChannelHandlerContext.fireChannelRead(AbstractChannelHandlerContext.java:340) [netty-transport-4.1.16.Final.jar:4.1.16.Final] elasticsearch | at io.netty.handler.logging.LoggingHandler.channelRead(LoggingHandler.java:241) [netty-handler-4.1.16.Final.jar:4.1.16.Final] elasticsearch | at io.netty.channel.AbstractChannelHandlerContext.invokeChannelRead(AbstractChannelHandlerContext.java:362) [netty-transport-4.1.16.Final.jar:4.1.16.Final] elasticsearch | at io.netty.channel.AbstractChannelHandlerContext.invokeChannelRead(AbstractChannelHandlerContext.java:348) [netty-transport-4.1.16.Final.jar:4.1.16.Final] elasticsearch | at io.netty.channel.AbstractChannelHandlerContext.fireChannelRead(AbstractChannelHandlerContext.java:340) [netty-transport-4.1.16.Final.jar:4.1.16.Final] elasticsearch | at io.netty.channel.DefaultChannelPipeline$HeadContext.channelRead(DefaultChannelPipeline.java:1359) [netty-transport-4.1.16.Final.jar:4.1.16.Final] elasticsearch | at io.netty.channel.AbstractChannelHandlerContext.invokeChannelRead(AbstractChannelHandlerContext.java:362) [netty-transport-4.1.16.Final.jar:4.1.16.Final] elasticsearch | at io.netty.channel.AbstractChannelHandlerContext.invokeChannelRead(AbstractChannelHandlerContext.java:348) [netty-transport-4.1.16.Final.jar:4.1.16.Final] elasticsearch | at io.netty.channel.DefaultChannelPipeline.fireChannelRead(DefaultChannelPipeline.java:935) [netty-transport-4.1.16.Final.jar:4.1.16.Final] elasticsearch | at io.netty.channel.nio.AbstractNioByteChannel$NioByteUnsafe.read(AbstractNioByteChannel.java:134) [netty-transport-4.1.16.Final.jar:4.1.16.Final] elasticsearch | at io.netty.channel.nio.NioEventLoop.processSelectedKey(NioEventLoop.java:645) [netty-transport-4.1.16.Final.jar:4.1.16.Final] elasticsearch | at io.netty.channel.nio.NioEventLoop.processSelectedKeysPlain(NioEventLoop.java:545) [netty-transport-4.1.16.Final.jar:4.1.16.Final] elasticsearch | at io.netty.channel.nio.NioEventLoop.processSelectedKeys(NioEventLoop.java:499) [netty-transport-4.1.16.Final.jar:4.1.16.Final] elasticsearch | at io.netty.channel.nio.NioEventLoop.run(NioEventLoop.java:459) [netty-transport-4.1.16.Final.jar:4.1.16.Final] elasticsearch | at io.netty.util.concurrent.SingleThreadEventExecutor$5.run(SingleThreadEventExecutor.java:858) [netty-common-4.1.16.Final.jar:4.1.16.Final] elasticsearch | at java.lang.Thread.run(Thread.java:748) [?:1.8.0_161]
Guid
1

голосов
1

ответ
45

Просмотры

Невозможно связать Docker контейнеры с CLI

Я пытаюсь связать два Docker контейнеров (WordPress и MySQL) с помощью командной строки, но это не work.I также пытались с Докер-compose.yml, но только один контейнер работает и я не могу связать оба containers.I использовали следующие commands.I я в настоящее время с помощью AWS Amazon Linux AMI. Докер запустить --name дб -e MYSQL_ROOT_PASSWORD = абв123 -p 3306: 3306 -d MySQL докер запустить --name WordPress --link дб: MySQL -p 80:80 -d WordPress. После выполнения этих команд только один контейнер (MYSQL) активен:
Rakesh Sivagouni
1

голосов
0

ответ
170

Просмотры

Приложить Docker контейнер для обработки в .NET Ядра / Visual Studio на Mac

У меня есть файл докер-содержащий несколько создания сообщения услуг. Файл Compose является частью отдельного репозитория Git. Рядом с этим я хотел бы начать свои контейнеры через терминал, запустив докер-компоновать вверх. Я знаю, что Visual Studio поддерживает отладку Docker контейнеров, добавив поддержку Докер. Однако, это требует файл создания сообщения Docker жить в том же каталоге, что решение, которое вы работаете. Есть ли способ, чтобы начать контейнеры через ваш терминал и прикрепить Visual Studio для Mac в процессе, так что вы можете отлаживать?
Frank Levering
1

голосов
1

ответ
491

Просмотры

Wordpress Ошибка подключения к базе данных с помощью докер-Compose

Им с помощью докер-Compose, чтобы раскрутить MySQL и Wordpress контейнер. Im встречен с / ошибкой аутентификации соединения при доступе к сайту. Я не могу найти причину, почему?! (Кроме того, я попытался с помощью корневого пользователя.) Ниже мой Compose файл, часть конфигурационного файла, и ошибка. докер-compose.yml версия: '2' услуги: MySQL: изображения: MySQL: последние container_name: MySQL рестарт: всегда среда: - MYSQL_ROOT_PASSWORD = корень - MYSQL_USER = пользователь - MYSQL_PASSWORD = порты пароль: - '3306: 3306' объемы: - './database:/var/lib/mysql' - './config/database_dump.sql:/docker-entrypoint-initdb.d/database_dump.sql' сор: изображение: WordPress: последние container_name: WordPress рестарта: всегда порты: - '7777: 80' объемы: -». / WordPress: / вар / WWW / HTML '-' ./config/wp-config.php:/var/www/html/wp-config.php»depends_on: - MySQL WP-config.php определить ( 'DB_NAME', 'my_db_name'); DEFINE ( ​​'DB_User', 'пользователя'); DEFINE ( ​​'пароль_базы_данных', 'пароль'); DEFINE ( ​​'DB_HOST', 'MySQL: 3306');
larsrbak
1

голосов
1

ответ
295

Просмотры

Allowing multiple services in docker-compose to share a merged volume

Учитывая Докер-compose.yml файл, как показано ниже, я ищу способ, что и сервис а и б может иметь доступ к общему объему, который состоит из слившихся содержимого обоих контейнеров. версия: тома '-': разделяемый объединенный-объем: услуги: а: объемы: - разделяемый объединенный объем: / Shared б: объемы: - разделяемый объединенный объем: / общая Допустим сервис а имеет каталог на / общий / реж-из-а и услуг; б имеет сходный / разделяемой реж-из-Ь каталог. Желаемый результат в конечном итоге с: $ Ls / общий # либо из контейнера реж-с-а реж-из-б Что я нахожу в том, что один из контейнеров «победы» и только один из этих двух каталогов всегда присутствует. Я могу обойти эту проблему, как это, но более многословен и требует изменения, если содержимое каталога когда-либо изменений: версия: тома «3»:
jayp
1

голосов
1

ответ
129

Просмотры

Джанго докер-компоновать после перезагрузки снова требует миграции

Я сделал этот блок файл. [Unit] Description = MyService Требуется = docker.service После = docker.service [Service] Restart = всегда # Удалите старые контейнеры, изображения и объемы ExecStartPre = / USR / местные / бен / докер-составляющие -f my.yml вниз -v ExecStartPre = / USR / местные / бен / докер-компоновать -f my.yml гт -v ExecStartPre = - / bin / Баш -c 'Docker объем гт $ (объем докер Ls -q)' ExecStartPre = - / bin / Баш - C 'Докер RMI $ (Докер изображения | Grep "" | AWK \' {печати $ 3} \ ')' ExecStartPre = - / bin / Баш -c 'Docker гт -v $ (докер пс -aq)' # сочинить до ExecStart = / USR / местные / бен / докер-компоновать -f my.yml до # Compose вниз, удалить контейнеры и объемы ExecStop = / USR / местные / бен / докер-компоновать -f my.yml вниз -v [Установить] WantedBy = multi-user.target Перед запуском файла я создаю миграции, как это: докер-компоновать -f моей. YML запустить --rm Джанго питон manage.py мигрировать Но после перезагрузки ОС, мне нужно перезапустить миграцию, так как они не обнаружены. Что может быть не так?
1

голосов
0

ответ
167

Просмотры

Монго + Docker не позволяя наложения драйверов для набора реплик

Я бегу этот докер-compose.yml на мой макинтош над свежей Docker для среды Mac. Суть здесь! версия: услуги '2': replica1: Изображение: Монго: 3,0 container_name: mongo1 порты: - "27017: 27017" объемы: - ./mongodata/replica1:/data/db команда: mongod --smallfiles --replSet "mrmtx" сети: - mongo_cluster replica2: изображение: монго: 3,0 container_name: mongo2 порты: - "27017: 27017" тома: - ./mongodata/replica2:/data/db команда: mongod --smallfiles --replSet "mrmtx" сети: - mongo_cluster replica3: изображение: монго: 3.0 container_name: mongo3 порты: - "27017: 27017" объемы: - ./mongodata/replica3:/data/db команда: mongod --smallfiles --replSet "mrmtx"
Bruno Guerra
1

голосов
1

ответ
154

Просмотры

Объемы в Докер внутри Докер?

Я бегу BuildBot, который является инструментом CI на EC2 машине. В настоящее время она работает в качестве докеров контейнеров один для мастера BuildBot и один для BuildBot работника. Внутри BuildBot работника, я должен снова запустить докер для создания изображений и запуска контейнеров. После выполнения некоторых исследований о том, как лучше всего сделать это, я установил докер носка файл из хост-компьютера в контейнер BuildBot работника. Теперь внутри BuildBot работника, я могу подключиться к хосту Docker демону и использовать кэш сборки. Главная проблема сейчас в том, что внутри BuildBot работника, у меня есть докер сочинять файл, в котором за одну услуги, я монтирование файла как этот ./configs/my.cnf:/etc/my.cnf, но терпит неудачу. И делать некоторые дополнительные исследования, это потому, что конфиги / мой. CNF является относительно каталога BuildBot работника и с тех пор я использую хост Docker демон, который решает файлы с помощью хост-пути, он не может найти файл. Я не могу понять, как лучше это сделать. Были некоторые предложения по использованию объемов данных для этого, но я не уверен в том, как лучше использовать те. Любая идея о том, как мы можем это сделать?
Kishu Agarwal
1

голосов
0

ответ
434

Просмотры

MySQL 5.7 каталог данных имеет в нем файлы

После урока по адресу: https://docs.docker.com/compose/wordpress/ Запуск докер-компоновать до я получаю: Инициализация базы данных [Warning] TIMESTAMP с неявным значением по умолчанию является устаревшим. Пожалуйста, используйте --explicit_defaults_for_timestamp вариант сервера (обратитесь к документации для получения более подробной информации). [ERROR] --initialize определен, но каталог данных имеет в нем файлы. Aborting. [ERROR] Прерывание попытался добавить аргументы, как предложено здесь: https://github.com/docker-library/mysql/issues/186 https://github.com/docker-library/mysql/issues/69 Но это Безразлично» т похоже на работу: услуги: дб: изображение: MySQL: 5.7 команда: [ "туздЫ", "--ignore-дб-Dir = потерявшие + найдено", "--explicit_defaults_for_timestamp"] объемы: - db_data: / вар / Библиотека / MySQL перезагрузка: всегда среда: MYSQL_ROOT_PASSWORD:
Kim T
1

голосов
3

ответ
413

Просмотры

вопросы роя контейнеры соединения Докер

Я пытаюсь использовать Docker роя, чтобы создать простую службу nodejs, что лежит за HAproxy и подключиться к MySQL. Итак, я создал этот докер файл создание сообщения: А у меня есть несколько вопросов: Служба бэкенда не может подключиться к базе данных с помощью: локальный или 127.0.0.1, поэтому, мне удалось подключиться к базе данных с использованием частного IP (10.0.1.4 ) контейнера базы данных. Бэкэнд пытается подключиться к базе данных слишком рано, хотя это зависит от него. Приложение не может быть достигнуто из-за пределов. версия: услуги '3': дб: Изображение: test_db: 01 портов: - 3306 сети: - тест БД: изображение: тест-обратно: 01 портов: - 3000 среда: - SERVICE_PORTS = 3000 - DATABASE_HOST = локальный - NODE_ENV = развернуть развитие : YML подталкивать Все службы работают. локон HTTP: // локальный / апи / тест
may215
1

голосов
2

ответ
2.5k

Просмотры

docker-compose “No such file or directory” for sh-command

I am setting up docker-for-windows on my private pc. When I set it up a while ago on my office laptop I had the same issue but it just stopped happening. So I am stuck with this: I have a docker-working project (on my other computer) with a docker-compose.yml like this: version: '2' services: web: depends_on: - db build: . env_file: ./docker-compose.env command: bash ./run_web_local.sh volumes: - .:/srv/project ports: - 8001:8001 links: - db - rabbit restart: always Dockerfile: ### STAGE 1: Build ### # We label our stage as 'builder' FROM node:8-alpine as builder RUN npm set progress=false && npm config set depth 0 && npm cache clean --force # build backend ADD package.json /tmp/package.json ADD package-lock.json /tmp/package-lock.json RUN cd /tmp && npm install RUN mkdir -p /backend-app && cp -a /tmp/node_modules /backend-app ### STAGE 2: Setup ### FROM python:3 # Install Python dependencies COPY requirements.txt /tmp/requirements.txt RUN pip3 install -U pip RUN pip3 install --no-cache-dir -r /tmp/requirements.txt # Set env variables used in this Dockerfile (add a unique prefix, such as DOCKYARD) # Local directory with project source ENV PROJECT_SRC=. # Directory in container for all project files ENV PROJECT_SRVHOME=/srv # Directory in container for project source files ENV PROJECT_SRVPROJ=/srv/project # Create application subdirectories WORKDIR $PROJECT_SRVPROJ RUN mkdir media static staticfiles logs # make folders available for other containers VOLUME ["$PROJECT_SRVHOME/media/", "$PROJECT_SRVHOME/logs/"] # Copy application source code to SRCDIR COPY $PROJECT_SRC $PROJECT_SRVPROJ COPY --from=builder /backend-app/node_modules $PROJECT_SRVPROJ/node_modules # Copy entrypoint script into the image WORKDIR $PROJECT_SRVPROJ # EXPOSE port 8000 to allow communication to/from server EXPOSE 8000 CMD ["./run_web.sh"] docker-compose.env: C_FORCE_ROOT=True DJANGO_CELERY_BROKER_URL=amqp://admin:[email protected]:5672// DJANGO_DATABASE_ENGINE=django.db.backends.mysql DJANGO_DATABASE_NAME=project-db DJANGO_DATABASE_USER=project-user DJANGO_DATABASE_PASSWORD=mypassword DJANGO_DATABASE_HOST=db DJANGO_ALLOWED_HOSTS=127.0.0.1,localhost DJANGO_DEBUG=True DJANGO_USE_DEBUG_TOOLBAR=off DJANGO_TEST_RUN=off PYTHONUNBUFFERED=0 run_web_local.sh: #!/bin/bash echo django shell commands python ./manage.py migrate echo Starting django server on 127.0.0.1:8000 python ./manage.py runserver 127.0.0.1:8000 When I call docker-compose up web I get the following error: web_1 | bash: ./run_web_local.sh: No such file or directory I checked the line endings, they are UNIX the file exists on the file system as well as inside the container I can call bash run_web_local.sh from my windows powershell and inside the container I changed the UNIX permissions inside the container I left out the bash in the command in the docker-compose command. And tried with backslash, no dot etc. I reinstalled docker I tried switching to version 3 docker claims to have a connection to my shared drive C And: The exact same setup works on my other laptop. Any ideas? All the two million github posts didn't solve the problem for me. Thanks! Update Removing volumes: from the docker-compose makes it work like stated here but I don't have an instant mapping. That's kind of important for me...
Ron
1

голосов
1

ответ
920

Просмотры

Docker сочинять не может начать обслуживание сети не найден после перезагрузки докер

Я использую докер для окон (версия 18.03.0-Ce-win59 (16762)) в окнах 10 про. Все контейнеры работать нормально после запуска команды Докер-сочинить -до -d. Проблема заключается в том, когда я перезапустить службу Докер. Затем, после перезагрузки, все контейнеры купируются и когда я запускаю команду докер-Compose старт -d следующее сообщение об ошибке отображается: сообщение об ошибке от демона: сети ccccccccccccc не нашла я не знаю, что происходит. Когда я бегу контейнер с помощью бежать и --restart = всегда вариант все работает, как ожидалось. Ошибка не отображается при перезапуске. Это докер-Compose файл: версия: '3' услуги: service_1: изображения: рестарт image1: всегда строить: контекст: C: / ProgramData / Docker / объем / foo2 dockerfile: Dockerfile арг: ВСТУПЛЕНИЕ: "1" объемы: - C:
JosepB
1

голосов
1

ответ
55

Просмотры

Докер-Сотроз масштаб и настойчивое хранение данных

В настоящее время я работаю над проектом, реализующей Docker пользовательское изображение с постфикса почтовым сервером. Docker предоставит нам возможность масштабировать почтовую службу вверх / вниз. Вопрос у меня есть относительно хранения данных. В каждом случае контейнера, я хотел бы записать содержимое / вара / войти на хост или даже удаленный хост, если это возможно. Как и следовало ожидать, с моими текущим файлом докер-Compose масштабируемых экземплярами используют одни и то же место хранения. То, что я ищу, чтобы найти, если что-то вроде динамического хранения существует. Например, если я масштабироваться до 3-х экземпляров, то я хотел бы видеть 3 подкаталоги в каталоге / вар / Lib / грузчиком / объем / MYVOLUME / Ниже мой докер-compose.yml файл для справки. Версия: 3.2 '' услуги: сд-корп: Сложение: ./Corporate TTY: истинные сети: Corpnet: объемы: - Тип:
Squid

Просмотр дополнительных вопросов