django - celery 任务 .get() 不工作

标签 django docker redis rabbitmq celery

我将非常感谢对此的帮助!

这是我第一次尝试在 Docker 容器中将 Celery 与 Django 结合使用,经过数小时的阅读和试​​验,我无法解决这个问题。

问题

我可以从 polls.task 导入任务并使用 .delay() 运行它,如下所示:

python manage.py shell
from polls.tasks import add
task = add.delay(4,4)

当我运行它时,我可以通过 rabbitmq 容器看到一条消息。

如果我执行task.id,我可以获得任务id。

但是,如果我运行 task.get()程序就会挂起。我没有看到对任何容器采取任何行动,也没有得到任何结果。

我还注意到,当我运行 dc-up 并启动​​所有容器时,我在工作容器上得到以下输出,这似乎是正确的,包括能够看到我的任务已注册:

worker      |  -------------- default@5d0902ad9e2a v4.1.0 (latentcall)
worker      | ---- **** ----- 
worker      | --- * ***  * -- Linux-4.9.87-linuxkit-aufs-x86_64-with-debian-8.10 2018-03-30 09:45:01
worker      | -- * - **** --- 
worker      | - ** ---------- [config]
worker      | - ** ---------- .> app:         composeexample:0x7f2f3255e320
worker      | - ** ---------- .> transport:   amqp://admin:**@rabbitmq:5672//
worker      | - ** ---------- .> results:     redis://redis:6379/0
worker      | - *** --- * --- .> concurrency: 2 (prefork)
worker      | -- ******* ---- .> task events: ON
worker      | --- ***** ----- 
worker      |  -------------- [queues]
worker      |                 .> default          exchange=default(direct) key=default
worker      | 
worker      | [tasks]
worker      |   . polls.tasks.add
worker      | [2018-03-30 10:45:34,722: INFO/MainProcess] Connected to amqp://admin:**@rabbitmq:5672//
worker      | [2018-03-30 10:45:34,746: INFO/MainProcess] mingle: searching for neighbors
worker      | [2018-03-30 10:45:35,799: INFO/MainProcess] mingle: all alone
worker      | [2018-03-30 10:45:35,827: INFO/MainProcess] default@a7d75a442646 ready.

我怀疑我缺少 rabbitmq 和 worker 之间的某种形式的通信。我还想知道我是否只是错误地启动了工作人员,或者根本没有。我真的不知道。

我仔细检查了我的环境变量是否在 django 和 worker 容器中设置。

设置

我在 Docker 中有以下设置:Django、Redis(用于后端)、RabbitMQ(用于消息)、PSQL、Celery( worker 的单独容器)

这是我的 Dockerfile:

FROM python:3
ENV PYTHONUNBUFFERED 1

ADD requirements.txt /code/

WORKDIR /code/

RUN apt-get update && apt-get install -y \
    sudo \
    git

RUN pip install --upgrade pip && pip install -r requirements.txt

# create unprivileged user
RUN adduser --disabled-password --gecos '' myuser

这是我的 docker-compose.yml:

version: '3'

services:
  dbtest:
    image: postgres:10.1
    container_name: postgrestest
    expose:
      - "5432"
    volumes:
      - postgres_data:/var/lib/postgresl/data/
    networks:
      - lofi
  redis:
    image: redis:4.0.8
    container_name: redis
    networks:
      - lofi
  rabbitmq:
    image: rabbitmq:3.7.4
    container_name: rabbitmq
    env_file: .env
    ports:
      - "5672:5672"  # we forward this port because it's useful for debugging
      - "15672:15672"  # here, we can access rabbitmq management plugin
    networks:
      - lofi
  django:
    container_name: djcelerytest
    env_file: .env
    build:
      context: .
      dockerfile: Dockerfile
    command: python manage.py runserver 0.0.0.0:8000
    volumes:
      - .:/code
    ports:
      - "8000:8000"
      - "8888:8888"
    depends_on:
      - dbtest
      - rabbitmq
    networks:
      - lofi
  worker:
    env_file: .env
    build:
      context: .
      dockerfile: Dockerfile
    container_name: worker
    command: sh ./run_celery.sh
    volumes:
      - .:/code
    depends_on:
      - rabbitmq
      - redis
    networks:
      - lofi

networks:
  lofi:

volumes:
  postgres_data:
    external: true

我在 .env 文件中有以下设置,用于设置 Django 和 worker 容器:

CELERY_BROKER_URL=amqp://admin:mypass@rabbitmq//
CELERY_RESULT_BACKEND=redis://redis:6379/0
RABBITMQ_DEFAULT_USER=admin
RABBITMQ_DEFAULT_PASS=mypass

这是 run_celery.sh 文件:

#!/bin/sh

# wait for RabbitMQ server to start
sleep 10

# run Celery worker for our project myproject with Celery configuration stored in Celeryconf
su -m myuser -c "celery worker -E -A composeexample.celeryconf -Q default -n default@%h  --loglevel=INFO"

我要运行的任务在 tasks.py 中:

from composeexample.celeryconf import app
from .models import AddStore

@app.task
def add(x, y):
    value = x + y
    new = AddStore(value=value)
    new.save()
    return value

最佳答案

事实证明,在 run_celery.sh 文件中,我启动 celery worker 的命令包括 -Q default 选项,该选项不再存在到 docs .

所以如果你简单地改变它:

su -m myuser -c "celery worker -E -A composeexample.celeryconf -Q default -n default@%h  --loglevel=INFO"

为此:

su -m myuser -c "celery worker -E -A composeexample.celeryconf -n default@%h  --loglevel=INFO"

我可以毫无问题地调用 task.get()

关于django - celery 任务 .get() 不工作,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/49572373/

相关文章:

django - 从外键访问日期字段

python - 当放置在 models.py 外部时,Django 信号不起作用

caching - AWS docker set --no-cache 标志

redis - redis 中 used_memory_rss 太高

python - 从转储数据中排除 admin.logenty

python - django模型过滤字段的字段

docker - Gitlab CI - 在开发服务器上部署 docker-compose.yml,测试并部署到 PD

docker - 为什么loop-lvm设备存储不适合生产?

Redis 2.8.19 中的 Redis 集群支持

postgresql - Postgres : NOT IN array instead of NOT EXISTS expression