[Py-ES] [Python-es] Sistemas de colas

lasizoillo lasizoillo at gmail.com
Tue Jul 6 01:29:36 CEST 2021


Buenas,

Te contesto entre lineas y perdona si me pongo un poco pedante o chapas.
Pero creo que es mejor no dar nada por hecho cuando hay más de un sistema
corriendo a la vez.

El lun, 5 jul 2021 a las 21:31, Felipe Maza (<felipe at felipem.com>) escribió:

> Hola,
>
> Llevo unos días viendo diferentes programas para gestionar sistemas de
> colas y, en principio, creo que casi todos parecen complejos para lo que
> necesito.
>
> Mi problema a resolver es el siguiente, tenemos un modelo de predicción
> que se ejecuta periódicamente y también bajo demanda del usuario. Ese
> modelo se ejecuta en un solo hilo y tarda bastantes minutos en completar la
> tarea. Por tanto, puedo tener varias ejecuciones simultáneas siempre que no
> excedamos el número de cores disponibles, ya que en ese caso se vuelve el
> sistema excesivamente lento. Al modelo se le invoca a través de una pequeña
> api hecha con flask. En el futuro puede que haya otros modelos en la
> misma máquina.
>
> Hace un par de años para un problema similar ya me programé mi propio
> gestor de colas rudimentario,pero ahora busco algo que sea estable, con
> pocos bugs, mantenible, etc.
>
> Las características que (creo que) necesito son:
> - Encolar tareas (logicamente)
>

Qué garantías de entrega quieres. Idealmente 1 vez y sólo una vez, pero en
el mundo real debes elegir entre al menos una vez y como máximo una vez. Si
tu tarea no es idempotente ese al menos una vez te puede generar problemas.
Pero, ¿es correcto perder algún trabajo para asegurar que no llegan
duplicados?

https://docs.celeryproject.org/en/stable/userguide/calling.html#message-sending-retry

- Tener colas con diferente prioridad (manuales, periódicas).
>

Colas con prioridad o diferentes rutas de mensajes para dimensionar de una
forma u otra los workers?

https://docs.celeryproject.org/en/master/faq.html#does-celery-support-task-priorities


> - Registrar la salida, tanto si ha tenido éxito como si ha tenido errores.
>

Qué ocurre si no llega a haber resultado? Imagina que tu tarea consume
mucha memoria y es matada por el OOM killer de linux (si es que usas linux,
si no imagina otro percance similar). O qué pasa si se apaga la máquina?
Quieres que se considere que la tarea no ha sido procesada y se reintente
si no has hecho ack de la tarea? Qué pasa si cada vez que reintentas la
tarea se genera un problema de memoria y nunca se hace ack de ella?

https://docs.celeryproject.org/en/stable/faq.html#why-do-workers-delete-tasks-from-the-queue-if-they-re-unable-to-process-them
https://docs.celeryproject.org/en/stable/faq.html#should-i-use-retry-or-acks-late
https://medium.com/@hengfeng/how-to-create-a-dead-letter-queue-in-celery-rabbitmq-401b17c72cd3

Qué ocurre si guardas los resultados de las tareas en un redis y este se
cae? Lo configuras con persistencia a disco? Cuánto tiempo te puedes
permitir perder resultados (que todavía persisten solo en memoria) ante una
caida del Redis?


> - (opcional) En un futuro ejecutar otras apis con modelo en la misma
> máquina.
>

En la misma máquina o en otra no es problema. Y separar los workers o no
hacerlo tampoco lo sería. Este es el único requisito que me ha parecido
simple.


>
>
> Lo primero que he explorado ha sido Celery, y es impresionante el montón
> de posibilidades que ofrece, tantas que ir poco más de los ejemplos
> iniciales me parece muy complejo para solucionar el problema anterior. Me
> da la sensación que hay que controlar un montón de aspectos para montarlo y
> mantenerlo correctamente; y que cuando aparezca algún error no va a ser
> rápido dar con la solución.
>

Es muy complejo, posiblemente demasiado complejo. Pero son complejidades
que hacen que se adapte a muchos tipos de problemas diferentes. Algunos
ejemplos:
- Cuando tienes tareas livianas ir haciendo prefetch de varios mensajes y
guardarlos en una cola junto al worker te quita tiempos de latencias.
Cuando tienes tareas pesadas (tu caso) ese prefetch puede hacer que un
worker acapare tareas mientras otros están ociosos
https://docs.celeryproject.org/en/stable/userguide/optimizing.html#prefetch-limits
- Si tu worker usa librerías con memory leaks, refrescar el worker después
de algunas tareas puede darte la estabilidad que no tienen tus
dependencias. Si no puedes configurar esto (en celery es configurable) te
tocará a ti reiniciar los workers de vez en cuando o meter un monitor que
los levante cuando mueran.
- Hay quien necesita y quien no montar workflows sobre las tareas
https://docs.celeryproject.org/en/stable/userguide/canvas.html
- Si tienes tareas programadas o recurrentes con celery puedes usar celery
beat y no depender del cron de tu sistema.
- ...


>
> Después de mirar otras alternativas, con la que parece que he montado una
> primera versión que parece que me lo soluciona, es Redis Queue (
> https://python- <https://python-rq.org/>rq <https://python-rq.org/>.org/
> <https://python-rq.org/>). La forma en la que utiliza Redis es
> relativamente simple, y más o menos ofrece lo que necesito.
> En el tema de los worker creo que ahí flojea un poco, pues parece que
> tendré que gestionar manualmente cuántos hay arrancados y si no se han
> muerto.
>
>
Si hay una opción más simple que celery y que resuelve tus requisitos
(presentes y futuros) tírate de cabeza a ella. Si no sabes cuáles son tus
requisitos celery es una opción conservadora: cuando sepas que requisitos
tienes posiblemente solo tengas que cambiar la config y en algún caso raro
y marciano (posiblemente nunca) hacer cosas con los blueprints para
extenderlo.


>
> ¿Tenéis experiencia resolviendo algún problema similar? ¿Creéis que merece
> la pena el esfuerzo para aprender celery (u otra solución) para algo que
> no debería ser muy complejo? ¿Redis os parece buen motor o debería ir a
> Rabbitmq? Nunca había usado ninguno de ellos. ¿Cómo gestionais el tema de
> los worker? Seguro que es más sencillo de lo que creo.
> Cualquier comentario que queráis hacer será bienvenido.
>
>
Celery es muy complejo. Estas son sus partes y como extenderlo
https://docs.celeryproject.org/en/latest/userguide/extending.html

Pero aparte de complejo tiene cosas que no aprovechan esa complejidad y
resultan complejas de usar correctamente, por ejemplo configurar celerybeat
en alta disponibilidad https://github.com/celery/celery/issues/251

Es por eso que odio con todas mis fuerzas celery. Por un lado tiene un
nivel de robustez y adaptabilidad a distintos tipos de trabajo que es digno
de admirar. Por otro es fácil, muy fácil, pegarse un tiro en un pié si lo
usas mal. Si no fuese porque todavía no he encontrado una alternativa mejor
(aunque tengo algún candidato para ser probado) dejaría de usarlo ya, pero
por el momento es lo menos malo que conozco.

Así que por ahora, y con la boca pequeña, recomiendo celery.

Un saludo,

Javi

>
> Gracias,
>
> Un saludo.
>
> --
> Felipe Maza Fernández
> felipe at felipem.com
> 622 338 121
> _______________________________________________
> Python-es mailing list
> Python-es at python.org
> https://mail.python.org/mailman/listinfo/python-es
>
-------------- next part --------------
An HTML attachment was scrubbed...
URL: <https://lists.es.python.org/pipermail/general/attachments/20210706/e8684aae/attachment-0001.htm>


More information about the general mailing list