本文最后更新于:2024年7月6日 早上
引子 在工作中使用Celery
也有一段时间了,这里写一点关于Celery延伸出来的一个重要的技术点——消息队列。
Celery - Distributed Task Queue
这是Celery官方文档给出的一个定义,这里celery‘被定义为一个分布式的任务队列。Celery和Django配合时的工作模型如下:
这里就解释一个任务队列使如何搭配上一个消息队列来进行工作的,接下来我们一起来了解RabbitMQ的方方面面。
简介 什么是MQ? MQ全称为Message Queue, 消息队列 (MQ)是一种应用程序对应用程序的通信方法。应用程序通过读写出入队列的消息(针对应用程序的数据)来通信,而无需专用连接来链接它们。消 息传递指的是程序之间通过在消息中发送数据进行通信,而不是通过直接调用彼此来通信,直接调用通常是用于诸如远程过程调用 的技术。排队指的是应用程序通过 队列来通信。队列的使用除去了接收和发送应用程序同时执行的要求。
什么是RabbitMQ? RabbitMQ是一个在AMQP基础上完整的,可复用的企业消息系统。他遵循Mozilla Public License开源协议
RabbitMQ是一个消息代理:它接受和转发消息。 您可以将其视为顺丰快递:当您将要发布的消息快件给到顺丰快递手上,您可以确定顺丰以及快递小哥最终会将邮件发送给您的收件人。 在这个类比中,RabbitMQ是一个顺丰快递、快递小哥、丰巢。
RabbitMQ和顺丰之间的主要区别在于它不处理实体货物信件,而是接受,存储和转发二进制数据——消息。
RabbitMQ和一般的消息传递使用了一些术语:
生产(Producing)就是发送(消息)。 发送消息的程序就所谓的生产者(producer )
队列(queue )是RabbitMQ中的邮箱的名称。 虽然消息流经RabbitMQ和您的应用程序,但它们只能存储在队列中。 队列只受主机的内存和磁盘限制的约束,它本质上是一个大的消息缓冲区。 许多生产者可以发送到一个队列的消息,并且许多消费者可以尝试从一个队列接收数据。 这就是我们代表队列的方式:
消费(Consuming )与接受(receiving)有类似的意义。 消费者(consumer )是一个主要等待接收消息的程序:
请注意,生产者,消费者和代理不必驻留在同一主机上; 实际上在大多数应用中他们没有。 应用程序也可以是生产者和消费者。
RabbitMQ安装 1 2 3 4 5 6 7 8 安装配置epel源 $ rpm -ivh http:// dl.fedoraproject.org/pub/ epel/6/i 386/epel-release-6 -8 .noarch.rpm 安装erlang $ yum -y install erlang 安装RabbitMQ $ yum -y install rabbitmq-server
注意:service rabbitmq-server start/stop
安装API
1 2 3 4 5 6 7 pip install pika or easy_install pika or 源码 https:// pypi.python.org/pypi/ pika
回顾基于Queue实现生产者消费者模型
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 import queueimport threading message = queue.Queue(10 )def producer (i ): '''厨师,生产包子放入队列''' while True : message.put(i)def consumer (i ): '''消费者,从队列中取包子吃''' while True : msg = message.get()for i in range (12 ): 厨师的线程包子 t = threading.Thread(target=producer, args=(i,)) t.start()for i in range (10 ): 消费者的线程吃包子 t = threading.Thread(target=consumer, args=(i,)) t.start()
对于RabbitMQ来说,生产和消费不再针对内存里的一个Queue对象,而是某台服务器上的RabbitMQ Server实现的消息队列。
一、最基本的生产者消费者 1.生产者代码
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 import pika connection = pika.BlockingConnection(pika.ConnectionParameters(host='localhost' )) channel = connection.channel() channel.queue_declare(queue='hello' ) channel.basic_publish(exchange='' , routing_key='hello' , body='Hello World!' )print ("开始队列" ) connection.close()
2.消费者代码
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 import pika connection = pika.BlockingConnection(pika.ConnectionParameters(host='localhost' )) channel = connection.channel() channel.queue_declare(queue='hello' )def callback (ch, method, properties, body ): print (" [x] Received %r" % body) channel.basic_consume(callback, queue='hello' , no_ack=True )print (' [*] 等待信息. To exit press CTRL+C' ) channel.start_consuming()
二、acknowledgment 消息不丢失的方法 no-ack = False,如果生产者遇到情况(关闭通道,连接关闭或TCP连接丢失))挂掉了,那么,RabbitMQ会重新将该任务添加到队列中。1.生产者不变,但是还是复制上来吧
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 import pika connection = pika.BlockingConnection(pika.ConnectionParameters(host='localhost' )) channel = connection.channel() channel.queue_declare(queue='hello' ) channel.basic_publish(exchange='' , routing_key='hello' , body='Hello World!' )print ("开始队列" ) connection.close()
2.消费者
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 import pika connection = pika.BlockingConnection(pika.ConnectionParameters(host='localhost' )) channel = connection.channel() channel.queue_declare(queue='hello' )def callback (ch, method, properties, body ): print (" [x] Received %r" % body) import time time.sleep(10 ) print 'ok' ch.basic_ack(delivery_tag = method.delivery_tag) channel.basic_consume(callback, queue='hello' , no_ack=False )print (' [*] Waiting for messages. To exit press CTRL+C' ) channel.start_consuming()
当生产者生成一条数据,被消费者接收,消费者中断后如果不超过10秒,连接的时候数据还在。当超过10秒之后,重新链接,数据将消失。消费者等待链接。
三、durable 消息不丢失 (消息持久化) 这个 queue_declare 需要在 生产者(producer) 和消费方(consumer) 代码中都进行设置。1.生产者
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 import pika connection = pika.BlockingConnection(pika.ConnectionParameters(host='localhost' )) channel = connection.channel() channel.queue_declare(queue='hello' , durable=True ) channel.basic_publish(exchange='' , routing_key='hello' , body='Hello World!' , properties=pika.BasicProperties( delivery_mode=2 , ))print (" [x] 开始队列'" ) connection.close()
2.消费者
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 import pika connection = pika.BlockingConnection(pika.ConnectionParameters(host='localhost' )) channel = connection.channel() channel.queue_declare(queue='hello' , durable=True )def callback (ch, method, properties, body ): print (" [x] Received %r" % body) import time time.sleep(10 ) print 'ok' ch.basic_ack(delivery_tag = method.delivery_tag) channel.basic_consume(callback, queue='hello' , no_ack=False ) print (' [*] 等待队列. To exit press CTRL+C' ) channel.start_consuming()
注:标记消息为持久化的并不能完全保证消息不会丢失,尽管告诉RabbitMQ保存消息到磁盘,当RabbitMQ接收到消息还没有保存的时候仍然有一个短暂的时间窗口. RabbitMQ不会对每个消息都执行同步fsync(2) — 可能只是保存到缓存cache还没有写入到磁盘中,这个持久化保证不是很强,但这比我们简单的任务queue要好很多,如果你想很强的保证你可以使用 publisher confirms
四、消息获取顺序 默认消息队列里的数据是按照顺序被消费者拿走,例如:消费者1 去队列中获取 奇数 序列的任务,消费者1去队列中获取 偶数 序列的任务。 channel.basic_qos(prefetch_count=1) 表示谁来谁取,不再按照奇偶数排列
1.生产者
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 import pika import sys connection = pika.BlockingConnection(pika.ConnectionParameters( host='localhost' )) channel = connection.channel() channel.queue_declare(queue='task_queue' , durable=True ) message = ' ' .join(sys.argv[1 :]) or "Hello World!" channel.basic_publish(exchange='' , routing_key='task_queue' , body=message, properties=pika.BasicProperties( delivery_mode = 2 , )) print (" [x] Sent %r" % message) connection.close()
2.消费者
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 import pika connection = pika.BlockingConnection(pika.ConnectionParameters(host='localhost' )) channel = connection.channel() channel.queue_declare(queue='hello' durable=True ) def callback (ch, method, properties, body ): print (" [x] Received %r" % body) import time time.sleep(10 ) print 'ok' ch.basic_ack(delivery_tag = method.delivery_tag) channel.basic_qos(prefetch_count=1 ) channel.basic_consume(callback, queue='hello' , no_ack=False )print (' [*] Waiting for messages. To exit press CTRL+C' ) channel.start_consuming()
五、消息发布订阅 发布订阅和简单的消息队列区别在于,发布订阅会将消息发送给所有的订阅者,而消息队列中的数据被消费一次便消失。所以,RabbitMQ实现发布和订阅时,会为每一个订阅者创建一个队列,而发布者发布消息时,会将消息放置在所有相关队列中。
exchange type = fanout 1.发布者
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 import pika import sysconnection = pika.BlockingConnection(pika.ConnectionParameters( host ='localhost' )) channel = connection.channel() channel.exchange_declare(exchange ='logs' , type ='fanout' ) message = ' ' .join(sys.argv[1:]) or "info: Hello World!" channel.basic_publish(exchange ='logs' , routing_key ='' , body =message)print (" [x] Sent %r" % message) connection.close()
2.订阅者
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 import pika connection = pika.BlockingConnection(pika.ConnectionParameters( host='localhost' )) channel = connection.channel() channel.exchange_declare(exchange='logs' , type ='fanout' ) result = channel.queue_declare(exclusive=True ) queue_name = result.method.queue channel.queue_bind(exchange='logs' , queue=queue_name)print (' [*] Waiting for logs. To exit press CTRL+C' )def callback (ch, method, properties, body ): print (" [x] %r" % body) channel.basic_consume(callback, queue=queue_name, no_ack=True ) channel.start_consuming()
六、关键字发送 exchange type = direct
之前事例,发送消息时明确指定某个队列并向其中发送消息,RabbitMQ还支持根据关键字发送,即:队列绑定关键字,发送者将数据根据关键字发送到消息exchange,exchange根据 关键字 判定应该将数据发送至指定队列。
1.生产者:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 import pikaimport sys connection = pika.BlockingConnection(pika.ConnectionParameters( host='localhost' )) channel = connection.channel() channel.exchange_declare(exchange='direct_logs' , type ='direct' ) severity = sys.argv[1 ] if len (sys.argv) > 1 else 'info' message = ' ' .join(sys.argv[2 :]) or 'Hello World!' channel.basic_publish(exchange='direct_logs' , routing_key=severity, body=message)print (" [x] Sent %r:%r" % (severity, message)) connection.close()
2.消费者:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 import pikaimport sys connection = pika.BlockingConnection(pika.ConnectionParameters( host='localhost' )) channel = connection.channel() channel.exchange_declare(exchange='direct_logs' , type ='direct' ) result = channel.queue_declare(exclusive=True ) queue_name = result.method.queue severities = sys.argv[1 :]if not severities: sys.stderr.write("Usage: %s [info] [warning] [error]\n" % sys.argv[0 ]) sys.exit(1 )for severity in severities: channel.queue_bind(exchange='direct_logs' , queue=queue_name, routing_key=severity)print (' [*] Waiting for logs. To exit press CTRL+C' )def callback (ch, method, properties, body ): print (" [x] %r:%r" % (method.routing_key, body)) channel.basic_consume(callback, queue=queue_name, no_ack=True ) channel.start_consuming()
七、模糊匹配 exchange type = topic
在topic类型下,可以让队列绑定几个模糊的关键字,之后发送者将数据发送到exchange,exchange将传入”路由值“和 ”关键字“进行匹配,匹配成功,则将数据发送到指定队列。
1.消费者
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 import pikaimport sys connection = pika.BlockingConnection(pika.ConnectionParameters( host='localhost' )) channel = connection.channel() channel.exchange_declare(exchange='topic_logs' , type ='topic' ) result = channel.queue_declare(exclusive=True ) queue_name = result.method.queue binding_keys = sys.argv[1 :]if not binding_keys: sys.stderr.write("Usage: %s [binding_key]...\n" % sys.argv[0 ]) sys.exit(1 )for binding_key in binding_keys: channel.queue_bind(exchange='topic_logs' , queue=queue_name, routing_key=binding_key)print (' [*] Waiting for logs. To exit press CTRL+C' )def callback (ch, method, properties, body ): print (" [x] %r:%r" % (method.routing_key, body)) channel.basic_consume(callback, queue=queue_name, no_ack=True ) channel.start_consuming()
2.生产者
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 import pikaimport sys connection = pika.BlockingConnection(pika.ConnectionParameters( host='localhost' )) channel = connection.channel() channel.exchange_declare(exchange='topic_logs' , type ='topic' ) routing_key = sys.argv[1 ] if len (sys.argv) > 1 else 'anonymous.info' message = ' ' .join(sys.argv[2 :]) or 'Hello World!' channel.basic_publish(exchange='topic_logs' , routing_key=routing_key, body=message) print (" [x] Sent %r:%r" % (routing_key, message)) connection.close()
更多内容:以下参考:http://blog.csdn.net/songfreeman/article/details/50945025
八、work queue 1.循环调度(Round-robin dispatching)
使用多个消费者来接收并处理消息 默认,RabbitMQ将循环的发送每个消息到下一个Consumer , 平均每个Consumer都会收到同样数量的消息。 这种分发消息的方式成为 循环调度(round-robin)
生产者:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 import pikaimport sys connec = pika.BlockingConnection(pika.ConnectionParameters(host='localhost' )) channel = connec.channel() channel.queue_declare(queue='worker' ) message = ' ' .join(sys.argv[1 :]) or "Hello World" channel.basic_publish(exchange='' , routing_key='worker' , body=message, properties=pika.BasicProperties(delivery_mode = 2 ,) )print (" [x] Send %r " % message)
消费者:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 import timeimport pika connect = pika.BlockingConnection(pika.ConnectionParameters (host='localhost' )) channel = connect.channel() channel.queue_declare('worker' ) def callback (ch, method, properties,body ): print (" [x] Received %r" % body) time.sleep(body.count(b'.' )) print (" [x] Done" ) ch.basic_ack(delivery_tag = method.delivery_tag) channel.basic_consume(callback, queue='worker' , ) channel.start_consuming()
执行的时候两个消费者等待接收消息, 第一次生产者产生消息的时候被消费者1接收 第二次生产者产生消息的时候被消费者2接收