日志操作手册

作者

Vinay Sajip <vinay_sajip at red-dove dot com>

本页包含了许多日志记录相关的概念,这些概念在过去一直被认为很有用。

在多个模块中记录日志

多次调用``logging.getLogger(‘someLogger’)``会返回对同一个日志记录器对象的引用。不仅在同一个模块中是这样的,而且在不同模块之间,只要是在同一个Python解释器进程中,也是如此。 这就是对同一个对象的多个引用;此外,应用程序代码也可以在一个模块中定义和配置父日志记录器,在单独的模块中创建(但不配置)一个子日志记录器,并且对子日志记录器的所有调用都将传递给父日志记录器。 这里是一个主要模块:

  1. import logging
  2. import auxiliary_module
  3. # create logger with 'spam_application'
  4. logger = logging.getLogger('spam_application')
  5. logger.setLevel(logging.DEBUG)
  6. # create file handler which logs even debug messages
  7. fh = logging.FileHandler('spam.log')
  8. fh.setLevel(logging.DEBUG)
  9. # create console handler with a higher log level
  10. ch = logging.StreamHandler()
  11. ch.setLevel(logging.ERROR)
  12. # create formatter and add it to the handlers
  13. formatter = logging.Formatter('%(asctime)s - %(name)s - %(levelname)s - %(message)s')
  14. fh.setFormatter(formatter)
  15. ch.setFormatter(formatter)
  16. # add the handlers to the logger
  17. logger.addHandler(fh)
  18. logger.addHandler(ch)
  19. logger.info('creating an instance of auxiliary_module.Auxiliary')
  20. a = auxiliary_module.Auxiliary()
  21. logger.info('created an instance of auxiliary_module.Auxiliary')
  22. logger.info('calling auxiliary_module.Auxiliary.do_something')
  23. a.do_something()
  24. logger.info('finished auxiliary_module.Auxiliary.do_something')
  25. logger.info('calling auxiliary_module.some_function()')
  26. auxiliary_module.some_function()
  27. logger.info('done with auxiliary_module.some_function()')

这里是辅助模块:

  1. import logging
  2. # create logger
  3. module_logger = logging.getLogger('spam_application.auxiliary')
  4. class Auxiliary:
  5. def __init__(self):
  6. self.logger = logging.getLogger('spam_application.auxiliary.Auxiliary')
  7. self.logger.info('creating an instance of Auxiliary')
  8. def do_something(self):
  9. self.logger.info('doing something')
  10. a = 1 + 1
  11. self.logger.info('done doing something')
  12. def some_function():
  13. module_logger.info('received a call to "some_function"')

输出结果会像这样:

  1. 2005-03-23 23:47:11,663 - spam_application - INFO -
  2. creating an instance of auxiliary_module.Auxiliary
  3. 2005-03-23 23:47:11,665 - spam_application.auxiliary.Auxiliary - INFO -
  4. creating an instance of Auxiliary
  5. 2005-03-23 23:47:11,665 - spam_application - INFO -
  6. created an instance of auxiliary_module.Auxiliary
  7. 2005-03-23 23:47:11,668 - spam_application - INFO -
  8. calling auxiliary_module.Auxiliary.do_something
  9. 2005-03-23 23:47:11,668 - spam_application.auxiliary.Auxiliary - INFO -
  10. doing something
  11. 2005-03-23 23:47:11,669 - spam_application.auxiliary.Auxiliary - INFO -
  12. done doing something
  13. 2005-03-23 23:47:11,670 - spam_application - INFO -
  14. finished auxiliary_module.Auxiliary.do_something
  15. 2005-03-23 23:47:11,671 - spam_application - INFO -
  16. calling auxiliary_module.some_function()
  17. 2005-03-23 23:47:11,672 - spam_application.auxiliary - INFO -
  18. received a call to 'some_function'
  19. 2005-03-23 23:47:11,673 - spam_application - INFO -
  20. done with auxiliary_module.some_function()

在多个线程中记录日志

在多个线程中记录日志并不需要特殊的处理,以下示例展示了如何在主(初始)线程和另一个线程中记录日志:

  1. import logging
  2. import threading
  3. import time
  4. def worker(arg):
  5. while not arg['stop']:
  6. logging.debug('Hi from myfunc')
  7. time.sleep(0.5)
  8. def main():
  9. logging.basicConfig(level=logging.DEBUG, format='%(relativeCreated)6d %(threadName)s %(message)s')
  10. info = {'stop': False}
  11. thread = threading.Thread(target=worker, args=(info,))
  12. thread.start()
  13. while True:
  14. try:
  15. logging.debug('Hello from main')
  16. time.sleep(0.75)
  17. except KeyboardInterrupt:
  18. info['stop'] = True
  19. break
  20. thread.join()
  21. if __name__ == '__main__':
  22. main()

脚本会运行输出类似下面的内容:

  1. 0 Thread-1 Hi from myfunc
  2. 3 MainThread Hello from main
  3. 505 Thread-1 Hi from myfunc
  4. 755 MainThread Hello from main
  5. 1007 Thread-1 Hi from myfunc
  6. 1507 MainThread Hello from main
  7. 1508 Thread-1 Hi from myfunc
  8. 2010 Thread-1 Hi from myfunc
  9. 2258 MainThread Hello from main
  10. 2512 Thread-1 Hi from myfunc
  11. 3009 MainThread Hello from main
  12. 3013 Thread-1 Hi from myfunc
  13. 3515 Thread-1 Hi from myfunc
  14. 3761 MainThread Hello from main
  15. 4017 Thread-1 Hi from myfunc
  16. 4513 MainThread Hello from main
  17. 4518 Thread-1 Hi from myfunc

这表明不同线程的日志像期望的那样穿插输出,当然更多的线程也会像这样输出。

多个日志处理器以及多种格式化器

日志记录器是普通的Python对象。addHandler() 方法对可以添加的日志处理器的数量没有限制。有时候,应用程序需要将所有严重性的所有消息记录到一个文本文件,而将错误或更高等级的消息输出到控制台。要进行这样的设定,只需配置适当的日志处理器即可。在应用程序代码中,记录日志的调用将保持不变。以下是对之前基于模块的简单配置示例的略微修改:

  1. import logging
  2. logger = logging.getLogger('simple_example')
  3. logger.setLevel(logging.DEBUG)
  4. # create file handler which logs even debug messages
  5. fh = logging.FileHandler('spam.log')
  6. fh.setLevel(logging.DEBUG)
  7. # create console handler with a higher log level
  8. ch = logging.StreamHandler()
  9. ch.setLevel(logging.ERROR)
  10. # create formatter and add it to the handlers
  11. formatter = logging.Formatter('%(asctime)s - %(name)s - %(levelname)s - %(message)s')
  12. ch.setFormatter(formatter)
  13. fh.setFormatter(formatter)
  14. # add the handlers to logger
  15. logger.addHandler(ch)
  16. logger.addHandler(fh)
  17. # 'application' code
  18. logger.debug('debug message')
  19. logger.info('info message')
  20. logger.warn('warn message')
  21. logger.error('error message')
  22. logger.critical('critical message')

需要注意的是,’应用程序’ 代码并不关心是否有多个日志处理器。所有的改变的只是添加和配置了一个新的名为fh的日志处理器。

在编写和测试应用程序时,能够创建带有更高或更低消息等级的过滤器的日志处理器是非常有用的。为了避免过多地使用 print 语句去调试,请使用 logger.debug :它不像 print 语句需要你不得不在调试结束后注释或删除掉,logger.debug 语句可以在源代码中保持不变,在你再一次需要它之前保持无效。那时,唯一需要改变的是修改日志记录器和/或日志处理器的消息等级,以进行调试。

在多个地方记录日志

假设有这样一种情况,你需要将日志按不同的格式和不同的情况存储在控制台和文件中。比如说想把日志等级为DEBUG或更高的消息记录于文件中,而把那些等级为INFO或更高的消息输出在控制台。而且记录在文件中的消息格式需要包含时间戳,打印在控制台的不需要。以下示例展示了如何做到:

  1. import logging
  2. # set up logging to file - see previous section for more details
  3. logging.basicConfig(level=logging.DEBUG,
  4. format='%(asctime)s %(name)-12s %(levelname)-8s %(message)s',
  5. datefmt='%m-%d %H:%M',
  6. filename='/temp/myapp.log',
  7. filemode='w')
  8. # define a Handler which writes INFO messages or higher to the sys.stderr
  9. console = logging.StreamHandler()
  10. console.setLevel(logging.INFO)
  11. # set a format which is simpler for console use
  12. formatter = logging.Formatter('%(name)-12s: %(levelname)-8s %(message)s')
  13. # tell the handler to use this format
  14. console.setFormatter(formatter)
  15. # add the handler to the root logger
  16. logging.getLogger('').addHandler(console)
  17. # Now, we can log to the root logger, or any other logger. First the root...
  18. logging.info('Jackdaws love my big sphinx of quartz.')
  19. # Now, define a couple of other loggers which might represent areas in your
  20. # application:
  21. logger1 = logging.getLogger('myapp.area1')
  22. logger2 = logging.getLogger('myapp.area2')
  23. logger1.debug('Quick zephyrs blow, vexing daft Jim.')
  24. logger1.info('How quickly daft jumping zebras vex.')
  25. logger2.warning('Jail zesty vixen who grabbed pay from quack.')
  26. logger2.error('The five boxing wizards jump quickly.')

当运行后,你会看到控制台如下所示

  1. root : INFO Jackdaws love my big sphinx of quartz.
  2. myapp.area1 : INFO How quickly daft jumping zebras vex.
  3. myapp.area2 : WARNING Jail zesty vixen who grabbed pay from quack.
  4. myapp.area2 : ERROR The five boxing wizards jump quickly.

而在文件中会看到像这样

  1. 10-22 22:19 root INFO Jackdaws love my big sphinx of quartz.
  2. 10-22 22:19 myapp.area1 DEBUG Quick zephyrs blow, vexing daft Jim.
  3. 10-22 22:19 myapp.area1 INFO How quickly daft jumping zebras vex.
  4. 10-22 22:19 myapp.area2 WARNING Jail zesty vixen who grabbed pay from quack.
  5. 10-22 22:19 myapp.area2 ERROR The five boxing wizards jump quickly.

正如你所看到的,DEBUG级别的消息只展示在文件中,而其他消息两个地方都会输出。

这个示例只演示了在控制台和文件中去记录日志,但你也可以自由组合任意数量的日志处理器。

日志服务器配置示例

以下是在一个模块中使用日志服务器配置的示例:

  1. import logging
  2. import logging.config
  3. import time
  4. import os
  5. # read initial config file
  6. logging.config.fileConfig('logging.conf')
  7. # create and start listener on port 9999
  8. t = logging.config.listen(9999)
  9. t.start()
  10. logger = logging.getLogger('simpleExample')
  11. try:
  12. # loop through logging calls to see the difference
  13. # new configurations make, until Ctrl+C is pressed
  14. while True:
  15. logger.debug('debug message')
  16. logger.info('info message')
  17. logger.warn('warn message')
  18. logger.error('error message')
  19. logger.critical('critical message')
  20. time.sleep(5)
  21. except KeyboardInterrupt:
  22. # cleanup
  23. logging.config.stopListening()
  24. t.join()

然后如下的脚本,它接收文件名做为命令行参数,并将该文件以二进制编码的方式传给服务器,做为新的日志服务器配置:

  1. #!/usr/bin/env python
  2. import socket, sys, struct
  3. with open(sys.argv[1], 'rb') as f:
  4. data_to_send = f.read()
  5. HOST = 'localhost'
  6. PORT = 9999
  7. s = socket.socket(socket.AF_INET, socket.SOCK_STREAM)
  8. print('connecting...')
  9. s.connect((HOST, PORT))
  10. print('sending config...')
  11. s.send(struct.pack('>L', len(data_to_send)))
  12. s.send(data_to_send)
  13. s.close()
  14. print('complete')

处理日志处理器的阻塞

有时候需要让日志处理程序在不阻塞当前正在记录线程的情况下完成工作。 这在Web应用程序中很常见,当然也会在其他场景中出现。

一个常见的缓慢行为是 SMTPHandler: 由于开发者无法控制的多种原因(例如,性能不佳的邮件或网络基础架构),发送电子邮件可能需要很长时间。 其实几乎所有基于网络的处理程序都可能造成阻塞:即便是 SocketHandler 也可能在底层进行 DNS 查询,这太慢了(这个查询会深入至套接字代码,位于 Python 层之下,这是不受开发者控制的)。

一种解决方案是分成两部分去处理。第一部分,针对那些对性能有要求的关键线程的日志记录附加一个 QueueHandler。 日志记录器只需简单写入队列,该队列可以设置一个足够大的容量甚至不设置容量上限。通常写入队列是一个快速的操作,即使可能需要在代码中去捕获例如 queue.Full 等异常。 如果你是一名处理关键线程的开发者,请务必记录这些信息 (包括建议只为日志处理器附加 QueueHandlers) 以便于其他开发者使用你的代码。

解决方案的另一部分是 QueueListener,它被设计用来作为 QueueHandler 的对应。 QueueListener 非常简单:向其传入一个队列和一些处理句柄,它会启动一个内部线程来监听从 QueueHandlers (或任何其他可用的 LogRecords 源) 发送过来的 LogRecords 队列。 LogRecords 会从队列中被移除,并被传递给句柄进行处理。

使用一个单独的类 QueueListener 优点是可以使用同一个实例去服务于多个``QueueHandlers``。这样会更节省资源,否则每个处理程序都占用一个线程没有任何益处。

以下是使用了这样两个类的示例(省略了导入语句):

  1. que = queue.Queue(-1) # no limit on size
  2. queue_handler = QueueHandler(que)
  3. handler = logging.StreamHandler()
  4. listener = QueueListener(que, handler)
  5. root = logging.getLogger()
  6. root.addHandler(queue_handler)
  7. formatter = logging.Formatter('%(threadName)s: %(message)s')
  8. handler.setFormatter(formatter)
  9. listener.start()
  10. # The log output will display the thread which generated
  11. # the event (the main thread) rather than the internal
  12. # thread which monitors the internal queue. This is what
  13. # you want to happen.
  14. root.warning('Look out!')
  15. listener.stop()

在运行后会产生:

  1. MainThread: Look out!

在 3.5 版更改: 在Python 3.5之前,QueueListener 总是把从队列中接收的每个消息都传给它初始化的日志处理程序。(这是因为它会假设过滤级别总是在队列的另一侧去设置的。) 从Python 3.5开始,可以通过在监听器构造函数中添加一个参数``respect_handler_level=True``改变这种情况。当这样设置时,监听器会比较每条消息的等级和日志处理器中设置的等级,只把需要传递的消息传给对应的日志处理器。

通过网络发送和接收日志

如果你想在网络上发送日志,并在接收端处理它们。一个简单的方式是通过附加一个 SocketHandler 的实例在发送端的根日志处理器中:

  1. import logging, logging.handlers
  2. rootLogger = logging.getLogger('')
  3. rootLogger.setLevel(logging.DEBUG)
  4. socketHandler = logging.handlers.SocketHandler('localhost',
  5. logging.handlers.DEFAULT_TCP_LOGGING_PORT)
  6. # don't bother with a formatter, since a socket handler sends the event as
  7. # an unformatted pickle
  8. rootLogger.addHandler(socketHandler)
  9. # Now, we can log to the root logger, or any other logger. First the root...
  10. logging.info('Jackdaws love my big sphinx of quartz.')
  11. # Now, define a couple of other loggers which might represent areas in your
  12. # application:
  13. logger1 = logging.getLogger('myapp.area1')
  14. logger2 = logging.getLogger('myapp.area2')
  15. logger1.debug('Quick zephyrs blow, vexing daft Jim.')
  16. logger1.info('How quickly daft jumping zebras vex.')
  17. logger2.warning('Jail zesty vixen who grabbed pay from quack.')
  18. logger2.error('The five boxing wizards jump quickly.')

在接收端,你可以使用 socketserver 模块设置一个接收器。这里是一个基础示例:

  1. import pickle
  2. import logging
  3. import logging.handlers
  4. import socketserver
  5. import struct
  6. class LogRecordStreamHandler(socketserver.StreamRequestHandler):
  7. """Handler for a streaming logging request.
  8. This basically logs the record using whatever logging policy is
  9. configured locally.
  10. """
  11. def handle(self):
  12. """
  13. Handle multiple requests - each expected to be a 4-byte length,
  14. followed by the LogRecord in pickle format. Logs the record
  15. according to whatever policy is configured locally.
  16. """
  17. while True:
  18. chunk = self.connection.recv(4)
  19. if len(chunk) < 4:
  20. break
  21. slen = struct.unpack('>L', chunk)[0]
  22. chunk = self.connection.recv(slen)
  23. while len(chunk) < slen:
  24. chunk = chunk + self.connection.recv(slen - len(chunk))
  25. obj = self.unPickle(chunk)
  26. record = logging.makeLogRecord(obj)
  27. self.handleLogRecord(record)
  28. def unPickle(self, data):
  29. return pickle.loads(data)
  30. def handleLogRecord(self, record):
  31. # if a name is specified, we use the named logger rather than the one
  32. # implied by the record.
  33. if self.server.logname is not None:
  34. name = self.server.logname
  35. else:
  36. name = record.name
  37. logger = logging.getLogger(name)
  38. # N.B. EVERY record gets logged. This is because Logger.handle
  39. # is normally called AFTER logger-level filtering. If you want
  40. # to do filtering, do it at the client end to save wasting
  41. # cycles and network bandwidth!
  42. logger.handle(record)
  43. class LogRecordSocketReceiver(socketserver.ThreadingTCPServer):
  44. """
  45. Simple TCP socket-based logging receiver suitable for testing.
  46. """
  47. allow_reuse_address = True
  48. def __init__(self, host='localhost',
  49. port=logging.handlers.DEFAULT_TCP_LOGGING_PORT,
  50. handler=LogRecordStreamHandler):
  51. socketserver.ThreadingTCPServer.__init__(self, (host, port), handler)
  52. self.abort = 0
  53. self.timeout = 1
  54. self.logname = None
  55. def serve_until_stopped(self):
  56. import select
  57. abort = 0
  58. while not abort:
  59. rd, wr, ex = select.select([self.socket.fileno()],
  60. [], [],
  61. self.timeout)
  62. if rd:
  63. self.handle_request()
  64. abort = self.abort
  65. def main():
  66. logging.basicConfig(
  67. format='%(relativeCreated)5d %(name)-15s %(levelname)-8s %(message)s')
  68. tcpserver = LogRecordSocketReceiver()
  69. print('About to start TCP server...')
  70. tcpserver.serve_until_stopped()
  71. if __name__ == '__main__':
  72. main()

首先运行服务端,然后是客户端。在客户端,没有什么内容会打印在控制台中;在服务端,你应该会看到如下内容:

  1. About to start TCP server...
  2. 59 root INFO Jackdaws love my big sphinx of quartz.
  3. 59 myapp.area1 DEBUG Quick zephyrs blow, vexing daft Jim.
  4. 69 myapp.area1 INFO How quickly daft jumping zebras vex.
  5. 69 myapp.area2 WARNING Jail zesty vixen who grabbed pay from quack.
  6. 69 myapp.area2 ERROR The five boxing wizards jump quickly.

请注意,在某些情况下序列化会存在一些安全。如果这影响到你,那么你可以通过覆盖 makePickle() 方法,使用自己的实现来解决,并调整上述脚本也使用覆盖后的序列化方法。

在日志记录中添加上下文信息

有时,除了传递给日志记录器调用的参数外,我们还希望日志记录中包含上下文信息。例如,有一个网络应用,可能需要记录一些特殊的客户端信息在日志中(比如客户端的用户名、IP地址等)。虽然你可以通过设置额外的参数去达到这个目的,但这种方式不一定方便。或者你可能想到在每个连接的基础上创建一个 Logger 的实例,但这些实例是不会被垃圾回收的,这在练习中也许不是问题,但当 Logger 的实例数量取决于你应用程序中想记录的细致程度时,如果 Logger 的实例数量不受限制的话,将会变得难以管理。

使用日志适配器传递上下文信息

一个传递上下文信息和日志事件信息的简单办法是使用类 LoggerAdapter。 这个类设计的像 Logger,所以可以直接调用 debug()info()warning()error()exception()critical()log()。 这些方法在对应的 Logger 中使用相同的签名,所以可以交替使用两种类型的实例。

当你创建一个 LoggerAdapter 的实例时,你会传入一个 Logger 的实例和一个包含了上下文信息的字典对象。当你调用一个 LoggerAdapter 实例的方法时,它会把调用委托给内部的 Logger 的实例,并为其整理相关的上下文信息。这是 LoggerAdapter 的一个代码片段:

  1. def debug(self, msg, *args, **kwargs):
  2. """
  3. Delegate a debug call to the underlying logger, after adding
  4. contextual information from this adapter instance.
  5. """
  6. msg, kwargs = self.process(msg, kwargs)
  7. self.logger.debug(msg, *args, **kwargs)

LoggerAdapterprocess() 方法是将上下文信息添加到日志的输出中。 它传入日志消息和日志调用的关键字参数,并传回(隐式的)这些修改后的内容去调用底层的日志记录器。此方法的默认参数只是一个消息字段,但留有一个 ‘extra’ 的字段作为关键字参数传给构造器。当然,如果你在调用适配器时传入了一个 ‘extra’ 字段的参数,它会被静默覆盖。

使用 ‘extra’ 的优点是这些键值对会被传入 LogRecord 实例的 __dict__ 中,让你通过 Formatter 的实例直接使用定制的字符串,实例能找到这个字典类对象的键。 如果你需要一个其他的方法,比如说,想要在消息字符串前后增加上下文信息,你只需要创建一个 LoggerAdapter 的子类,并覆盖它的 process() 方法来做你想做的事情,以下是一个简单的示例:

  1. class CustomAdapter(logging.LoggerAdapter):
  2. """
  3. This example adapter expects the passed in dict-like object to have a
  4. 'connid' key, whose value in brackets is prepended to the log message.
  5. """
  6. def process(self, msg, kwargs):
  7. return '[%s] %s' % (self.extra['connid'], msg), kwargs

你可以这样使用:

  1. logger = logging.getLogger(__name__)
  2. adapter = CustomAdapter(logger, {'connid': some_conn_id})

然后,你记录在适配器中的任何事件消息前将添加``some_conn_id``的值。

使用除字典之外的其它对象传递上下文信息

你不需要将一个实际的字典传递给 LoggerAdapter-你可以传入一个实现了``__getitem__`` 和``__iter__``的类的实例,这样它就像是一个字典。这对于你想动态生成值(而字典中的值往往是常量)将很有帮助。

使用过滤器传递上下文信息

你也可以使用一个用户定义的类 Filter 在日志输出中添加上下文信息。Filter 的实例是被允许修改传入的 LogRecords,包括添加其他的属性,然后可以使用合适的格式化字符串输出,或者可以使用一个自定义的类 Formatter

例如,在一个web应用程序中,正在处理的请求(或者至少是请求的一部分),可以存储在一个线程本地(threading.local) 变量中,然后从``Filter``中去访问。请求中的信息,如IP地址和用户名将被存储在``LogRecord``中,使用上例``LoggerAdapter``中的 ‘ip’ 和 ‘user’ 属性名。在这种情况下,可以使用相同的格式化字符串来得到上例中类似的输出结果。这是一段示例代码:

  1. import logging
  2. from random import choice
  3. class ContextFilter(logging.Filter):
  4. """
  5. This is a filter which injects contextual information into the log.
  6. Rather than use actual contextual information, we just use random
  7. data in this demo.
  8. """
  9. USERS = ['jim', 'fred', 'sheila']
  10. IPS = ['123.231.231.123', '127.0.0.1', '192.168.0.1']
  11. def filter(self, record):
  12. record.ip = choice(ContextFilter.IPS)
  13. record.user = choice(ContextFilter.USERS)
  14. return True
  15. if __name__ == '__main__':
  16. levels = (logging.DEBUG, logging.INFO, logging.WARNING, logging.ERROR, logging.CRITICAL)
  17. logging.basicConfig(level=logging.DEBUG,
  18. format='%(asctime)-15s %(name)-5s %(levelname)-8s IP: %(ip)-15s User: %(user)-8s %(message)s')
  19. a1 = logging.getLogger('a.b.c')
  20. a2 = logging.getLogger('d.e.f')
  21. f = ContextFilter()
  22. a1.addFilter(f)
  23. a2.addFilter(f)
  24. a1.debug('A debug message')
  25. a1.info('An info message with %s', 'some parameters')
  26. for x in range(10):
  27. lvl = choice(levels)
  28. lvlname = logging.getLevelName(lvl)
  29. a2.log(lvl, 'A message at %s level with %d %s', lvlname, 2, 'parameters')

在运行时,产生如下内容:

  1. 2010-09-06 22:38:15,292 a.b.c DEBUG IP: 123.231.231.123 User: fred A debug message
  2. 2010-09-06 22:38:15,300 a.b.c INFO IP: 192.168.0.1 User: sheila An info message with some parameters
  3. 2010-09-06 22:38:15,300 d.e.f CRITICAL IP: 127.0.0.1 User: sheila A message at CRITICAL level with 2 parameters
  4. 2010-09-06 22:38:15,300 d.e.f ERROR IP: 127.0.0.1 User: jim A message at ERROR level with 2 parameters
  5. 2010-09-06 22:38:15,300 d.e.f DEBUG IP: 127.0.0.1 User: sheila A message at DEBUG level with 2 parameters
  6. 2010-09-06 22:38:15,300 d.e.f ERROR IP: 123.231.231.123 User: fred A message at ERROR level with 2 parameters
  7. 2010-09-06 22:38:15,300 d.e.f CRITICAL IP: 192.168.0.1 User: jim A message at CRITICAL level with 2 parameters
  8. 2010-09-06 22:38:15,300 d.e.f CRITICAL IP: 127.0.0.1 User: sheila A message at CRITICAL level with 2 parameters
  9. 2010-09-06 22:38:15,300 d.e.f DEBUG IP: 192.168.0.1 User: jim A message at DEBUG level with 2 parameters
  10. 2010-09-06 22:38:15,301 d.e.f ERROR IP: 127.0.0.1 User: sheila A message at ERROR level with 2 parameters
  11. 2010-09-06 22:38:15,301 d.e.f DEBUG IP: 123.231.231.123 User: fred A message at DEBUG level with 2 parameters
  12. 2010-09-06 22:38:15,301 d.e.f INFO IP: 123.231.231.123 User: fred A message at INFO level with 2 parameters

从多个进程记录至单个文件

尽管 logging 是线程安全的,将单个进程中的多个线程日志记录至单个文件也 受支持的,但将 多个进程 中的日志记录至单个文件则 不是 受支持的,因为在 Python 中并没有在多个进程中实现对单个文件访问的序列化的标准方案。 如果你需要将多个进程中的日志记录至单个文件,有一个方案是让所有进程都将日志记录至一个 SocketHandler,然后用一个实现了套接字服务器的单独进程一边从套接字中读取一边将日志记录至文件。 (如果愿意的话,你可以在一个现有进程中专门开一个线程来执行此项功能。) 这一部分 文档对此方式有更详细的介绍,并包含一个可用的套接字接收器,你自己的应用可以在此基础上进行适配。

如果你使用的是包含了 multiprocessing 模块的较新版本的 Python,你也可以使用 Lock 来编写自己的处理程序让其从多个进程中按顺序记录至文件。 现有的 FileHandler 和它的子类目前没有使用 multiprocessing,尽管将来可能会这样做。 请注意目前 multiprocessing 模块并非在所有平台上提供可用的锁功能 (参见 https://bugs.python.org/issue3770)。

或者,你也可以使用 QueueQueueHandler 将所有的日志事件发送至你的多进程应用的一个进程中。 以下示例脚本演示了如何执行此操作。 在示例中,一个单独的监听进程负责监听其他进程的日志事件,并根据自己的配置记录。 尽管示例只演示了这种方法(例如你可能希望使用单独的监听线程而非监听进程 —— 它们的实现是类似的),但你也可以在应用程序的监听进程和其他进程使用不同的配置,它可以作为满足你特定需求的一个基础:

  1. # You'll need these imports in your own code
  2. import logging
  3. import logging.handlers
  4. import multiprocessing
  5. # Next two import lines for this demo only
  6. from random import choice, random
  7. import time
  8. #
  9. # Because you'll want to define the logging configurations for listener and workers, the
  10. # listener and worker process functions take a configurer parameter which is a callable
  11. # for configuring logging for that process. These functions are also passed the queue,
  12. # which they use for communication.
  13. #
  14. # In practice, you can configure the listener however you want, but note that in this
  15. # simple example, the listener does not apply level or filter logic to received records.
  16. # In practice, you would probably want to do this logic in the worker processes, to avoid
  17. # sending events which would be filtered out between processes.
  18. #
  19. # The size of the rotated files is made small so you can see the results easily.
  20. def listener_configurer():
  21. root = logging.getLogger()
  22. h = logging.handlers.RotatingFileHandler('mptest.log', 'a', 300, 10)
  23. f = logging.Formatter('%(asctime)s %(processName)-10s %(name)s %(levelname)-8s %(message)s')
  24. h.setFormatter(f)
  25. root.addHandler(h)
  26. # This is the listener process top-level loop: wait for logging events
  27. # (LogRecords)on the queue and handle them, quit when you get a None for a
  28. # LogRecord.
  29. def listener_process(queue, configurer):
  30. configurer()
  31. while True:
  32. try:
  33. record = queue.get()
  34. if record is None: # We send this as a sentinel to tell the listener to quit.
  35. break
  36. logger = logging.getLogger(record.name)
  37. logger.handle(record) # No level or filter logic applied - just do it!
  38. except Exception:
  39. import sys, traceback
  40. print('Whoops! Problem:', file=sys.stderr)
  41. traceback.print_exc(file=sys.stderr)
  42. # Arrays used for random selections in this demo
  43. LEVELS = [logging.DEBUG, logging.INFO, logging.WARNING,
  44. logging.ERROR, logging.CRITICAL]
  45. LOGGERS = ['a.b.c', 'd.e.f']
  46. MESSAGES = [
  47. 'Random message #1',
  48. 'Random message #2',
  49. 'Random message #3',
  50. ]
  51. # The worker configuration is done at the start of the worker process run.
  52. # Note that on Windows you can't rely on fork semantics, so each process
  53. # will run the logging configuration code when it starts.
  54. def worker_configurer(queue):
  55. h = logging.handlers.QueueHandler(queue) # Just the one handler needed
  56. root = logging.getLogger()
  57. root.addHandler(h)
  58. # send all messages, for demo; no other level or filter logic applied.
  59. root.setLevel(logging.DEBUG)
  60. # This is the worker process top-level loop, which just logs ten events with
  61. # random intervening delays before terminating.
  62. # The print messages are just so you know it's doing something!
  63. def worker_process(queue, configurer):
  64. configurer(queue)
  65. name = multiprocessing.current_process().name
  66. print('Worker started: %s' % name)
  67. for i in range(10):
  68. time.sleep(random())
  69. logger = logging.getLogger(choice(LOGGERS))
  70. level = choice(LEVELS)
  71. message = choice(MESSAGES)
  72. logger.log(level, message)
  73. print('Worker finished: %s' % name)
  74. # Here's where the demo gets orchestrated. Create the queue, create and start
  75. # the listener, create ten workers and start them, wait for them to finish,
  76. # then send a None to the queue to tell the listener to finish.
  77. def main():
  78. queue = multiprocessing.Queue(-1)
  79. listener = multiprocessing.Process(target=listener_process,
  80. args=(queue, listener_configurer))
  81. listener.start()
  82. workers = []
  83. for i in range(10):
  84. worker = multiprocessing.Process(target=worker_process,
  85. args=(queue, worker_configurer))
  86. workers.append(worker)
  87. worker.start()
  88. for w in workers:
  89. w.join()
  90. queue.put_nowait(None)
  91. listener.join()
  92. if __name__ == '__main__':
  93. main()

上面脚本的一个变种,仍然在主进程中记录日志,但使用一个单独的线程:

  1. import logging
  2. import logging.config
  3. import logging.handlers
  4. from multiprocessing import Process, Queue
  5. import random
  6. import threading
  7. import time
  8. def logger_thread(q):
  9. while True:
  10. record = q.get()
  11. if record is None:
  12. break
  13. logger = logging.getLogger(record.name)
  14. logger.handle(record)
  15. def worker_process(q):
  16. qh = logging.handlers.QueueHandler(q)
  17. root = logging.getLogger()
  18. root.setLevel(logging.DEBUG)
  19. root.addHandler(qh)
  20. levels = [logging.DEBUG, logging.INFO, logging.WARNING, logging.ERROR,
  21. logging.CRITICAL]
  22. loggers = ['foo', 'foo.bar', 'foo.bar.baz',
  23. 'spam', 'spam.ham', 'spam.ham.eggs']
  24. for i in range(100):
  25. lvl = random.choice(levels)
  26. logger = logging.getLogger(random.choice(loggers))
  27. logger.log(lvl, 'Message no. %d', i)
  28. if __name__ == '__main__':
  29. q = Queue()
  30. d = {
  31. 'version': 1,
  32. 'formatters': {
  33. 'detailed': {
  34. 'class': 'logging.Formatter',
  35. 'format': '%(asctime)s %(name)-15s %(levelname)-8s %(processName)-10s %(message)s'
  36. }
  37. },
  38. 'handlers': {
  39. 'console': {
  40. 'class': 'logging.StreamHandler',
  41. 'level': 'INFO',
  42. },
  43. 'file': {
  44. 'class': 'logging.FileHandler',
  45. 'filename': 'mplog.log',
  46. 'mode': 'w',
  47. 'formatter': 'detailed',
  48. },
  49. 'foofile': {
  50. 'class': 'logging.FileHandler',
  51. 'filename': 'mplog-foo.log',
  52. 'mode': 'w',
  53. 'formatter': 'detailed',
  54. },
  55. 'errors': {
  56. 'class': 'logging.FileHandler',
  57. 'filename': 'mplog-errors.log',
  58. 'mode': 'w',
  59. 'level': 'ERROR',
  60. 'formatter': 'detailed',
  61. },
  62. },
  63. 'loggers': {
  64. 'foo': {
  65. 'handlers': ['foofile']
  66. }
  67. },
  68. 'root': {
  69. 'level': 'DEBUG',
  70. 'handlers': ['console', 'file', 'errors']
  71. },
  72. }
  73. workers = []
  74. for i in range(5):
  75. wp = Process(target=worker_process, name='worker %d' % (i + 1), args=(q,))
  76. workers.append(wp)
  77. wp.start()
  78. logging.config.dictConfig(d)
  79. lp = threading.Thread(target=logger_thread, args=(q,))
  80. lp.start()
  81. # At this point, the main process could do some useful work of its own
  82. # Once it's done that, it can wait for the workers to terminate...
  83. for wp in workers:
  84. wp.join()
  85. # And now tell the logging thread to finish up, too
  86. q.put(None)
  87. lp.join()

这段变种的代码展示了如何使用特定的日志记录配置 - 例如``foo``记录器使用了特殊的处理程序,将 foo 子系统中所有的事件记录至一个文件 mplog-foo.log。在主进程(即使是在工作进程中产生的日志事件)的日志记录机制中将直接使用恰当的配置。

轮换日志文件

有时,你希望当日志文件不断记录增长至一定大小时,打开一个新的文件接着记录。 你可能希望只保留一定数量的日志文件,当不断的创建文件到达该数量时,又覆盖掉最开始的文件形成循环。 对于这种使用场景,日志包提供了 RotatingFileHandler:

  1. import glob
  2. import logging
  3. import logging.handlers
  4. LOG_FILENAME = 'logging_rotatingfile_example.out'
  5. # Set up a specific logger with our desired output level
  6. my_logger = logging.getLogger('MyLogger')
  7. my_logger.setLevel(logging.DEBUG)
  8. # Add the log message handler to the logger
  9. handler = logging.handlers.RotatingFileHandler(
  10. LOG_FILENAME, maxBytes=20, backupCount=5)
  11. my_logger.addHandler(handler)
  12. # Log some messages
  13. for i in range(20):
  14. my_logger.debug('i = %d' % i)
  15. # See what files are created
  16. logfiles = glob.glob('%s*' % LOG_FILENAME)
  17. for filename in logfiles:
  18. print(filename)

结果应该是6个单独的文件,每个文件都包含了应用程序的部分历史日志:

  1. logging_rotatingfile_example.out
  2. logging_rotatingfile_example.out.1
  3. logging_rotatingfile_example.out.2
  4. logging_rotatingfile_example.out.3
  5. logging_rotatingfile_example.out.4
  6. logging_rotatingfile_example.out.5

最新的文件始终是:file:logging_rotatingfile_example.out,每次到达大小限制时,都会使用后缀``.1``重命名。每个现有的备份文件都会被重命名并增加其后缀(例如``.1`` 变为``.2``),而``.6``文件会被删除掉。

显然,这个例子将日志长度设置得太小,这是一个极端的例子。 你可能希望将maxBytes设置为一个合适的值。

使用其他日志格式化方式

当日志模块被添加至 Python 标准库时,只有一种格式化消息内容的方法即 %-formatting。 在那之后,Python 又增加了两种格式化方法: string.Template (在 Python 2.4 中新增) 和 str.format() (在 Python 2.6 中新增)。

日志(从 3.2 开始)为这两种格式化方式提供了更多支持。Formatter 类可以添加一个额外的可选关键字参数 style。它的默认值是 '%',其他的值 '{''$' 也支持,对应了其他两种格式化样式。其保持了向后兼容(如您所愿),但通过显示指定样式参数,你可以指定格式化字符串的方式是使用 str.format()string.Template。 这里是一个控制台会话的示例,展示了这些方式:

  1. >>> import logging
  2. >>> root = logging.getLogger()
  3. >>> root.setLevel(logging.DEBUG)
  4. >>> handler = logging.StreamHandler()
  5. >>> bf = logging.Formatter('{asctime} {name} {levelname:8s} {message}',
  6. ... style='{')
  7. >>> handler.setFormatter(bf)
  8. >>> root.addHandler(handler)
  9. >>> logger = logging.getLogger('foo.bar')
  10. >>> logger.debug('This is a DEBUG message')
  11. 2010-10-28 15:11:55,341 foo.bar DEBUG This is a DEBUG message
  12. >>> logger.critical('This is a CRITICAL message')
  13. 2010-10-28 15:12:11,526 foo.bar CRITICAL This is a CRITICAL message
  14. >>> df = logging.Formatter('$asctime $name ${levelname} $message',
  15. ... style='$')
  16. >>> handler.setFormatter(df)
  17. >>> logger.debug('This is a DEBUG message')
  18. 2010-10-28 15:13:06,924 foo.bar DEBUG This is a DEBUG message
  19. >>> logger.critical('This is a CRITICAL message')
  20. 2010-10-28 15:13:11,494 foo.bar CRITICAL This is a CRITICAL message
  21. >>>

请注意最终输出到日志的消息格式完全独立于单条日志消息的构造方式。 它仍然可以使用 %-formatting,如下所示:

  1. >>> logger.error('This is an%s %s %s', 'other,', 'ERROR,', 'message')
  2. 2010-10-28 15:19:29,833 foo.bar ERROR This is another, ERROR, message
  3. >>>

Logging calls (logger.debug(), logger.info() etc.) only take positional parameters for the actual logging message itself, with keyword parameters used only for determining options for how to handle the actual logging call (e.g. the exc_info keyword parameter to indicate that traceback information should be logged, or the extra keyword parameter to indicate additional contextual information to be added to the log). So you cannot directly make logging calls using str.format() or string.Template syntax, because internally the logging package uses %-formatting to merge the format string and the variable arguments. There would no changing this while preserving backward compatibility, since all logging calls which are out there in existing code will be using %-format strings.

还有一种方法可以构建自己的日志信息,就是利用 {}- 和 $- 格式。回想一下,任意对象都可用为日志信息的格式串,日志包将会调用该对象的 str() 方法,以获取最终的格式串。不妨看下一下两个类:

  1. class BraceMessage:
  2. def __init__(self, fmt, *args, **kwargs):
  3. self.fmt = fmt
  4. self.args = args
  5. self.kwargs = kwargs
  6. def __str__(self):
  7. return self.fmt.format(*self.args, **self.kwargs)
  8. class DollarMessage:
  9. def __init__(self, fmt, **kwargs):
  10. self.fmt = fmt
  11. self.kwargs = kwargs
  12. def __str__(self):
  13. from string import Template
  14. return Template(self.fmt).substitute(**self.kwargs)

上述两个类均可代替格式串,使得能用 {}- 或 $-formatting 构建最终的“日志信息”部分,这些信息将出现在格式化后的日志输出中,替换 %(message)s 或“{message}”或“$message”。每次写入日志时都要使用类名,有点不大实用,但如果用上 __ 之类的别名就相当合适了(双下划线 — 不要与 _ 混淆,单下划线用作 gettext.gettext() 或相关函数的同义词/别名 )。

Python 并没有上述两个类,当然复制粘贴到自己的代码中也很容易。用法可如下所示(假定在名为 wherever 的模块中声明):

  1. >>> from wherever import BraceMessage as __
  2. >>> print(__('Message with {0} {name}', 2, name='placeholders'))
  3. Message with 2 placeholders
  4. >>> class Point: pass
  5. ...
  6. >>> p = Point()
  7. >>> p.x = 0.5
  8. >>> p.y = 0.5
  9. >>> print(__('Message with coordinates: ({point.x:.2f}, {point.y:.2f})',
  10. ... point=p))
  11. Message with coordinates: (0.50, 0.50)
  12. >>> from wherever import DollarMessage as __
  13. >>> print(__('Message with $num $what', num=2, what='placeholders'))
  14. Message with 2 placeholders
  15. >>>

上述示例用了 print() 演示格式化输出的过程,实际记录日志时当然会用类似 logger.debug() 的方法来应用。

值得注意的是,上述做法对性能并没什么影响:格式化过程其实不是在日志记录调用时发生的,而是在日志信息即将由 handler 输出到日志时发生。因此,唯一可能让人困惑的稍不寻常的地方,就是包裹在格式串和参数外面的括号,而不是格式串。因为 __ 符号只是对 XXXMessage 类的构造函数调用的语法糖。

只要愿意,上述类似的效果即可用 LoggerAdapter 实现,如下例所示:

  1. import logging
  2. class Message(object):
  3. def __init__(self, fmt, args):
  4. self.fmt = fmt
  5. self.args = args
  6. def __str__(self):
  7. return self.fmt.format(*self.args)
  8. class StyleAdapter(logging.LoggerAdapter):
  9. def __init__(self, logger, extra=None):
  10. super(StyleAdapter, self).__init__(logger, extra or {})
  11. def log(self, level, msg, *args, **kwargs):
  12. if self.isEnabledFor(level):
  13. msg, kwargs = self.process(msg, kwargs)
  14. self.logger._log(level, Message(msg, args), (), **kwargs)
  15. logger = StyleAdapter(logging.getLogger(__name__))
  16. def main():
  17. logger.debug('Hello, {}', 'world!')
  18. if __name__ == '__main__':
  19. logging.basicConfig(level=logging.DEBUG)
  20. main()

在用 Python 3.2 以上版本运行时,上述代码应该会把 Hello, world! 写入日志。

自定义 LogRecord

每条日志事件都由一个 LogRecord 实例表示。当某事件要记入日志并且没有被某级别过滤掉时,就会创建一个 LogRecord 对象,并将有关事件的信息填入,传给该日志对象的 handler(及其祖先,直至对象禁止向上传播为止)。在 Python 3.2 之前,只有两个地方会进行事件的创建:

  • Logger.makeRecord(),在事件正常记入日志的过程中调用。这会直接调用 LogRecord 来创建一个实例。

  • makeLogRecord(),调用时会带上一个字典参数,其中存放着要加入 LogRecord 的属性。这通常在通过网络接收到合适的字典时调用(如通过 SocketHandler 以 pickle 形式,或通过 HTTPHandler 以 JSON 形式)。

于是这意味着若要对 LogRecord 进行定制,必须进行下述某种操作。

比如说在有多个不同库要完成不同操作的场景下,第一种方式会有点笨拙。 每次都要尝试设置自己的 Logger 子类,而起作用的是最后一次尝试。

第二种方式在多数情况下效果都比较良好,但不允许你使用特殊化的 LogRecord 子类。 库开发者可以为他们的日志记录器设置合适的过滤器,但他们应当要记得每次引入新的日志记录器时都需如此(他们只需通过添加新的包或模块并执行以下操作即可):

  1. logger = logging.getLogger(__name__)

或许这样要顾及太多事情。开发人员还可以将过滤器附加到其顶级日志对象的 NullHandler 中,但如果应用程序开发人员将 handler 附加到较底层库的日志对象,则不会调用该过滤器 — 所以 handler 输出的内容不会符合库开发人员的预期。

在 Python 3.2 以上版本中,LogRecord 的创建是通过工厂对象完成的,工厂对象可以指定。工厂对象只是一个可调用对象,可以用 setLogRecordFactory() 进行设置,并用 getLogRecordFactory() 进行查询。工厂对象的调用参数与 LogRecord 的构造函数相同,因为 LogRecord 是工厂对象的默认设置。

这种方式可以让自定义工厂对象完全控制 LogRecord 的创建过程。比如可以返回一个子类,或者在创建的日志对象中加入一些额外的属性,使用方式如下所示:

  1. old_factory = logging.getLogRecordFactory()
  2. def record_factory(*args, **kwargs):
  3. record = old_factory(*args, **kwargs)
  4. record.custom_attribute = 0xdecafbad
  5. return record
  6. logging.setLogRecordFactory(record_factory)

这种模式允许不同的库将多个工厂对象链在一起,只要不会覆盖彼此的属性或标准属性,就不会出现意外。但应记住,工厂链中的每个节点都会增加日志操作的运行开销,本技术仅在采用 Filter 无法达到目标时才应使用。

子类化 QueueHandler - ZeroMQ 示例

你可以使用 QueueHandler 子类将消息发送给其他类型的队列 ,比如 ZeroMQ ‘publish’ 套接字。 在以下示例中,套接字将单独创建并传给处理句柄 (作为它的 ‘queue’):

  1. import zmq # using pyzmq, the Python binding for ZeroMQ
  2. import json # for serializing records portably
  3. ctx = zmq.Context()
  4. sock = zmq.Socket(ctx, zmq.PUB) # or zmq.PUSH, or other suitable value
  5. sock.bind('tcp://*:5556') # or wherever
  6. class ZeroMQSocketHandler(QueueHandler):
  7. def enqueue(self, record):
  8. self.queue.send_json(record.__dict__)
  9. handler = ZeroMQSocketHandler(sock)

当然还有其他方案,比如通过 hander 传入所需数据,以创建 socket:

  1. class ZeroMQSocketHandler(QueueHandler):
  2. def __init__(self, uri, socktype=zmq.PUB, ctx=None):
  3. self.ctx = ctx or zmq.Context()
  4. socket = zmq.Socket(self.ctx, socktype)
  5. socket.bind(uri)
  6. super().__init__(socket)
  7. def enqueue(self, record):
  8. self.queue.send_json(record.__dict__)
  9. def close(self):
  10. self.queue.close()

子类化 QueueListener —— ZeroMQ 示例

你还可以子类化 QueueListener 来从其他类型的队列中获取消息,比如从 ZeroMQ ‘subscribe’ 套接字。 下面是一个例子:

  1. class ZeroMQSocketListener(QueueListener):
  2. def __init__(self, uri, *handlers, **kwargs):
  3. self.ctx = kwargs.get('ctx') or zmq.Context()
  4. socket = zmq.Socket(self.ctx, zmq.SUB)
  5. socket.setsockopt_string(zmq.SUBSCRIBE, '') # subscribe to everything
  6. socket.connect(uri)
  7. super().__init__(socket, *handlers, **kwargs)
  8. def dequeue(self):
  9. msg = self.queue.recv_json()
  10. return logging.makeLogRecord(msg)

参见

模块 logging

日志记录模块的 API 参考。

模块 logging.config

日志记录模块的配置 API 。

模块 logging.handlers

日志记录模块附带的有用处理程序。

日志操作基础教程

日志操作的高级教程

基于字典进行日志配置的示例

Below is an example of a logging configuration dictionary - it’s taken from the documentation on the Django project. This dictionary is passed to dictConfig() to put the configuration into effect:

  1. LOGGING = {
  2. 'version': 1,
  3. 'disable_existing_loggers': True,
  4. 'formatters': {
  5. 'verbose': {
  6. 'format': '%(levelname)s %(asctime)s %(module)s %(process)d %(thread)d %(message)s'
  7. },
  8. 'simple': {
  9. 'format': '%(levelname)s %(message)s'
  10. },
  11. },
  12. 'filters': {
  13. 'special': {
  14. '()': 'project.logging.SpecialFilter',
  15. 'foo': 'bar',
  16. }
  17. },
  18. 'handlers': {
  19. 'null': {
  20. 'level':'DEBUG',
  21. 'class':'django.utils.log.NullHandler',
  22. },
  23. 'console':{
  24. 'level':'DEBUG',
  25. 'class':'logging.StreamHandler',
  26. 'formatter': 'simple'
  27. },
  28. 'mail_admins': {
  29. 'level': 'ERROR',
  30. 'class': 'django.utils.log.AdminEmailHandler',
  31. 'filters': ['special']
  32. }
  33. },
  34. 'loggers': {
  35. 'django': {
  36. 'handlers':['null'],
  37. 'propagate': True,
  38. 'level':'INFO',
  39. },
  40. 'django.request': {
  41. 'handlers': ['mail_admins'],
  42. 'level': 'ERROR',
  43. 'propagate': False,
  44. },
  45. 'myproject.custom': {
  46. 'handlers': ['console', 'mail_admins'],
  47. 'level': 'INFO',
  48. 'filters': ['special']
  49. }
  50. }
  51. }

For more information about this configuration, you can see the relevant section of the Django documentation.

利用 rotator 和 namer 自定义日志轮换操作

以下代码给出了定义 namer 和 rotator 的示例,其中演示了基于 zlib 的日志文件压缩过程:

  1. def namer(name):
  2. return name + ".gz"
  3. def rotator(source, dest):
  4. with open(source, "rb") as sf:
  5. data = sf.read()
  6. compressed = zlib.compress(data, 9)
  7. with open(dest, "wb") as df:
  8. df.write(compressed)
  9. os.remove(source)
  10. rh = logging.handlers.RotatingFileHandler(...)
  11. rh.rotator = rotator
  12. rh.namer = namer

这些不是“真正的” .gz 文件,因为他们只是纯压缩数据,缺少真正 gzip 文件中的“容器”。此段代码只是用于演示。

更加详细的多道处理示例

以下可运行的示例显示了如何利用配置文件在多进程中应用日志。这些配置相当简单,但足以说明如何在真实的多进程场景中实现较为复杂的配置。

上述示例中,主进程产生一个侦听器进程和一些工作进程。每个主进程、侦听器进程和工作进程都有三种独立的日志配置(工作进程共享同一套配置)。大家可以看到主进程的日志记录过程、工作线程向 QueueHandler 写入日志的过程,以及侦听器实现 QueueListener 和较为复杂的日志配置,如何将由队列接收到的事件分发给配置指定的 handler。请注意,这些配置纯粹用于演示,但应该能调整代码以适用于自己的场景。

以下是代码——但愿文档字符串和注释能有助于理解其工作原理:

  1. import logging
  2. import logging.config
  3. import logging.handlers
  4. from multiprocessing import Process, Queue, Event, current_process
  5. import os
  6. import random
  7. import time
  8. class MyHandler:
  9. """
  10. A simple handler for logging events. It runs in the listener process and
  11. dispatches events to loggers based on the name in the received record,
  12. which then get dispatched, by the logging system, to the handlers
  13. configured for those loggers.
  14. """
  15. def handle(self, record):
  16. logger = logging.getLogger(record.name)
  17. # The process name is transformed just to show that it's the listener
  18. # doing the logging to files and console
  19. record.processName = '%s (for %s)' % (current_process().name, record.processName)
  20. logger.handle(record)
  21. def listener_process(q, stop_event, config):
  22. """
  23. This could be done in the main process, but is just done in a separate
  24. process for illustrative purposes.
  25. This initialises logging according to the specified configuration,
  26. starts the listener and waits for the main process to signal completion
  27. via the event. The listener is then stopped, and the process exits.
  28. """
  29. logging.config.dictConfig(config)
  30. listener = logging.handlers.QueueListener(q, MyHandler())
  31. listener.start()
  32. if os.name == 'posix':
  33. # On POSIX, the setup logger will have been configured in the
  34. # parent process, but should have been disabled following the
  35. # dictConfig call.
  36. # On Windows, since fork isn't used, the setup logger won't
  37. # exist in the child, so it would be created and the message
  38. # would appear - hence the "if posix" clause.
  39. logger = logging.getLogger('setup')
  40. logger.critical('Should not appear, because of disabled logger ...')
  41. stop_event.wait()
  42. listener.stop()
  43. def worker_process(config):
  44. """
  45. A number of these are spawned for the purpose of illustration. In
  46. practice, they could be a heterogeneous bunch of processes rather than
  47. ones which are identical to each other.
  48. This initialises logging according to the specified configuration,
  49. and logs a hundred messages with random levels to randomly selected
  50. loggers.
  51. A small sleep is added to allow other processes a chance to run. This
  52. is not strictly needed, but it mixes the output from the different
  53. processes a bit more than if it's left out.
  54. """
  55. logging.config.dictConfig(config)
  56. levels = [logging.DEBUG, logging.INFO, logging.WARNING, logging.ERROR,
  57. logging.CRITICAL]
  58. loggers = ['foo', 'foo.bar', 'foo.bar.baz',
  59. 'spam', 'spam.ham', 'spam.ham.eggs']
  60. if os.name == 'posix':
  61. # On POSIX, the setup logger will have been configured in the
  62. # parent process, but should have been disabled following the
  63. # dictConfig call.
  64. # On Windows, since fork isn't used, the setup logger won't
  65. # exist in the child, so it would be created and the message
  66. # would appear - hence the "if posix" clause.
  67. logger = logging.getLogger('setup')
  68. logger.critical('Should not appear, because of disabled logger ...')
  69. for i in range(100):
  70. lvl = random.choice(levels)
  71. logger = logging.getLogger(random.choice(loggers))
  72. logger.log(lvl, 'Message no. %d', i)
  73. time.sleep(0.01)
  74. def main():
  75. q = Queue()
  76. # The main process gets a simple configuration which prints to the console.
  77. config_initial = {
  78. 'version': 1,
  79. 'formatters': {
  80. 'detailed': {
  81. 'class': 'logging.Formatter',
  82. 'format': '%(asctime)s %(name)-15s %(levelname)-8s %(processName)-10s %(message)s'
  83. }
  84. },
  85. 'handlers': {
  86. 'console': {
  87. 'class': 'logging.StreamHandler',
  88. 'level': 'INFO',
  89. },
  90. },
  91. 'root': {
  92. 'level': 'DEBUG',
  93. 'handlers': ['console']
  94. },
  95. }
  96. # The worker process configuration is just a QueueHandler attached to the
  97. # root logger, which allows all messages to be sent to the queue.
  98. # We disable existing loggers to disable the "setup" logger used in the
  99. # parent process. This is needed on POSIX because the logger will
  100. # be there in the child following a fork().
  101. config_worker = {
  102. 'version': 1,
  103. 'disable_existing_loggers': True,
  104. 'handlers': {
  105. 'queue': {
  106. 'class': 'logging.handlers.QueueHandler',
  107. 'queue': q,
  108. },
  109. },
  110. 'root': {
  111. 'level': 'DEBUG',
  112. 'handlers': ['queue']
  113. },
  114. }
  115. # The listener process configuration shows that the full flexibility of
  116. # logging configuration is available to dispatch events to handlers however
  117. # you want.
  118. # We disable existing loggers to disable the "setup" logger used in the
  119. # parent process. This is needed on POSIX because the logger will
  120. # be there in the child following a fork().
  121. config_listener = {
  122. 'version': 1,
  123. 'disable_existing_loggers': True,
  124. 'formatters': {
  125. 'detailed': {
  126. 'class': 'logging.Formatter',
  127. 'format': '%(asctime)s %(name)-15s %(levelname)-8s %(processName)-10s %(message)s'
  128. },
  129. 'simple': {
  130. 'class': 'logging.Formatter',
  131. 'format': '%(name)-15s %(levelname)-8s %(processName)-10s %(message)s'
  132. }
  133. },
  134. 'handlers': {
  135. 'console': {
  136. 'class': 'logging.StreamHandler',
  137. 'level': 'INFO',
  138. 'formatter': 'simple',
  139. },
  140. 'file': {
  141. 'class': 'logging.FileHandler',
  142. 'filename': 'mplog.log',
  143. 'mode': 'w',
  144. 'formatter': 'detailed',
  145. },
  146. 'foofile': {
  147. 'class': 'logging.FileHandler',
  148. 'filename': 'mplog-foo.log',
  149. 'mode': 'w',
  150. 'formatter': 'detailed',
  151. },
  152. 'errors': {
  153. 'class': 'logging.FileHandler',
  154. 'filename': 'mplog-errors.log',
  155. 'mode': 'w',
  156. 'level': 'ERROR',
  157. 'formatter': 'detailed',
  158. },
  159. },
  160. 'loggers': {
  161. 'foo': {
  162. 'handlers': ['foofile']
  163. }
  164. },
  165. 'root': {
  166. 'level': 'DEBUG',
  167. 'handlers': ['console', 'file', 'errors']
  168. },
  169. }
  170. # Log some initial events, just to show that logging in the parent works
  171. # normally.
  172. logging.config.dictConfig(config_initial)
  173. logger = logging.getLogger('setup')
  174. logger.info('About to create workers ...')
  175. workers = []
  176. for i in range(5):
  177. wp = Process(target=worker_process, name='worker %d' % (i + 1),
  178. args=(config_worker,))
  179. workers.append(wp)
  180. wp.start()
  181. logger.info('Started worker: %s', wp.name)
  182. logger.info('About to create listener ...')
  183. stop_event = Event()
  184. lp = Process(target=listener_process, name='listener',
  185. args=(q, stop_event, config_listener))
  186. lp.start()
  187. logger.info('Started listener')
  188. # We now hang around for the workers to finish their work.
  189. for wp in workers:
  190. wp.join()
  191. # Workers all done, listening can now stop.
  192. # Logging in the parent still works normally.
  193. logger.info('Telling listener to stop ...')
  194. stop_event.set()
  195. lp.join()
  196. logger.info('All done.')
  197. if __name__ == '__main__':
  198. main()

在发送给 SysLogHandler 的信息中插入一个 BOM。

RFC 5424 要求,Unicode 信息应采用字节流形式发送到系统 syslog 守护程序,字节流结构如下所示:可选的纯 ASCII部分,后跟 UTF-8 字节序标记(BOM),然后是采用 UTF-8 编码的 Unicode。(参见 相关规范 。)

在 Python 3.1 的 SysLogHandler 中,已加入了在日志信息中插入 BOM 的代码,但不幸的是,代码并不正确,BOM 出现在了日志信息的开头,因此在它之前就不允许出现纯 ASCII 内容了。

由于无法正常工作, Python 3.2.4 以上版本已删除了出错的插入 BOM 代码。但已有版本的代码不会被替换,若要生成与 RFC 5424 兼容的日志信息,包括一个 BOM 符,前面有可选的纯 ASCII 字节流,后面为 UTF-8 编码的任意 Unicode,那么 需要执行以下操作:

  1. SysLogHandler 实例串上一个 Formatter 实例,格式串可如下:

    1. 'ASCII section\ufeffUnicode section'

    用 UTF-8 编码时,Unicode 码位 U+FEFF 将会编码为 UTF-8 BOM——字节串 b'\xef\xbb\xbf'

  2. 用任意占位符替换 ASCII 部分,但要保证替换之后的数据一定是 ASCII 码(这样在 UTF-8 编码后就会维持不变)。

  3. 用任意占位符替换 Unicode 部分;如果替换后的数据包含超出 ASCII 范围的字符,没问题——他们将用 UTF-8 进行编码。

SysLogHandler 对格式化后的日志信息进行 UTF-8 编码。如果遵循上述规则,应能生成符合 RFC 5424 的日志信息。否则,日志记录过程可能不会有什么反馈,但日志信息将不与 RFC 5424 兼容,syslog 守护程序可能会有出错反应。

结构化日志的实现代码

大多数日志信息是供人阅读的,所以机器解析起来并不容易,但某些时候可能希望以结构化的格式输出,以 能够 被程序解析(无需用到复杂的正则表达式)。这可以直接用 logging 包实现。实现方式有很多,以下是一种比较简单的方案,利用 JSON 以机器可解析的方式对事件信息进行序列化:

  1. import json
  2. import logging
  3. class StructuredMessage(object):
  4. def __init__(self, message, **kwargs):
  5. self.message = message
  6. self.kwargs = kwargs
  7. def __str__(self):
  8. return '%s >>> %s' % (self.message, json.dumps(self.kwargs))
  9. _ = StructuredMessage # optional, to improve readability
  10. logging.basicConfig(level=logging.INFO, format='%(message)s')
  11. logging.info(_('message 1', foo='bar', bar='baz', num=123, fnum=123.456))

上述代码运行后的结果是:

  1. message 1 >>> {"fnum": 123.456, "num": 123, "bar": "baz", "foo": "bar"}

请注意,根据 Python 版本的不同,各项数据的输出顺序可能会不一样。

若需进行更为定制化的处理,可以使用自定义 JSON 编码对象,下面给出完整示例:

  1. from __future__ import unicode_literals
  2. import json
  3. import logging
  4. # This next bit is to ensure the script runs unchanged on 2.x and 3.x
  5. try:
  6. unicode
  7. except NameError:
  8. unicode = str
  9. class Encoder(json.JSONEncoder):
  10. def default(self, o):
  11. if isinstance(o, set):
  12. return tuple(o)
  13. elif isinstance(o, unicode):
  14. return o.encode('unicode_escape').decode('ascii')
  15. return super(Encoder, self).default(o)
  16. class StructuredMessage(object):
  17. def __init__(self, message, **kwargs):
  18. self.message = message
  19. self.kwargs = kwargs
  20. def __str__(self):
  21. s = Encoder().encode(self.kwargs)
  22. return '%s >>> %s' % (self.message, s)
  23. _ = StructuredMessage # optional, to improve readability
  24. def main():
  25. logging.basicConfig(level=logging.INFO, format='%(message)s')
  26. logging.info(_('message 1', set_value={1, 2, 3}, snowman='\u2603'))
  27. if __name__ == '__main__':
  28. main()

上述代码运行后的结果是:

  1. message 1 >>> {"snowman": "\u2603", "set_value": [1, 2, 3]}

请注意,根据 Python 版本的不同,各项数据的输出顺序可能会不一样。

利用 dictConfig() 自定义 handler

有时需要以特定方式自定义日志 handler,如果采用 dictConfig(),可能无需生成子类就可以做到。比如要设置日志文件的所有权。在 POSIX 上,可以利用 shutil.chown() 轻松完成,但 stdlib 中的文件 handler 并不提供内置支持。于是可以用普通函数自定义 handler 的创建,例如:

  1. def owned_file_handler(filename, mode='a', encoding=None, owner=None):
  2. if owner:
  3. if not os.path.exists(filename):
  4. open(filename, 'a').close()
  5. shutil.chown(filename, *owner)
  6. return logging.FileHandler(filename, mode, encoding)

然后,你可以在传给 dictConfig() 的日志配置中指定通过调用此函数来创建日志处理程序:

  1. LOGGING = {
  2. 'version': 1,
  3. 'disable_existing_loggers': False,
  4. 'formatters': {
  5. 'default': {
  6. 'format': '%(asctime)s %(levelname)s %(name)s %(message)s'
  7. },
  8. },
  9. 'handlers': {
  10. 'file':{
  11. # The values below are popped from this dictionary and
  12. # used to create the handler, set the handler's level and
  13. # its formatter.
  14. '()': owned_file_handler,
  15. 'level':'DEBUG',
  16. 'formatter': 'default',
  17. # The values below are passed to the handler creator callable
  18. # as keyword arguments.
  19. 'owner': ['pulse', 'pulse'],
  20. 'filename': 'chowntest.log',
  21. 'mode': 'w',
  22. 'encoding': 'utf-8',
  23. },
  24. },
  25. 'root': {
  26. 'handlers': ['file'],
  27. 'level': 'DEBUG',
  28. },
  29. }

出于演示目的,以下示例设置用户和用户组为 pulse。代码置于一个可运行的脚本文件 chowntest.py 中:

  1. import logging, logging.config, os, shutil
  2. def owned_file_handler(filename, mode='a', encoding=None, owner=None):
  3. if owner:
  4. if not os.path.exists(filename):
  5. open(filename, 'a').close()
  6. shutil.chown(filename, *owner)
  7. return logging.FileHandler(filename, mode, encoding)
  8. LOGGING = {
  9. 'version': 1,
  10. 'disable_existing_loggers': False,
  11. 'formatters': {
  12. 'default': {
  13. 'format': '%(asctime)s %(levelname)s %(name)s %(message)s'
  14. },
  15. },
  16. 'handlers': {
  17. 'file':{
  18. # The values below are popped from this dictionary and
  19. # used to create the handler, set the handler's level and
  20. # its formatter.
  21. '()': owned_file_handler,
  22. 'level':'DEBUG',
  23. 'formatter': 'default',
  24. # The values below are passed to the handler creator callable
  25. # as keyword arguments.
  26. 'owner': ['pulse', 'pulse'],
  27. 'filename': 'chowntest.log',
  28. 'mode': 'w',
  29. 'encoding': 'utf-8',
  30. },
  31. },
  32. 'root': {
  33. 'handlers': ['file'],
  34. 'level': 'DEBUG',
  35. },
  36. }
  37. logging.config.dictConfig(LOGGING)
  38. logger = logging.getLogger('mylogger')
  39. logger.debug('A debug message')

可能需要 root 权限才能运行:

  1. $ sudo python3.3 chowntest.py
  2. $ cat chowntest.log
  3. 2013-11-05 09:34:51,128 DEBUG mylogger A debug message
  4. $ ls -l chowntest.log
  5. -rw-r--r-- 1 pulse pulse 55 2013-11-05 09:34 chowntest.log

请注意此示例用的是 Python 3.3,因为 shutil.chown() 是从此版本开始出现的。 此方式应当适用于任何支持 dictConfig() 的 Python 版本 —— 例如 Python 2.7, 3.2 或更新的版本。 对于 3.3 之前的版本,你应当使用 os.chown() 之类的函数来实现实际的所有权修改。

实际应用中,handler 的创建函数可能位于项目的工具模块中。以下配置:

  1. '()': owned_file_handler,

应使用:

  1. '()': 'ext://project.util.owned_file_handler',

这里的 project.util 可以换成函数所在包的实际名称。 在上述的可用脚本中,应该可以使用 'ext://__main__.owned_file_handler'。 在这里,实际的可调用对象是由 dictConfig()ext:// 说明中解析出来的。

上述示例还指明了其他的文件修改类型的实现方案 —— 比如同样利用 os.chmod() 设置 POSIX 访问权限位。

当然,以上做法也可以扩展到 FileHandler 之外的其他类型的 handler ——比如某个轮换文件 handler,或类型完全不同的其他 handler。

生效于整个应用程序的格式化样式

在 Python 3.2 中,Formatter 增加了一个 style 关键字形参,它默认为 % 以便向下兼容,但是允许采用 {{TX-PL-LABEL}#x60; 来支持 str.format()string.Template 所支持的格式化方式。 请注意此形参控制着用用于最终输出到日志的日志消息格式,并且与单独日志消息的构造方式完全无关。

日志函数(debug(), info() 等)只会读取位置参数获取日志信息本身,而关键字参数仅用于确定日志函数的工作选项(比如关键字参数 exc_info 表示应将跟踪信息记入日志,关键字参数 extra 则给出了需加入日志的额外上下文信息)。所以不能直接使用 str.format()string.Template 这种语法进行日志调用,因为日志包在内部使用 %-f 格式来合并格式串和可变参数。因为尚需保持向下兼容,这一点不会改变,已有代码中的所有日志调用都将采用 %-f 格式串。

有人建议将格式化样式与特定的日志对象进行关联,但其实也会遇到向下兼容的问题,因为已有代码可能用到了某日志对象并采用了 %-f 格式串。

为了让第三方库和自编代码都能够交互使用日志功能,需要决定在单次日志记录调用级别采用什么格式。于是就出现了其他几种格式化样式方案。

LogRecord 工厂的用法

在 Python 3.2 中,伴随着 Formatter 的上述变化,logging 包增加了允许用户使用 setLogRecordFactory() 函数来。设置自己的 LogRecord 子类的功能。 你可以使用此功能来设置自己的 LogRecord 子类,它会通过重载 getMessage() 方法来完成适当的操作。 msg % args 格式化是在此方法的基类实现中进行的,你可以在那里用你自己的格式化操作来替换;但是,你应当注意要支持全部的格式化样式并允许将 %-formatting 作为默认样式,以确保与其他代码进行配合。 还应当注意调用 str(self.msg),正如基类实现所做的一样。

更多信息请参阅 setLogRecordFactory()LogRecord 的参考文档。

自定义信息对象的使用

另一种方案可能更为简单,可以利用 {}- 和 $- 格式构建自己的日志消息。大家或许还记得(来自 使用任意对象作为消息),可以用任意对象作为日志信息的格式串,日志包将调用该对象上 str() 获取实际的格式串。看下以下两个类:

  1. class BraceMessage(object):
  2. def __init__(self, fmt, *args, **kwargs):
  3. self.fmt = fmt
  4. self.args = args
  5. self.kwargs = kwargs
  6. def __str__(self):
  7. return self.fmt.format(*self.args, **self.kwargs)
  8. class DollarMessage(object):
  9. def __init__(self, fmt, **kwargs):
  10. self.fmt = fmt
  11. self.kwargs = kwargs
  12. def __str__(self):
  13. from string import Template
  14. return Template(self.fmt).substitute(**self.kwargs)

以上两个类均都可用于替代格式串,以便用 {}- 或 $-formatting 构建实际的“日志信息”部分,此部分将出现在格式化后的日志输出中,替换 %(message)s 、“{message}”或“$message”。每次要写入日志时都使用类名,如果觉得使用不便,可以采用 M_ 之类的别名(如果将 _ 用于本地化操作,则可用 __)。

下面给出示例。 首先用 str.format() 进行格式化:

  1. >>> __ = BraceMessage
  2. >>> print(__('Message with {0} {1}', 2, 'placeholders'))
  3. Message with 2 placeholders
  4. >>> class Point: pass
  5. ...
  6. >>> p = Point()
  7. >>> p.x = 0.5
  8. >>> p.y = 0.5
  9. >>> print(__('Message with coordinates: ({point.x:.2f}, {point.y:.2f})', point=p))
  10. Message with coordinates: (0.50, 0.50)

然后,用 string.Template 格式化:

  1. >>> __ = DollarMessage
  2. >>> print(__('Message with $num $what', num=2, what='placeholders'))
  3. Message with 2 placeholders
  4. >>>

值得注意的是,上述做法对性能并没什么影响:格式化过程其实不是在日志调用时发生的,而是在日志信息即将由 handler 输出到日志时发生。因此,唯一可能让人困惑的稍不寻常的地方,就是包裹在格式串和参数外面的括号,而不是格式串。因为 __ 符号只是对 XXXMessage 类的构造函数调用的语法糖。

利用 dictConfig() 定义过滤器

dictConfig() 可以 对日志过滤器进行设置,尽管乍一看做法并不明显(所以才需要本秘籍)。 由于 Filter 是标准库中唯一的日志过滤器类,不太可能满足众多的要求(它只是作为基类存在),通常需要定义自己的 Filter 子类,并重写 filter() 方法。为此,请在过滤器的配置字典中设置 () 键,指定要用于创建过滤器的可调用对象(最明显可用的就是给出一个类,但也可以提供任何一个可调用对象,只要能返回 Filter 实例即可)。下面是一个完整的例子:

  1. import logging
  2. import logging.config
  3. import sys
  4. class MyFilter(logging.Filter):
  5. def __init__(self, param=None):
  6. self.param = param
  7. def filter(self, record):
  8. if self.param is None:
  9. allow = True
  10. else:
  11. allow = self.param not in record.msg
  12. if allow:
  13. record.msg = 'changed: ' + record.msg
  14. return allow
  15. LOGGING = {
  16. 'version': 1,
  17. 'filters': {
  18. 'myfilter': {
  19. '()': MyFilter,
  20. 'param': 'noshow',
  21. }
  22. },
  23. 'handlers': {
  24. 'console': {
  25. 'class': 'logging.StreamHandler',
  26. 'filters': ['myfilter']
  27. }
  28. },
  29. 'root': {
  30. 'level': 'DEBUG',
  31. 'handlers': ['console']
  32. },
  33. }
  34. if __name__ == '__main__':
  35. logging.config.dictConfig(LOGGING)
  36. logging.debug('hello')
  37. logging.debug('hello - noshow')

以上示例展示了将配置数据传给构造实例的可调用对象,形式是关键字参数。运行后将会输出:

  1. changed: hello

这说明过滤器按照配置的参数生效了。

需要额外注意的地方:

  • 如果在配置中无法直接引用可调用对象(比如位于不同的模块中,并且不能在配置字典所在的位置直接导入),则可以采用 ext://... 的形式,正如 访问外部对象 所述。例如,在上述示例中可以使用文本 'ext://__main__.MyFilter' 而不是 MyFilter 对象。

  • 与过滤器一样,上述技术还可用于配置自定义 handler 和格式化对象。有关如何在日志配置中使用用户自定义对象的更多信息,请参阅 用户定义对象,以及上述 利用 dictConfig() 自定义 handler 的其他指南。

异常信息的自定义格式化

有时可能需要设置自定义的异常信息格式——考虑到会用到参数,假定要让每条日志事件只占一行,即便存在异常信息也一样。这可以用自定义格式化类来实现,如下所示:

  1. import logging
  2. class OneLineExceptionFormatter(logging.Formatter):
  3. def formatException(self, exc_info):
  4. """
  5. Format an exception so that it prints on a single line.
  6. """
  7. result = super(OneLineExceptionFormatter, self).formatException(exc_info)
  8. return repr(result) # or format into one line however you want to
  9. def format(self, record):
  10. s = super(OneLineExceptionFormatter, self).format(record)
  11. if record.exc_text:
  12. s = s.replace('\n', '') + '|'
  13. return s
  14. def configure_logging():
  15. fh = logging.FileHandler('output.txt', 'w')
  16. f = OneLineExceptionFormatter('%(asctime)s|%(levelname)s|%(message)s|',
  17. '%d/%m/%Y %H:%M:%S')
  18. fh.setFormatter(f)
  19. root = logging.getLogger()
  20. root.setLevel(logging.DEBUG)
  21. root.addHandler(fh)
  22. def main():
  23. configure_logging()
  24. logging.info('Sample message')
  25. try:
  26. x = 1 / 0
  27. except ZeroDivisionError as e:
  28. logging.exception('ZeroDivisionError: %s', e)
  29. if __name__ == '__main__':
  30. main()

运行后将会生成只有两行信息的文件:

  1. 28/01/2015 07:21:23|INFO|Sample message|
  2. 28/01/2015 07:21:23|ERROR|ZeroDivisionError: integer division or modulo by zero|'Traceback (most recent call last):\n File "logtest7.py", line 30, in main\n x = 1 / 0\nZeroDivisionError: integer division or modulo by zero'|

虽然上述处理方式很简单,但也给出了根据喜好对异常信息进行格式化输出的方案。或许 traceback 模块能满足更专门的需求。

语音播报日志信息

有时可能需要以声音的形式呈现日志消息。如果系统自带了文本转语音 (TTS)功能,即便没与 Python 关联也很容易做到。大多数 TTS 系统都有一个可运行的命令行程序,在 handler 中可以用 subprocess 进行调用。这里假定 TTS 命令行程序不会与用户交互,或需要很长时间才会执行完毕,写入日志的信息也不会多到影响用户查看,并且可以接受每次播报一条信息,以下示例实现了等一条信息播完再处理下一条,可能会导致其他 handler 的等待。这个简短示例仅供演示,假定 espeak TTS 包已就绪:

  1. import logging
  2. import subprocess
  3. import sys
  4. class TTSHandler(logging.Handler):
  5. def emit(self, record):
  6. msg = self.format(record)
  7. # Speak slowly in a female English voice
  8. cmd = ['espeak', '-s150', '-ven+f3', msg]
  9. p = subprocess.Popen(cmd, stdout=subprocess.PIPE,
  10. stderr=subprocess.STDOUT)
  11. # wait for the program to finish
  12. p.communicate()
  13. def configure_logging():
  14. h = TTSHandler()
  15. root = logging.getLogger()
  16. root.addHandler(h)
  17. # the default formatter just returns the message
  18. root.setLevel(logging.DEBUG)
  19. def main():
  20. logging.info('Hello')
  21. logging.debug('Goodbye')
  22. if __name__ == '__main__':
  23. configure_logging()
  24. sys.exit(main())

运行后将会以女声播报“Hello”和“Goodbye”。

当然,上述方案也适用于其他 TTS 系统,甚至可以通过利用命令行运行的外部程序来处理消息。

缓冲日志消息并有条件地输出它们

在某些情况下,你可能希望在临时区域中记录日志消息,并且只在发生某种特定的情况下才输出它们。 例如,你可能希望起始在函数中记录调试事件,如果函数执行完成且没有错误,你不希望输出收集的调试信息以避免造成日志混乱,但如果出现错误,那么你希望所有调试以及错误消息被输出。

下面是一个示例,展示如何在你的日志记录函数上使用装饰器以实现这一功能。该示例使用 logging.handlers.MemoryHandler ,它允许缓冲已记录的事件直到某些条件发生,缓冲的事件才会被刷新(flushed) - 传递给另一个处理程序( target handler)进行处理。 默认情况下, MemoryHandler 在其缓冲区被填满时被刷新,或者看到一个级别大于或等于指定阈值的事件。 如果想要自定义刷新行为,你可以通过更专业的 MemoryHandler 子类来使用这个秘诀。

这个示例脚本有一个简单的函数 foo ,它只是在所有的日志级别中循环运行,写到 sys.stderr ,说明它要记录在哪个级别上,然后在这个级别上实际记录一个消息。你可以给 foo 传递一个参数,如果为 true ,它将在ERROR和CRITICAL级别记录,否则,它只在DEBUG、INFO和WARNING级别记录。

The script just arranges to decorate foo with a decorator which will do the conditional logging that’s required. The decorator takes a logger as a parameter and attaches a memory handler for the duration of the call to the decorated function. The decorator can be additionally parameterised using a target handler, a level at which flushing should occur, and a capacity for the buffer. These default to a StreamHandler which writes to sys.stderr, logging.ERROR and 100 respectively.

以下是脚本:

  1. import logging
  2. from logging.handlers import MemoryHandler
  3. import sys
  4. logger = logging.getLogger(__name__)
  5. logger.addHandler(logging.NullHandler())
  6. def log_if_errors(logger, target_handler=None, flush_level=None, capacity=None):
  7. if target_handler is None:
  8. target_handler = logging.StreamHandler()
  9. if flush_level is None:
  10. flush_level = logging.ERROR
  11. if capacity is None:
  12. capacity = 100
  13. handler = MemoryHandler(capacity, flushLevel=flush_level, target=target_handler)
  14. def decorator(fn):
  15. def wrapper(*args, **kwargs):
  16. logger.addHandler(handler)
  17. try:
  18. return fn(*args, **kwargs)
  19. except Exception:
  20. logger.exception('call failed')
  21. raise
  22. finally:
  23. super(MemoryHandler, handler).flush()
  24. logger.removeHandler(handler)
  25. return wrapper
  26. return decorator
  27. def write_line(s):
  28. sys.stderr.write('%s\n' % s)
  29. def foo(fail=False):
  30. write_line('about to log at DEBUG ...')
  31. logger.debug('Actually logged at DEBUG')
  32. write_line('about to log at INFO ...')
  33. logger.info('Actually logged at INFO')
  34. write_line('about to log at WARNING ...')
  35. logger.warning('Actually logged at WARNING')
  36. if fail:
  37. write_line('about to log at ERROR ...')
  38. logger.error('Actually logged at ERROR')
  39. write_line('about to log at CRITICAL ...')
  40. logger.critical('Actually logged at CRITICAL')
  41. return fail
  42. decorated_foo = log_if_errors(logger)(foo)
  43. if __name__ == '__main__':
  44. logger.setLevel(logging.DEBUG)
  45. write_line('Calling undecorated foo with False')
  46. assert not foo(False)
  47. write_line('Calling undecorated foo with True')
  48. assert foo(True)
  49. write_line('Calling decorated foo with False')
  50. assert not decorated_foo(False)
  51. write_line('Calling decorated foo with True')
  52. assert decorated_foo(True)

运行此脚本时,应看到以下输出:

  1. Calling undecorated foo with False
  2. about to log at DEBUG ...
  3. about to log at INFO ...
  4. about to log at WARNING ...
  5. Calling undecorated foo with True
  6. about to log at DEBUG ...
  7. about to log at INFO ...
  8. about to log at WARNING ...
  9. about to log at ERROR ...
  10. about to log at CRITICAL ...
  11. Calling decorated foo with False
  12. about to log at DEBUG ...
  13. about to log at INFO ...
  14. about to log at WARNING ...
  15. Calling decorated foo with True
  16. about to log at DEBUG ...
  17. about to log at INFO ...
  18. about to log at WARNING ...
  19. about to log at ERROR ...
  20. Actually logged at DEBUG
  21. Actually logged at INFO
  22. Actually logged at WARNING
  23. Actually logged at ERROR
  24. about to log at CRITICAL ...
  25. Actually logged at CRITICAL

如你所见,实际日志记录输出仅在消息等级为ERROR或更高的事件时发生,但在这种情况下,任何之前较低消息等级的事件还会被记录。

你当然可以使用传统的装饰方法:

  1. @log_if_errors(logger)
  2. def foo(fail=False):
  3. ...

通过配置使用UTC (GMT) 格式化时间

有时候,你希望使用UTC来格式化时间,这可以通过使用一个类来实现,例如`UTCFormatter`,如下所示:

  1. import logging
  2. import time
  3. class UTCFormatter(logging.Formatter):
  4. converter = time.gmtime

然后你可以在你的代码中使用 UTCFormatter,而不是 Formatter。 如果你想通过配置来实现这一功能,你可以使用 dictConfig() API 来完成,该方法在以下完整示例中展示:

  1. import logging
  2. import logging.config
  3. import time
  4. class UTCFormatter(logging.Formatter):
  5. converter = time.gmtime
  6. LOGGING = {
  7. 'version': 1,
  8. 'disable_existing_loggers': False,
  9. 'formatters': {
  10. 'utc': {
  11. '()': UTCFormatter,
  12. 'format': '%(asctime)s %(message)s',
  13. },
  14. 'local': {
  15. 'format': '%(asctime)s %(message)s',
  16. }
  17. },
  18. 'handlers': {
  19. 'console1': {
  20. 'class': 'logging.StreamHandler',
  21. 'formatter': 'utc',
  22. },
  23. 'console2': {
  24. 'class': 'logging.StreamHandler',
  25. 'formatter': 'local',
  26. },
  27. },
  28. 'root': {
  29. 'handlers': ['console1', 'console2'],
  30. }
  31. }
  32. if __name__ == '__main__':
  33. logging.config.dictConfig(LOGGING)
  34. logging.warning('The local time is %s', time.asctime())

脚本会运行输出类似下面的内容:

  1. 2015-10-17 12:53:29,501 The local time is Sat Oct 17 13:53:29 2015
  2. 2015-10-17 13:53:29,501 The local time is Sat Oct 17 13:53:29 2015

展示了如何将时间格式化为本地时间和UTC两种形式,其中每种形式对应一个日志处理器 。

使用上下文管理器的可选的日志记录

有时候,我们需要暂时更改日志配置,并在执行某些操作后将其还原。为此,上下文管理器是实现保存和恢复日志上下文的最明显的方式。这是一个关于上下文管理器的简单例子,它允许你在上下文管理器的作用域内更改日志记录等级以及增加日志处理器:

  1. import logging
  2. import sys
  3. class LoggingContext(object):
  4. def __init__(self, logger, level=None, handler=None, close=True):
  5. self.logger = logger
  6. self.level = level
  7. self.handler = handler
  8. self.close = close
  9. def __enter__(self):
  10. if self.level is not None:
  11. self.old_level = self.logger.level
  12. self.logger.setLevel(self.level)
  13. if self.handler:
  14. self.logger.addHandler(self.handler)
  15. def __exit__(self, et, ev, tb):
  16. if self.level is not None:
  17. self.logger.setLevel(self.old_level)
  18. if self.handler:
  19. self.logger.removeHandler(self.handler)
  20. if self.handler and self.close:
  21. self.handler.close()
  22. # implicit return of None => don't swallow exceptions

如果指定上下文管理器的日志记录等级属性,则在上下文管理器的with语句所涵盖的代码中,日志记录器的记录等级将临时设置为上下文管理器所配置的日志记录等级。 如果指定上下文管理的日志处理器属性,则该句柄在进入上下文管理器的上下文时添加到记录器中,并在退出时被删除。 如果你再也不需要该日志处理器时,你可以让上下文管理器在退出上下文管理器的上下文时关闭它。

为了说明它是如何工作的,我们可以在上面添加以下代码块:

  1. if __name__ == '__main__':
  2. logger = logging.getLogger('foo')
  3. logger.addHandler(logging.StreamHandler())
  4. logger.setLevel(logging.INFO)
  5. logger.info('1. This should appear just once on stderr.')
  6. logger.debug('2. This should not appear.')
  7. with LoggingContext(logger, level=logging.DEBUG):
  8. logger.debug('3. This should appear once on stderr.')
  9. logger.debug('4. This should not appear.')
  10. h = logging.StreamHandler(sys.stdout)
  11. with LoggingContext(logger, level=logging.DEBUG, handler=h, close=True):
  12. logger.debug('5. This should appear twice - once on stderr and once on stdout.')
  13. logger.info('6. This should appear just once on stderr.')
  14. logger.debug('7. This should not appear.')

我们最初设置日志记录器的消息等级为``INFO``,因此消息#1出现,消息#2没有出现。在接下来的``with``代码块中我们暂时将消息等级变更为``DEBUG``,从而消息#3出现。在这一代码块退出后,日志记录器的消息等级恢复为``INFO``,从而消息#4没有出现。在下一个``with``代码块中,我们再一次将设置消息等级设置为``DEBUG``,同时添加一个将消息写入``sys.stdout``的日志处理器。因此,消息#5在控制台出现两次(分别通过``stderr``和``stdout``)。在``with``语句完成后,状态与之前一样,因此消息#6出现(类似消息#1),而消息#7没有出现(类似消息#2)。

如果我们运行生成的脚本,结果如下:

  1. $ python logctx.py
  2. 1. This should appear just once on stderr.
  3. 3. This should appear once on stderr.
  4. 5. This should appear twice - once on stderr and once on stdout.
  5. 5. This should appear twice - once on stderr and once on stdout.
  6. 6. This should appear just once on stderr.

我们将``stderr``标准错误重定向到``/dev/null``,我再次运行生成的脚步,唯一被写入``stdout``标准输出的消息,即我们所能看见的消息,如下:

  1. $ python logctx.py 2>/dev/null
  2. 5. This should appear twice - once on stderr and once on stdout.

再一次,将``stdout``标准输出重定向到``/dev/null``,我获得如下结果:

  1. $ python logctx.py >/dev/null
  2. 1. This should appear just once on stderr.
  3. 3. This should appear once on stderr.
  4. 5. This should appear twice - once on stderr and once on stdout.
  5. 6. This should appear just once on stderr.

在这种情况下,与预期一致,打印到``stdout``标准输出的消息#5不会出现。

当然,这里描述的方法可以被推广,例如临时附加日志记录过滤器。 请注意,上面的代码适用于Python 2以及Python 3。