python 内置模块续(二)

x33g5p2x  于2021-11-29 转载在 Python  
字(7.0k)|赞(0)|评价(0)|浏览(230)


python 内置模块完结,三篇文章,看完就get内置模块了!

python 内置模块补充

1、hashlib模块

  • 加密:将明文数据通过一系列的算法变成密文数据,这样做提升了数据的安全性

  • 加密算法:md系列、sha系列、base系列、hamc系列

  • 常用的算法类型及方法:

  • hashlib.md5()

  • md5.uppdate():uppdate只能接收bytes类型的数据,所以在传送数据的时候要编码(encode)

  • hexdigest():生成一串没有规则的随机字符串

  • 注意:加密之后的密文数据是无法解密成明文数据(除非你很牛逼),涉及到用户密码等隐私信息,其实都是密文,只有用户自己知道明文是什么,内部程序员无法得知明文数据,数据泄露也无法得知明文数据

简易使用:

import hashlib

# 先确定算法类型(md5普遍使用)
md5 = hashlib.md5()
# 加密的数据
data = '人生苦短我用python'
# 转化为bytes
data1 = data.encode('utf8')
# uppdate接收数据
md5.update(data1)
# 加密操作
res = md5.hexdigest()
print(res)
# result👇
# 007f910ee8215e9e229cc4fba38665da

'''如果明文数据相同,不管分几次传入,加密的结果肯定是一样的'''
# 将data拆分开传入
import hashlib

# 先确定算法类型(md5普遍使用)
md5 = hashlib.md5()
# 加密的数据
data = '人生苦短我用python'

# uppdate接收数据
md5.update('人生苦短'.encode('utf8'))
md5.update('我用python'.encode('utf8'))
# 加密操作
res = md5.hexdigest()
print(res)
# result👇
# 007f910ee8215e9e229cc4fba38665da
# 007f910ee8215e9e229cc4fba38665da
'''将data分成两部分传入,发现加密后的密文数据一样'''

高级使用:

import hashlib
# 使用sha256算法
sha256 = hashlib.sha256()
sha256.update('人生苦短我用python'.encode('utf8'))
res = sha256.hexdigest()
print(res)
# 使用md5加密后的结果
# 007f910ee8215e9e229cc4fba38665da
# 使用sha256加密的结果
# f1ae8a91ef9decce9715bd555111fc9e4b7c7e4f9dd962b32b3668a1ac2e4e6c

'''发现使用sha256加密,获取的密文更长
优点:密文更长,越复杂,越不容易被破解
缺点:消耗的资源会更多,密文越长基于网络发送需求占据的数据也越大'''

进阶使用:

加盐处理:
  • 普通加盐
  • 动态加盐
  • 加盐处理:就是对明文数据处理做加密的过程前加一些干扰项,使得数据更加的安全,不容易被破解
import hashlib
md5 = hashlib.md5()
# 获取加密的数据
md5.update('python'.encode('utf8'))
# 加盐处理
md5.update('加点干扰才更加安全'.encode('utf8'))
# 加密处理
res = md5.hexdigest()
print(res)

# 为加盐的结果23eeeb4347bdd26bfc6b7ee9a3b755dd
# 加盐的结果c51a058dc11f6c52e3110a8cbf6b6c6e

'''不加盐python明文加密的结果和加盐的结果不一样,这样就算破解了也不是真实数据'''
  • 动态加盐操作

上面的写法就写死了,只能固定加盐的内容,我们如果可以不断变换加盐的内容,这样是不是更加安全

import hashlib
import time
# 确定加密的算法
md5 = hashlib.md5()
# 获取加密的数据
data = 'python'.encode('utf8')
# 动态加盐
'''通过获取时间戳,来使得盐的内容都不一样'''
interference = str(time.time())
md5.update(data)
md5.update(interference.encode('utf8'))
res = md5.hexdigest()
print(res)
# 取三次结果
'''
edb6fbf75df039a7cc77a0b641591558
51ed4a4d4428308001a8ea993002a9cc
2e5d90eb45fd53228a7c501d6ecebb3f
'''
校验文件一致性

注意:文件要使用二进制的模式,因为加密操作是针对bytes类型!

# 校验文件的一致性
# 小文件直接加密
import hashlib
# 获取使用的算法
md5 = hashlib.md5()
with open(r'a.txt','rb') as f:
    for oneline in f:
        md5.update(oneline)
        res = md5.hexdigest()
        print(res)
# 结果
# 8d3eade70c8a8243554980488263fcc7
# cadd64f0bc5c34e40c151e7ed78a12a6
# d892ad2413f01d4ae0a18ce9b5367f29
'''
a.txt文件的内容
python123
python456
python789
'''
# 如果修改文件内容加密后的密文也会改变,修改最后一行发现前两行一样最后一行不一样
import hashlib
# 获取使用算法
md5 = hashlib.md5()
with open(r'a.txt','rb') as f:
    for oneline in f:
        md5.update(oneline)
        res = md5.hexdigest()
        print(res)
# 结果
'''
8d3eade70c8a8243554980488263fcc7
cadd64f0bc5c34e40c151e7ed78a12a6
8a149d9358818b4709f84ede3ed59f84
'''
# 大文件加密
import os
import hashlib
# 获取算法
md = hashlib.md5()
# 读取文件总大小
file_size= os.path.getsize(r'a.txt') # 33
# 指定分片的读取策略,每段读取几个字节
read_seg = [0,file_size//4,file_size//2,file_size-10]
with open(r'a.txt','rb')as f:
    for oneline in read_seg:
        f.seek(oneline)
        md.update(f.read(5))
        print(md.hexdigest())
# 结果
'''
d3b2be2dd2a6dfdc6a07f2c14cbfa763
762a12f9502b4f39d70456508f9a833a
b6f58f4ad6bb0d2539c715f5cd95c919
9b1ff33821e93423b997d9dbb0fa8091
'''

2、logging日志模块

👉[python官网版本](日志记录 — Python 的日志记录工具 — Python 3.10.0 文档)

日志等级

水平数值
CRITICAL50
ERROR40
WARNING30
INFO20
DEBUG10
NOTSET0

常用处理

  • logging.debug(‘debug级别’)
  • logging.info(‘info级别’)
  • logging.warning(‘warning级别’)
  • logging.error(‘error级别’)
  • logging.critical(‘critical级别’)

“四大天王”

logger对象、filter对象、handler对象、formatter对象

简单使用

import logging
# 写入文件
# file_handler = logging.FileHandler(filename='log1.log',mode='a',encoding='utf8')
# 当前输出
file_now = logging.StreamHandler()
logging.basicConfig(
    format='%(asctime)s - %(name)s - %(levelname)s -%(module)s:  %(message)s',
    datefmt='%Y-%m-%d %H:%M:%S %p',
    handlers=[file_now,],
    level=logging.ERROR
)
logging.error('日志模块')
# 结果
# 2021-11-29 16:49:58 PM - root - ERROR -3logging模块:  日志模块

# 在文件和终端同时显示
import logging
# 写入文件
file_handler = logging.FileHandler(filename='log1.log',mode='a',encoding='utf8')
# 当前输出
file_now = logging.StreamHandler()
logging.basicConfig(
    format='%(asctime)s - %(name)s - %(levelname)s -%(module)s:  %(message)s',
    datefmt='%Y-%m-%d %H:%M:%S %p',
    handlers=[file_now,file_handler],
    level=logging.ERROR
)
logging.error('日志模块')

日志模块详细介绍

'''要求:
1、想在文件和终端中同时打印
2、不同位置如何做到不同的日志格式,文件详细一些 终端简单一些
'''
import logging

# 1.logger对象:负责产生日志
logger = logging.getLogger('转账记录')
# 2.filter对象:负责过滤日志(直接忽略)
# 3.handler对象:负责日志产生的位置
hd1 = logging.FileHandler('a1.log',encoding='utf8')  # 产生到文件的
hd2 = logging.StreamHandler()  # 产生在终端的
# 4.formatter对象:负责日志的格式
fm1 = logging.Formatter(
    fmt='%(asctime)s - %(name)s - %(levelname)s -%(module)s:  %(message)s',
    datefmt='%Y-%m-%d %H:%M:%S %p',
)
fm2 = logging.Formatter(
    fmt='%(asctime)s - %(name)s %(message)s',
    datefmt='%Y-%m-%d',
)
# 5.绑定handler对象
logger.addHandler(hd1)
logger.addHandler(hd2)
# 6.绑定formatter对象
hd1.setFormatter(fm1)
hd2.setFormatter(fm2)

# 7.设置日志等级
logger.setLevel(10)
# 8.记录日志
logger.debug('终端显示')
# 结果
# 2021-11-29 - 转账记录 终端显示

配置字典

import logging
import logging.config

standard_format = '[%(asctime)s][%(threadName)s:%(thread)d][task_id:%(name)s][%(filename)s:%(lineno)d]' \
                  '[%(levelname)s][%(message)s]' #其中name为getlogger指定的名字

simple_format = '[%(levelname)s][%(asctime)s][%(filename)s:%(lineno)d]%(message)s'

logfile_path = 'log_dic.log'
# log配置字典
LOGGING_DIC = {
    'version': 1,
    'disable_existing_loggers': False,
    'formatters': {
        'standard': {
            'format': standard_format
        },
        'simple': {
            'format': simple_format
        },
    },
    'filters': {},  # 过滤日志
    'handlers': {
        #打印到终端的日志
        'console': {
            'level': 'DEBUG',
            'class': 'logging.StreamHandler',  # 打印到屏幕
            'formatter': 'simple'
        },
        #打印到文件的日志,收集info及以上的日志
        'default': {
            'level': 'DEBUG',
            'class': 'logging.handlers.RotatingFileHandler',  # 保存到文件
            'formatter': 'standard',
            'filename': logfile_path,  # 日志文件,(可以修改)
            'maxBytes': 1024*1024*5,  # 日志大小 5M
            'backupCount': 5,
            'encoding': 'utf-8',  # 日志文件的编码,再也不用担心中文log乱码了
        },
    },
    'loggers': {
        #logging.getLogger(__name__)拿到的logger配置  空字符串作为键 能够兼容所有的日志
        '': {
            'handlers': ['default', 'console'],  # 这里把上面定义的两个handler都加上,即log数据既写入文件又打印到屏幕
            'level': 'DEBUG',
            'propagate': True,  # 向上(更高level的logger)传递
        },  # 当键不存在的情况下 (key设为空字符串)默认都会使用该k:v配置
    },
}

# 使用配置字典
logging.config.dictConfig(LOGGING_DIC)  # 自动加载字典中的配置
logger1 = logging.getLogger('日志类型')
logger1.debug('显示内容')
# 结果
#[DEBUG][2021-11-29 17:05:34,754][匹配字典.py:56]显示内容

配置参数

  • filename:用指定的文件名创建FiledHandler,这样日志会被存储在指定的文件中。

  • filemode:文件打开方式,在指定了filename时使用这个参数,默认值为“a”还可指定为“w”。

  • format:指定handler使用的日志显示格式。

  • datefmt:指定日期时间格式。

  • level:设置rootlogger(后边会讲解具体概念)的日志级别

  • stream:用指定的stream创建StreamHandler。可以指定输出到sys.stderr,sys.stdout或者文件(f=open(‘test.log’,’w’)),默认为sys.stderr。若同时列出了filename和stream两个参数,则stream参数会被忽略。

  • %(name)s Logger的名字

  • %(levelno)s 数字形式的日志级别

  • %(levelname)s 文本形式的日志级别

  • %(pathname)s 调用日志输出函数的模块的完整路径名,可能没有

  • %(filename)s 调用日志输出函数的模块的文件名

  • %(module)s 调用日志输出函数的模块名

  • %(funcName)s 调用日志输出函数的函数名

  • %(lineno)d 调用日志输出函数的语句所在的代码行

  • %(created)f 当前时间,用UNIX标准的表示时间的浮 点数表示

  • %(relativeCreated)d 输出日志信息时的,自Logger创建以 来的毫秒数

  • %(asctime)s 字符串形式的当前时间。默认格式是 “2003-07-08 16:49:45,896”。逗号后面的是毫秒

  • %(thread)d 线程ID。可能没有

  • %(threadName)s 线程名。可能没有

  • %(process)d 进程ID。可能没有

  • %(message)s用户输出的消息

第三方模块

下载方式:

  • 方式1:命令行借助于pip工具
    pip3 install 模块名 # 不知道版本默认是最新版
    pip3 install 模块名==版本号 # 指定版本下载
    pip3 install 模块名 -i 仓库地址 # 临时切换
  • 方式2:pycharm快捷下载

settings >> project >> project interprter

相关文章