资源简介 (共18张PPT)5.2.2数据的存储与保护数据的存储一、本地内部存储本地电脑硬盘存储卡光盘数据存储服务器数据的存储二、第三方云存储数据的存储二、第三方云存储供应商用户管理运营维护访问权限存储空间存储数据数据的存储数据的存储方式数据的保护数据的安全隐患数据保护刻不容缓数据的保护数据安全保护技术1、安装杀毒软件和防火墙数据的保护数据安全保护技术2、拷贝、备份、复制、镜像、持续备份数据的保护数据安全保护技术2、拷贝、备份、复制、镜像、持续备份1、安装杀毒软件和防火墙3、加密:对称式加密非对称式加密数据的保护数据的隐私保护大数据时代,信息传播的速度更快,范围更大数据的保护数据的隐私保护数据的保护数据的隐私保护爬虫数据下载爬虫数据下载下载图片:open(文件名, 模式)模式:只读(r),写入(w),追加(+)等。这个参数是非强制的,默认文件访问模式为只读(r)。为wb,是以二进制格式打开一个文件只用于写入。 如果该文件已存在则打开文件,并从开头开始编辑,即原有内容会被删除。如果该文件不存在,创建新文件。一般用于非文本文件如图片等。response.content。获得response对象的二进制形式。爬虫数据下载爬虫小结request.get(url,headers=headers)模拟发出请求获得回应取出htmlBS4梳理BeautifulSoup(html,’lxml’)查找同类soup.find_all(“标记”,”属性”=“”)爬内容:item.find (“标记”,”属性”=“”).get_text()爬属性值:<标记 属性1=属性值 属性2=属性值 ... ... >内容标记>item.find (“标记”,”属性”=“”).attrs[“属性”]rsp.text网址用户代理for循环爬虫数据下载把爬到的数据存入Excel(openpyxl库)import openpyxlwb = openpyxl.Workbook()实例化一个工作簿ws = wb.active激活的工作表ws.title = “电影top250"设置工作表名ws.append([“序号”,“片名”,“地址"])追加表头wb.save(“movie.xlsx")保存工作簿列表ws.append((sn,name,url))爬虫数据下载完整参考代码:拓展:如何爬取连续的多个网页?爬虫数据下载有人说爬虫简单有人说爬虫简单,于是我学了简单的爬虫。为了解析网页学了HTML:为了存储数据并理解原理学了MySQL和MongoDB;为了构建增量和分布式爬虫学了redis;为了解决网页加密与混淆学了JavaScript;为了优化开发效率和处理滑动验证码学了selenium和pyppeteer;为了处理数字验证码学了卷积神经网络;为了爬取的数据更有价值学了numpy、pandas和sklearn;为了更直观的理解数据学了matplotlib和altair;为了爬取手机APP解决反编译我学了……学学学……学个屁!看到这个的留言,先心疼他三秒钟,这或许是我见到总结最到位的Python爬虫从入门到精通的心路历程! 展开更多...... 收起↑ 资源预览