资源简介 九年级上册第三单元我的课外读物-网络爬虫一、教材体系明确任务实现方法爬取网络信总Python爬虫提取书籍的名称同时提取书名和保存信息我的课外读物法律规定我的课外读物案例分析处理网络信息拓展阅读爬虫中的法律和滔二、知识点1.分析任务要达到的目标。(用python程序把网页的信息获取下来,对信息进行筛选和整理,并且保存下来,再进行简单的处理,最后得到我们想要的信息。这个过程可以概括为获取信息、处理信息、保存信息、使用/分析信息等步骤。)2.学会将任务分解成小任务并梳理出方法和步骤。(使用requests模块获取信息、使用BeautifulSoup模块处理信息、保存信息至文件、使用pandas模块排序)3.学会在Python中使用requests模块访问网络,获取信息。(编写代码、运行代码、观察网页源代码,找出标签和关键字、定义字符串)4.学会使用BeautifulSoup模块,对获取到的信息进行清理。(用BeautifulSoup模块调用Ixml解析器处理网页源代码resTxt,分析出源代码中的标签、数据等,并将处理后的结果赋值给变量resStr。.使用BeautifulSoup模块,提取网页中书籍的名称。用class="title"作为关键字,通过select函数来取得所有书籍的名称列表sm)5.了解Html标签在使用BeautifulSoup模块时的作用。(使用BeautifulSoup模块从网页中获取到需要的信息,关键在于从tml中找到所需信息的“标签”,通过标签的值,就可以将需要的信息提取出来)6.学会字符串合并、替换等简单操作。(使用+号,可以将两个字符串合并在一起。用+号合并字符串时,两个字符串之间是没有间隔的。使用替换命令replace可以将新内容替换原内容)7.掌握在Python中使用open函数保存文件,了解常用编码方式UTF-8与GBK。(在Python中,我们通常使用open函数来打开、保存、读取及写入文件。使用open函数打开文件,要注意打开方式的参数:读“,”、写“w”、追加“ā”、读文件时要求文件已经存在,写或者追加时,若文件不存在可以自动创建一个新文件。写入文件时要注意,“w”方式会把原来的内容覆盖,"a”方式会把新内容加在原文末尾。UTF-8是全球统一的通用编码,而GBK编码是中文环境中的一种编码,并不通用。)8.了解编写爬虫程序可能带来的法律和道德问题。(全国人民代表大会常务委员会在2016年11月7日通过了《中华人民共和国网络安全法》,2017年6月1日正式实施。法律规定:任何个人和组织不得窃取或者以其他非法方式获取个人信息,不得非法出售或者非法向他人提供个人信息;爬取数据过程中不应侵犯他人的知识产权。我们在编写爬虫程序时,一定要遵守相关道德准则和法律法规。)9.了解并遵守爬虫道德规范。 展开更多...... 收起↑ 资源预览