当前位置: 首页 > news >正文

网站建设服务开发普通网站制作

网站建设服务开发,普通网站制作,哪些网站可以接工程做,网站运营维护工作内容文章目录 前言项目#xff1a;解密吴氏私厨分析过程代码实现#xff08;一#xff09;获取与解析提取最小父级标签一组菜名、URL、食材写循环#xff0c;存列表 代码实现#xff08;二#xff09;复习总结 前言 上一关#xff0c;我们学习了用BeautifulSoup库解析数据和… 文章目录 前言项目解密吴氏私厨分析过程代码实现一获取与解析提取最小父级标签一组菜名、URL、食材写循环存列表 代码实现二复习总结 前言 上一关我们学习了用BeautifulSoup库解析数据和提取数据解析数据的方法是 提取数据的方法是用find() 与find_all() 最后我们把事情串起来就变成下图中的模样。它所对应的正是爬虫四步中的前三步。 项目解密吴氏私厨 我们继续说回到吴氏私厨的事。我在业余时有一个爱好是烹饪美味的食物。几乎每个周末、节日我都会邀请朋友、同事来我的家中做客设宴款待。在快节奏的都市这是一种奢侈而美好的享受。 我喜欢尝试新的东西去做新的菜式因为新鲜感能让朋友们对赴宴“吴氏私厨”总是心怀期待。 有朋友会好奇为什么你可以会这么多种不同的菜式这里面可有什么不为人知的秘密我笑而不答说你回头看我写的爬虫关卡就知道。 现在我要将秘密揭晓。 答案就是我懂编程。在我看来下厨和Python非常相像。学Python你只需要懂最基础的语法列表字典、判断循环……然后合理地调用模块就已经能做出很多有趣的事代码跳跃在屏幕上自有千般变化。 下厨你只需要懂最基础的操作手法蒸炒炖焖煮、烧炸煎煲卤……然后去找合适的菜谱大江南北少有你烹不出的风味。 显然我懂厨房的基础手法我只需要找合适的菜谱。 我写过一段Python代码它能在每个周五爬取最新出的热门菜谱清单发送到我的邮箱。内含菜名、原材料、详细烹饪流程的URL。 我会选择里面看上去美味又没尝试过的作为周末款待宾客的菜单。 下面我要带你复现这个代码的编写过程。 项目目标我们要去爬取热门菜谱清单内含菜名、原材料、详细烹饪流程的URL。而定时爬取和发送邮件我会在第10关讲给你方案。 在这个项目里我会带你体验BeautifulSoup库的实战应用让你感受一个爬虫项目是如何一步步实现的。同时也会有一些爬虫项目实战的经验分享。 分析过程 在这个项目里我们选取的网站是“下厨房”。它有一个固定栏目叫做“本周最受欢迎”收集了当周最招人喜欢的菜谱。地址如下 http://www.xiachufang.com/explore/ 在进行爬取之前我们先去看看它的robots协议。网址在此 http://www.xiachufang.com/robots.txt 因为这个页面挺长的所以我不再为你放截图。阅读这个robots协议你会发现我们要爬取的/explore/不在禁止爬取的列表内但如果你要爬取/recipe/服务器就会不欢迎。在网页里recipe是每一道菜的详情页面记录了这道菜的做法。 如果你真要爬/recipe/里的信息也能爬取到。只是人家都这样说了我们就不要去爬它。 我们计划拿到的信息就是下图页面上菜名、所需材料、和菜名所对应的详情页URL。 获取数据是容易的使用requests.get()就能实现。不过由于网址反爬策略升级的问题如果运行不成功的话我们就需要添加headers参数并在本地运行。 headers参数今天我会直接提供在所有代码题当中后面的课程再进行详细讲解。如果本地运行代码报错请及时联系助教。 获取完数据后我们需要用BeautifulSoup去解析数据。打开检查工具我们先在Elements里查看这个网页是怎样的结构。 刚刚打开Elements它会默认展开body其余都关闭。我的鼠标悬停在div classpage-outer…div $0上所以你看到下方限制的路径就是html body div.page-outer。其中.所代表的正是class。 点击开发者工具左上角的小箭头然后选中一个菜名如我选的就是“猪肉炖粉条”那么Elements那边就会自动标记出对应的代码。 如此我们就定位到了菜名的所在位置a标签内的文本甚至还顺带找到了详情页URL的所在位置。如上图a标签里有属性href其值是/recipe/103646251/。点击它你会跳转到这道菜的详情页。 所以到时候我们可以去提取a标签。接着先用text拿到它的文本再使用[href]获取到半截URL和http://www.xiachufang.com)做拼接即可。 步骤可以说是非常清晰了用中学老师的话讲这叫给未来的解析与提取打下坚实基础。 那趁热打铁。我们再去找找食材在哪里。和查找菜名一样的操作去点击小箭头去挑选一个食材。 这说找一个竟是全给找到了。猪肉白菜炖粉条所需食材是白菜、五花肉、红薯粉条、干尖椒、花椒、葱、姜、食盐、八角、香叶、料酒、酱油、香油…… 它们有的是a标签里的纯文本有的是span标签里的纯文本。它们的共同父级标签相对于子标签上级标签的意思父标签包含子标签是p classing ellipsis。 根据菜名的路径、URL的路径、食材的路径我们可以找到这三者的最小共同父级标签是div classinfo pure-u。 现在我们就找到了所有待爬取的数据藏身何处。现在去校验一下其它菜名、URL、食材是不是也在同样位置。如下猪肉白菜炖粉条 菜名是a标签内的文本URL是a标签里属性href的值食材藏身于p classing ellipsis。最后它们三者的最小共同父级标签是div classinfo pure-u。 这说明我们找的规律没错。那么基于此我们可以产生两种写爬虫的思路 思路一我们先去爬取所有的最小父级标签div classinfo pure-u然后针对每一个父级标签想办法提取里面的菜名、URL、食材。 思路二我们分别提取所有的菜名、所有的URL、所有的食材。然后让菜名、URL、食材给一一对应起来这并不复杂第0个菜名对应第0个URL对应第0组食材按顺序走即可。 这两种思路理论上来说都能够实现我们的目标。那么我们应该选哪种 小孩子才做选择大人们则是全都要。下面我们会详细介绍思路一而把思路二留给你做练习。 在最后提取到了数据我们要存储。但文件存储我们要到第6关才学习。所以我们就先把数据存到列表里每一组菜名、URL、食材是一个小列表小列表组成一个大列表。如下 [[菜A,URL_A,食材A],[菜B,URL_B,食材B],[菜C,URL_C,食材C]]到这我们可以去尝试写代码。 代码实现一 我们先使用思路一来写代码即先去爬取所有的最小父级标签div classinfo pure-u然后针对每一个父级标签想办法提取里面的菜名、URL、食材。 获取与解析 我们选取的URL是http://www.xiachufang.com/explore/我们用requests.get()来获取数据。 接着使用BeautifulSoup来解析这两步都不算是难事。所以我把它交给你当作开胃小菜。下面请完成获取数据和解析数据两步并将解析的结果打印出来。 获取数据选取的URL是http://www.xiachufang.com/explore/ 接着使用BeautifulSoup对获取的数据进行解析。 参考代码如下 # 引用requests库 import requests # 引用BeautifulSoup库 from bs4 import BeautifulSoup# 为躲避反爬机制伪装成浏览器的请求头 headers {User-Agent: Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/71.0.3578.98 Safari/537.36} # 获取数据 res_foods requests.get(http://www.xiachufang.com/explore/, headersheaders) # 解析数据 bs_foods BeautifulSoup(res_foods.text,html.parser) # 打印解析结果 print(bs_foods)提取最小父级标签 我们来看这个父级标签 它的标签是div有一个class属性其值是info pure-u。我们可以使用find_all()语法来找到它们。 现在请尝试续写代码使用find_all()语法查找最小父级标签并把查找的结果打印出来。 参考代码如下 # 引用requests库 import requests # 引用BeautifulSoup库 from bs4 import BeautifulSoup# 为躲避反爬机制伪装成浏览器的请求头 headers {User-Agent: Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/71.0.3578.98 Safari/537.36} # 获取数据 res_foods requests.get(http://www.xiachufang.com/explore/,headersheaders) # 解析数据 bs_foods BeautifulSoup(res_foods.text,html.parser) # 查找最小父级标签 list_foods bs_foods.find_all(div,class_info pure-u) # 打印最小父级标签 print(list_foods)非常幸运的是这里一次就打印出了正确的东西。在实践操作当中其实常常会因为标签选取不当或者网页本身的编写没做好板块区分你可能会多打印出一些奇怪的东西。 当遇到这种糟糕的情况一般有两种处理方案数量太多而无规律我们会换个标签提取数量不多而有规律我们会对提取的结果进行筛选——只要列表中的若干个元素就好。 下面我们可以进行下一步。针对查找结果中的每一个元素再次查找位于里面的菜名、URL、食材。 一组菜名、URL、食材 我们不先急于提取出所有的菜名、URL和食材。我们先尝试提取一组等成功了再去写循环提取所有。我们来看图 如何拿到URL和菜名答案显而易见我们可以查找父级标签中的第0个标签里面就会有我们想要的信息。 只查找第0个标签应该用什么语句3、2、1回答我。 用find()。我们对父级标签使用find()方法来查找标签就对了所用的参数就是a标签本身。 当拿到a标签之后呢我们应该如何提取纯文本以及某个属性的值3、2、1回答我。 现在我们可以去做这样一个练习续写下方代码提取出第0个父级标签中的第0个a标签并输出菜名和URL。 提示一记得要提取的是第0个父级标签而不是整个父级标签列表 提示二提取出的菜名的前后会有很多空格和换行你可以使用字符串的strip()方法把多余的内容裁剪掉字符串.strip()一起来体验一下它的用法吧 string python # 去掉字符串string前后两端的空格 str string.strip() print(str)运行结果 python提示三提取出的URL需要和http://www.xiachufang.com做拼接。 以下是我提供的参考答案。 # 引用requests库 import requests # 引用BeautifulSoup库 from bs4 import BeautifulSoup# 为躲避反爬机制伪装成浏览器的请求头 headers {User-Agent: Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/71.0.3578.98 Safari/537.36} # 获取数据 res_foods requests.get(http://www.xiachufang.com/explore/,headersheaders) # 解析数据 bs_foods BeautifulSoup(res_foods.text,html.parser) # 查找最小父级标签 list_foods bs_foods.find_all(div,class_info pure-u)# 提取第0个父级标签中的a标签 tag_a list_foods[0].find(a) # 输出菜名使用strip()去掉了多余的空格 print(tag_a.text.strip()) # 输出URL print(http://www.xiachufang.comtag_a[href])现在我们来看如何提取食材。 你可能会想我们去写一个find()去寻找 标签再去写一个find_all()去寻找它里面的所有标签然后写一个循环使用text去提取每一个标签里的纯文本信息。 紧接着用同样的手法拿到所有标签里的纯文本信息。最后把这些全都拼接起来。 天呐这实在是麻烦坏了。 下面我要告诉你一个好消息你完全不需要这样做你只需要查找p标签然后使用text提取p标签里的纯文本信息就可以了 不信你可以做这样一个小测试直接点击运行即可 from bs4 import BeautifulSoupbs BeautifulSoup(pa惟有痴情难学佛/a独无媚骨不如人/p,html.parser) tag bs.find(p) print(tag.text)运行结果 惟有痴情难学佛独无媚骨不如人你会发现输出的结果是“惟有痴情难学佛独无媚骨不如人”。当我们在用text获取纯文本时获取的是该标签内的所有纯文本信息不论是直接在这个标签内还是在它的子标签内。 需要强调的一点是text可以这样做但如果是要提取属性的值是不可以的。父标签只能提取它自身的属性值不能提取子标签的属性值。如下就会报错 from bs4 import BeautifulSoup# 以下此处多出来的\是转义字符。 bs BeautifulSoup(pa href\https://www.pypypy.cn\/a/p,html.parser) tag bs.find(p) # 这样会报错因为p标签没有属性hrefhref属于a标签 print(tag[href])有了这个知识请你在之前代码的基础上写出提取食材的代码并打印出来。提示只是用p标签做参数是不够的因为这里不止一个p标签存在。你还要加class_参数。 以下是我提供的参考答案。 # 引用requests库 import requests # 引用BeautifulSoup库 from bs4 import BeautifulSoup# 为躲避反爬机制伪装成浏览器的请求头 headers {User-Agent: Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/71.0.3578.98 Safari/537.36} # 获取数据 res_foods requests.get(http://www.xiachufang.com/explore/,headersheaders) # 解析数据 bs_foods BeautifulSoup(res_foods.text,html.parser) # 查找最小父级标签 list_foods bs_foods.find_all(div,class_info pure-u)# 提取第0个父级标签中的a标签 tag_a list_foods[0].find(a) # 菜名使用strip()函数去掉了多余的空格 name tag_a.text.strip() # 获取URL URL http://www.xiachufang.comtag_a[href]# 提取第0个父级标签中的p标签 tag_p list_foods[0].find(p,class_ing ellipsis) # 食材使用strip()函数去掉了多余的空格 ingredients tag_p.text.strip() # 打印食材 print(ingredients)写循环存列表 这部分没什么需要讲解所以我打算把它直接交给你来实操。 要求写一个循环提取当前页面的所有菜名、URL、食材并将它存入列表。其中每一组菜名、URL、食材是一个小列表小列表组成一个大列表。如下 [[菜A,URL_A,食材A],[菜B,URL_B,食材B],[菜C,URL_C,食材C]]现在请开始练习我会在稍后提供参考答案。 以下是我提供的参考答案。 # 引用requests库 import requests # 引用BeautifulSoup库 from bs4 import BeautifulSoup# 为躲避反爬机制伪装成浏览器的请求头 headers {User-Agent: Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/71.0.3578.98 Safari/537.36} # 获取数据 res_foods requests.get(http://www.xiachufang.com/explore/,headersheaders) # 解析数据 bs_foods BeautifulSoup(res_foods.text,html.parser) # 查找最小父级标签 list_foods bs_foods.find_all(div,class_info pure-u)# 创建一个空列表用于存储信息 list_all []for food in list_foods:tag_a food.find(a)# 菜名使用strip()函数去掉多余的空格name tag_a.text.strip()# 获取URLURL http://www.xiachufang.comtag_a[href]tag_p food.find(p,class_ing ellipsis)# 食材使用strip()函数去掉多余的空格ingredients tag_p.text.strip()# 将菜名、URL、食材封装为列表添加进list_alllist_all.append([name,URL,ingredients])# 打印 print(list_all)至此一个项目就算从头到尾结束。 代码实现二 就像我们之前所说这个项目还存在着另一个解决思路我们分别提取所有的菜名、所有的URL、所有的食材。然后让菜名、URL、食材给一一对应起来。 对于这个实操我不再一步一步为你讲解而是换一种方式。我会为你简单描述大致思路由你来自行写代码结束之后再来和标准答案比照。 首先获取数据解析数据略过。 去查找所有包含菜名和URL的p标签。此处p标签是a标签的父标签。 为什么不直接选a标签还记得我们怎么说的吗在实践操作当中其实常常会因为标签选取不当或者网页本身的编写没做好板块区分你可能会多打印出一些奇怪的东西。 当遇到这种糟糕的情况一般有两种处理方案数量太多而无规律我们会换个标签提取数量不多而有规律我们会对提取的结果进行筛选——只要列表中的若干个元素就好。 这里如果是直接提取a标签你就会遇到这种情况。如果你愿意也可以试试看。 去查找所有包含食材的p标签。 创建一个空列表启动循环循环长度等于p标签的总数——你可以借助range(len())语法。 在每一次的循环里去提取一份菜名、URL、食材。拼接为小列表小列表拼接成大列表。输出打印。 也就是说换一种思路写代码我们分别提取所有的菜名、所有的URL、所有的食材。然后让菜名、URL、食材给一一对应起来。 参考答案 # 引用requests库 import requests # 引用BeautifulSoup库 from bs4 import BeautifulSoup# 为躲避反爬机制伪装成浏览器的请求头 headers {User-Agent: Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/71.0.3578.98 Safari/537.36} # 获取数据 res_foods requests.get(http://www.xiachufang.com/explore/,headersheaders) # 解析数据 bs_foods BeautifulSoup(res_foods.text,html.parser)# 查找包含菜名和URL的p标签 tag_name bs_foods.find_all(p,class_name) # 查找包含食材的p标签 tag_ingredients bs_foods.find_all(p,class_ing ellipsis) # 创建一个空列表用于存储信息 list_all [] # 启动一个循环次数等于菜名的数量 for x in range(len(tag_name)):# 提取信息封装为列表。list_food [tag_name[x].text.strip(),tag_name[x].find(a)[href],tag_ingredients[x].text.strip()]# 将信息添加进list_all list_all.append(list_food) # 打印 print(list_all)一个项目两种解法。恭喜你全都掌握。当菜谱在手大江南北便少有你烹不出的风味。 恭喜你成功入门爬虫~ 复习总结 严格来说我们这一关其实没有新的知识进入它是一个比较纯粹的项目关卡汇总代码如下 # 引用requests库 import requests # 引用BeautifulSoup库 from bs4 import BeautifulSoup# 为躲避反爬机制伪装成浏览器的请求头 headers {User-Agent: Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/71.0.3578.98 Safari/537.36} # 获取数据 res_foods requests.get(http://www.xiachufang.com/explore/,headersheaders) # 解析数据 bs_foods BeautifulSoup(res_foods.text,html.parser)# 查找包含菜名和URL的p标签 tag_name bs_foods.find_all(p,class_name) # 查找包含食材的p标签 tag_ingredients bs_foods.find_all(p,class_ing ellipsis) # 创建一个空列表用于存储信息 list_all [] # 启动一个循环次数等于菜名的数量 for x in range(len(tag_name)):# 提取信息封装为列表。list_food [tag_name[x].text.strip(),tag_name[x].find(a)[href],tag_ingredients[x].text.strip()]# 将信息添加进list_all list_all.append(list_food) # 打印 print(list_all)# 以下是另外一种解法# 查找最小父级标签 list_foods bs_foods.find_all(div,class_info pure-u) # 创建一个空列表用于存储信息 list_all []for food in list_foods:tag_a food.find(a)# 菜名使用strip()函数去掉了多余的空格name tag_a.text.strip()# 获取URLURL http://www.xiachufang.comtag_a[href]tag_p food.find(p,class_ing ellipsis)# 食材使用strip()函数去掉了多余的空格ingredients tag_p.text.strip()# 将菜名、URL、食材封装为列表添加进list_alllist_all.append([name,URL,ingredients])# 打印 print(list_all)这个项目里有许多东西值得我们回过头来看记录到小本本上下面是我的总结 确认目标-分析过程-代码实现是我们做每一个项目的必经之路。未来在此基础上还会有许多演化但基础都是这些。 将想要的数据分别提取再做组合是一种不错的思路。但是如果数据的数量对不上就会让事情比较棘手。比如在我们的案例里如果一个菜有多个做法其数量也没规律那么菜名和URL的数量就会对不上。 寻找最小共同父级标签是一种很常见的提取数据思路它能有效规避这个问题。但有时候可能需要你反复操作提取数据。 所以在实际项目实操中需要根据情况灵活选择灵活组合。我们本关卡所做的项目只是刚刚好两种方式都可以爬取。 text获取到的是该标签内的纯文本信息即便是在它的子标签内也能拿得到。但提取属性的值只能提取该标签本身的。 from bs4 import BeautifulSoupbs BeautifulSoup(pa惟有痴情难学佛/a独无媚骨不如人/p,html.parser) tag bs.find(p) print(tag.text)在爬虫实践当中其实常常会因为标签选取不当或者网页本身的编写没做好板块区分你可能会多提取到出一些奇怪的东西。 当遇到这种糟糕的情况一般有两种处理方案数量太多而无规律我们会换个标签提取数量不多而有规律我们会对提取的结果进行筛选——只要列表中的若干个元素就好。 以上就是我要分享的全部信息。 爬虫它是一项需要许多实操才能灵活掌握的技能。欢迎你在后面做更多的尝试。 在下一关我们将会学习一种新的爬虫。具体是什么容我卖个关子。期待你和我在周杰伦的歌声里相会 我们下一关见
http://www.sczhlp.com/news/162852/

相关文章:

  • 微信推广网站建设制作公司官网的步骤
  • 网站做优化效果怎么样合肥网络推广软件
  • 做百度网站每年的费用多少合适定制美瞳网站建设
  • 视网站亏损了为什么还做app定制软件开发哪家好
  • 佛山seo网站优化给企业建设网站的意义
  • 寿光网站建设m0536企业网站制作优化
  • 购物网站销售管理苏州网站建设公司找哪家
  • 给期货交易类做网站违法吗公司网站不备案和备案有什么区别
  • 网站建设推广合同网络建设与维护是什么工作
  • 互联网营销公司经营范围网站流量seo
  • 网站开发分为哪几种类型电脑工具wordpress
  • 安徽省建设监理有限公司网站网站改版重新收录
  • 实用指南:深度解析Sora2:技术革命与创意产业的未来图景
  • 详细介绍:图像分割:PyTorch从零开始实现SegFormer语义分割
  • 自动化安全工具的双刃剑:红队演练揭示安全响应盲区
  • 哈密伊吾县建设局网站莆田人做的网站
  • 中小企业官方网站作者自己建立的网站
  • 网站上线过程最火爆的国际贸易网站
  • 嘉兴建站服务wordpress中文企业主题下载
  • 枣庄手机网站建设公司重庆企业做网站
  • 医疗保健网站前置审批文件医疗类网站建设
  • 物价工作信息网站建设购物型网站模板
  • 贵州网站建设公司哪家好在线电子印章制作生成免费
  • 找摄影作品的网站成都php网站制作程序员
  • 织梦电子行业网站模板做二维码网站
  • 文登城乡建设局网站编程网站scratch网址
  • 网站建设团队介绍怎么写网页源代码怎么搜索关键词
  • 长沙电商网站开发精美网页
  • 泰州网站制作网站将wordpress安装到哪个数据库?
  • 河南省住房和城乡建设厅查询网站增城低价网站建设