我们专注攀枝花网站设计 攀枝花网站制作 攀枝花网站建设
成都网站建设公司服务热线:400-028-6601

网站建设知识

十年网站开发经验 + 多家企业客户 + 靠谱的建站团队

量身定制 + 运营维护+专业推广+无忧售后,网站问题一站解决

Python爬虫如何抓取多个URL写入本地文件

这篇文章主要介绍了Python爬虫如何抓取多个URL写入本地文件的相关知识,内容详细易懂,操作简单快捷,具有一定借鉴价值,相信大家阅读完这篇Python爬虫如何抓取多个URL写入本地文件文章都会有所收获,下面我们一起来看看吧。

成都创新互联专注于福山企业网站建设,响应式网站开发,成都商城网站开发。福山网站建设公司,为福山等地区提供建站服务。全流程按需开发网站,专业设计,全程项目跟踪,成都创新互联专业和态度为您提供的服务

1. Pycharm中运行Scrapy

windows环境下cmd中通过scrapy startproject 项目名,创建scrapy项目

修改Run…中的Script path为cmdline.py文件路径F:\programs\python\Lib\site-packages\scrapy\cmdline.py

Parameters为crawl 爬虫文件名

working directory为scrapy项目所在文件夹

每次执行该run命令即可运行scrapy

2.items.py

class Csdn02Item(scrapy.Item):

# define the fields for your item here like:

# name = scrapy.Field()

title = scrapy.Field()#标题

updatetime = scrapy.Field()#发表时间

readcount = scrapy.Field()#阅读数

author = scrapy.Field()#作者

ranking = scrapy.Field()#博客排名

curl = scrapy.Field()#博文链接

context = scrapy.Field()#博文内容

3.pipelines.py

Python爬虫如何抓取多个URL写入本地文件

4.自定义的爬虫代码mycsdn.py

Python爬虫如何抓取多个URL写入本地文件

关于“Python爬虫如何抓取多个URL写入本地文件”这篇文章的内容就介绍到这里,感谢各位的阅读!相信大家对“Python爬虫如何抓取多个URL写入本地文件”知识都有一定的了解,大家如果还想学习更多知识,欢迎关注创新互联行业资讯频道。


当前名称:Python爬虫如何抓取多个URL写入本地文件
文章源于:http://shouzuofang.com/article/jocdho.html

其他资讯