我们专注攀枝花网站设计 攀枝花网站制作 攀枝花网站建设
成都网站建设公司服务热线:400-028-6601

网站建设知识

十年网站开发经验 + 多家企业客户 + 靠谱的建站团队

量身定制 + 运营维护+专业推广+无忧售后,网站问题一站解决

Windows下安装配置爬虫工具Scrapy及爬虫环境

爬虫工具Scrapy在Mac和Linux环境下都相对好装,但是在Windows上总会碰到各种莫名其妙的问题。本文记录下Scrapy在Window上的安装过程。
本文是基于Python2.7及Windows 10安装Scrapy及各种爬虫相关库。

创新互联公司是专业的邛崃网站建设公司,邛崃接单;提供网站设计、成都网站制作,网页设计,网站设计,建网站,PHP网站建设等专业做网站服务;采用PHP框架,可快速的进行邛崃网站开发网页制作和功能扩展;专业做搜索引擎喜爱的网站,专业的做网站团队,希望更多企业前来合作!

下载安装Scrapy

Scrapy官方文档

  1. 按照官网建议下载安装Anaconda,使用这个安装比直接pip安装会少很多问题。
    下载地址

  2. 安装完成后,python2.7也会自动安装好,然后执行以下命令安装Scrapy.
conda install -c conda-forge scrapy

安装MySQL驱动

  1. 下载并安装mysql官方的驱动程序。下载地址

  2. 下载mysql的python驱动程序,可以把两个都装上,使用的时候再决定用哪个。
  • MySQL官方的纯Python驱动
pip install mysql-connector-python
  • 封装了MySQL C驱动的Python驱动

    1. 安装Python版C++编译程序。下载地址

    2. 拷贝mysql驱动(32位不需要这一步),将"C:\Program Files\MySQL" 拷贝到 "C:\Program Files (x86)\MySQL"。
      目的是为了防止下一步的错误"Cannot open include file: 'config-win.h': No such file or directory"

    3. 安装驱动

      pip install MySQL-python
    4. 安装数据库连接池工具

      pip install DBUtils

安装其它相关的依赖库

安装BeautifulSoup

Beautiful Soup提供一些简单的、python式的函数用来处理导航、搜索、修改分析树等功能。

pip install beautifulsoup4
安装PyQuery

PyQuery库也是一个非常强大又灵活的网页解析库。

pip install pyquery

文章题目:Windows下安装配置爬虫工具Scrapy及爬虫环境
本文网址:http://shouzuofang.com/article/iepgdd.html

其他资讯