我们专注攀枝花网站设计 攀枝花网站制作 攀枝花网站建设
成都网站建设公司服务热线:400-028-6601

网站建设知识

十年网站开发经验 + 多家企业客户 + 靠谱的建站团队

量身定制 + 运营维护+专业推广+无忧售后,网站问题一站解决

Docker怎么部署Scrapy

这篇文章主要为大家展示了“Docker怎么部署Scrapy”,内容简而易懂,条理清晰,希望能够帮助大家解决疑惑,下面让小编带领大家一起研究并学习一下“Docker怎么部署Scrapy”这篇文章吧。

创新互联是一家专业提供西秀企业网站建设,专注与网站制作、成都网站制作、H5开发、小程序制作等业务。10年已为西秀众多企业、政府机构等服务。创新互联专业的建站公司优惠进行中。

假设我们要在10台Ubuntu 部署爬虫如何搞之?用传统的方法会吐血的,除非你记录下来每个步骤,然后步骤之间的次序还完全一样,这样才行。但是这样还是累啊,个别软件下载又需要时间。所以Docker出现了。Docker把系统,各种需要的应用,还有设置编译成一个image,然后 run一下就可以了。跟虚拟机的区别是不需要而外的物理支持,共用的。

1. 部署步骤

1.1 上传本地scrapy爬虫代码除了settings外到git 服务器

1.2 编写Dockerfile文件,把settings和requirements.txt 也拷贝到image里,一起打包成一个image

Dockerfile内容:

FROM ubuntu
RUN apt-get update
RUN apt-get install -y git
RUN apt-get install -y nano 
RUN apt-get install -y redis-server  
RUN apt-get -y dist-upgrade
RUN apt-get install -y openssh-server
RUN apt-get install -y python3.5 python3-pip
RUN apt-get install -y zlib1g-dev libffi-dev libssl-dev
RUN apt-get install -y libxml2-dev libxslt1-dev
RUN mkdir /code
WORKDIR /code
ADD ./requirements.txt /code/
ADD ./settings.py /code/
RUN mkdir /code/myspider
RUN pip3 install -r requirements.txt
VOLUME [ "/data" ]

requirements.txt 内容:

BeautifulSoup4
scrapy
setuptools
scrapy_redis
redis
sqlalchemy
pyMySQL
pillow

整个目录结构:

Docker怎么部署Scrapy

docker build -t fox6419/scrapy:scrapyTag .

fox6419是用户名,scrapyTag是tag

成功后,执行docker images可以在本地看到image

1.3 打包的image 上传到docker hub中

docker push username/repository:tag

push的命令格式是这样的,我这边就是:

docker push fox6419/scrapy:scrapyTag

1.4 在DigitalOcean这种主机商创建带docker应用的Ubuntu 16.04版本

1.5 登陆docker,拉下1.3的image,然后run起来

docker run -it fox6419/scrapy:scrapyTag /bin/bash

1.6 命令进去后,git clone 1.1中的爬虫,然后复制images里的settings到爬虫目录,然后执行scrapy crawl xxx即可

以上是“Docker怎么部署Scrapy”这篇文章的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助,如果还想学习更多知识,欢迎关注创新互联行业资讯频道!


标题名称:Docker怎么部署Scrapy
网站网址:http://shouzuofang.com/article/ighdeg.html

其他资讯