我们专注攀枝花网站设计 攀枝花网站制作 攀枝花网站建设
成都网站建设公司服务热线:400-028-6601

网站建设知识

十年网站开发经验 + 多家企业客户 + 靠谱的建站团队

量身定制 + 运营维护+专业推广+无忧售后,网站问题一站解决

python爬虫如何爬取微博粉丝数据

这篇文章主要介绍了python爬虫如何爬取微博粉丝数据,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。

为淅川等地区用户提供了全套网页设计制作服务,及淅川网站建设行业解决方案。主营业务为成都网站设计、网站制作、淅川网站设计,以传统方式定制建设网站,并提供域名空间备案等一条龙服务,秉承以专业、用心的态度为用户提供真诚的服务。我们深信只要达到每一位用户的要求,就会得到认可,从而选择与我们长期合作。这样,我们也可以走得更远!

python可以做什么

Python是一种编程语言,内置了许多有效的工具,Python几乎无所不能,该语言通俗易懂、容易入门、功能强大,在许多领域中都有广泛的应用,例如最热门的大数据分析,人工智能,Web开发等。

现如今,微博成为大多数追星族追星的渠道之一,通过超话打卡,微博打榜,控评等维护自己的偶像。而品牌方会根据明星粉丝流量选取合适的代言人或活动嘉宾,微博中的粉丝数据可以很简单的分析出。

1、自动登录微博

driver = webdriver.Chrome(driver_path)  # 打开Chrome
driver.maximize_window()  # 将浏览器最大化显示
driver.get(weibo_url)  # 打开微博登陆页面
time.sleep(10)  # 加载页面需要时间,延时10s来确保页面已加载完毕
time.sleep(2)
driver.find_element_by_name("username").send_keys(username)  ##输入用户名
driver.find_element_by_name("password").send_keys(password)  ##输入密码
driver.find_element_by_xpath("//a[@node-type='submitBtn']").click()  ##点击登录按钮

2、获取cookie并将返回的Cookies数组转成微博需要的cookie格式

for x in range(len(cookies)):
value = cookies[x]['name'] + "=" + cookies[x]['value'] + ";"
cookie = cookie + value
return cookie

3、利用BeautifulSoup库进行解析html操作

headers['Cookie']=cookie
info_response = requests.get('http://s.weibo.com/user/' + names_list[x], headers)  # 微博搜索的页面url
info_soup = BeautifulSoup(info_response.text, 'html5lib')  # 利用BeautifulSoup库进行解析html操作
info_soup = get_html(info_soup, "pl_user_feedList")

4、找到用户信息的html

weibo_info = info_soup.find_all('a', attrs={"class": "W_linkb", "target": "_blank"})  # 找到用户信息的html
id = weibo_info[0].get('href')  # 用户id
subs_size = weibo_info[0].string  # 关注数
fans_size = weibo_info[1].string  # 粉丝数
contents_size = weibo_info[2].string  # 微博数
subs_size = int(re.sub("\D", "", subs_size))  # 只取出数字,其它的不管用,下面同理
fans_size = int(re.sub("\D", "", fans_size))
contents_size = int(re.sub("\D", "", contents_size))
id = int(re.findall('\d+', id)[0])
return [subs_size, fans_size, contents_size, id]

5、进行爬取

if __name__ == '__main__':
    browser = WeiboFansCrawler()
    browser.login()

    # 明星列表
    star_lists = ['谢娜', '何炅', 'Angelababy', '杨幂', '陈坤', '赵薇', '姚晨',
             '林心如', '邓超', '郭德纲', '林志颖', '张小娴', '赵丽颖', '范冰冰',
             '贾乃亮', '唐嫣', '胡歌', '陈乔恩', '王力宏', '黄晓明', '文章同學',
             '刘亦菲', '陈羽凡']

    # 若本地缓存中没有,则在线获取ID
    if len(browser.stars) == 0:
        for star in star_lists:
            browser.get_page_id(star)

    # ID缓存到本地
    with open('star_id.txt', 'w') as f:
        f.write(str(browser.stars))

    # 获取主页数据
    browser.get_fan_cnt()
    browser.get_home_data()
    browser.dump_home_data()

    # 获取并缓存数据到本地
    loop = 0
    while True:
        browser.get_fans_data()
        browser.dump_fans_data()
        loop += 1
        if loop > 20:
            break
        time.sleep(100)
    
    print(browser.stars)
    print(browser.data)

感谢你能够认真阅读完这篇文章,希望小编分享的“python爬虫如何爬取微博粉丝数据”这篇文章对大家有帮助,同时也希望大家多多支持创新互联,关注创新互联行业资讯频道,更多相关知识等着你来学习!


名称栏目:python爬虫如何爬取微博粉丝数据
URL地址:http://shouzuofang.com/article/gsgdsi.html

其他资讯