ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

豆瓣Top250电影信息的抓取

2021-03-12 13:02:24  阅读:185  来源: 互联网

标签:url Top250 抓取 re 豆瓣 pattern data find append


利用urllib以及re模块进行豆瓣网页Top250电影信息的抓取

import urllib.request
import bs4
import re
from openpyxl import Workbook

# 网页信息匹配规则
pattern_find_Title = re.compile(r'<span class="title">(.*?)</span>')  # 电影名字匹配规则
pattern_find_Score = re.compile(r'<span class="rating_num" property="v:average">(.*?)</span>')  # 电影评分匹配规则
pattern_find_Evaluator = re.compile(r'<span>(\d*)人评价</span>')  # 电影评价人数匹配规则
pattern_find_actor = re.compile(r'主演: (.*?) ') #主演匹配规则
pattern_find_BriefComment = re.compile(r'<span class="inq">(.*?)</span>')  # 简评匹配规则
pattern_find_Editor = re.compile(r'导演: (.*?) ')  #导演匹配规则

def main():
    savepath = 'C:/Users/slli/Desktop/豆瓣Top250.xlsx'
    base_url = 'https://movie.douban.com/top250?start='
    data_xlsx = data_cross(base_url)
    save_data(data_xlsx,savepath)

def askurl(url):  # 得到指定的一个url网页信息
    head = {
        "User-Agent": "Mozilla/5.0 (Linux; Android 6.0; Nexus 5 Build/MRA58N) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/87.0.4280.141 Mobile Safari/537.36"
    }
    request = urllib.request.Request(url, headers=head)
    html = ""
    try:
        response = urllib.request.urlopen(request)
        html = response.read().decode('utf-8')
        # print(html)
    except Exception as e:
        if hasattr(e, 'code'):
            print(e.code)
        if hasattr(e, 'reason'):
            print(e.reason)
    return html

def data_cross(base_url):
    data_xlsx = [['排名','电影名称','导演','主演','评分','评价人数','简评']]

    for i in range(0, 10):
        url = base_url + str(i * 25)
        html = askurl(url)
        soup = bs4.BeautifulSoup(html, 'html.parser')
        all_items = soup.find_all('div', class_="item")
        for j in range(0,len(all_items)):
            data = []
            item = str(all_items[j])
            rank_str = '第{}名'.format(i*25+j+1)
            rank = []
            rank.append(rank_str)
            title = re.findall(pattern_find_Title, item)
            editor = re.findall(pattern_find_Editor,item)
            actor = re.findall(pattern_find_actor, item)
            score = re.findall(pattern_find_Score, item)
            evaluator = re.findall(pattern_find_Evaluator, item)
            comment = re.findall(pattern_find_BriefComment, item)

            data.append(rank[0])
            data.append(title[0])
            data.append(editor[0])
            if actor == []:
                data.append('名字不详')
            else:
                data.append(actor[0])
            data.append(score[0])
            data.append(evaluator[0])
            if comment == []:
                data.append('暂未简评')
            else:
                data.append(comment[0])

            data_xlsx.append(data)
    return data_xlsx

def save_data(data_xlsx,savepath):
    wb = Workbook()
    ws = wb.create_sheet(title='豆瓣Top250')
    for row in data_xlsx:
        ws.append(row)  #把每一行写入到excel
    wb.save(savepath)

if __name__ == '__main__':
    main()
    print('Done!')

运行后的结果:
在这里插入图片描述

标签:url,Top250,抓取,re,豆瓣,pattern,data,find,append
来源: https://blog.csdn.net/lisl1716/article/details/114693021

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有