Python爬虫:采集热门电影信息,分析一下有没有好看的,周末带女神一起去看!

Python爬虫:采集热门电影信息,分析一下有没有好看的,周末带女神一起去看!

一、前言

好不容易女神喊我去看电影,但是她又不知道看啥,那么我当然得准备准备~


在这里插入图片描述

二、前期准备

1、使用的软件

  • python 3.8 开源 免费的 (统一 3.8)
  • Pycharm YYDS python最好用的编辑器 不接受反驳…
    软件我都放这了: 软件工具等等

2、需要用的模块

requests >>> 数据请求模块 pip install requests
parsel   >>> 数据解析模块 pip install parsel
csv

3、模块安装问题

模块安装问题:

1)、如何安装python第三方模块:

第一种:win + R 输入 cmd 点击确定, 输入安装命令 pip install 模块名 (pip install requests) 回车。
第二种:在pycharm中点击Terminal(终端) 输入安装命令

2)安装失败原因:

第一种: pip 不是内部命令
解决方法: 设置环境变量

第二种: 出现大量报红 (read time out)
解决方法: 因为是网络链接超时, 需要切换镜像源。

清华:https://pypi.tuna.tsinghua.edu.cn/simple
阿里云:http://mirrors.aliyun.com/pypi/simple/
中国科技大学 https://pypi.mirrors.ustc.edu.cn/simple/
华中理工大学:http://pypi.hustunique.com/
山东理工大学:http://pypi.sdutlinux.org/
豆瓣:http://pypi.douban.com/simple/
例如:pip3 install -i https://pypi.doubanio.com/simple/ 模块名

 

第三种: cmd里面显示已经安装过了, 或者安装成功了, 但是在pycharm里面还是无法导入。

解决方法: 可能安装了多个python版本 (anaconda 或者 python 安装一个即可) 卸载一个就好,或者你pycharm里面python解释器没有设置好。

4、如何配置pycharm里面的python解释器?

如何配置pycharm里面的python解释器?

  1. 选择file(文件) >>> setting(设置) >>> Project(项目) >>> python interpreter(python解释器)
  2. 点击齿轮, 选择add
  3. 添加python安装路径

5、pycharm如何安装插件?

  1. 选择file(文件) >>> setting(设置) >>> Plugins(插件);
  2. 点击 Marketplace 输入想要安装的插件名字 比如:翻译插件 输入 translation;
  3. 选择相应的插件点击 install(安装) 即可;
  4. 安装成功之后 是会弹出 重启pycharm的选项 点击确定, 重启即可生效;

三、思路

爬虫获取数据是要分析服务器返回的数据内容,无论你爬取任何网站数据,都是可以按照这个几步骤来。

1、明确需求

我们要爬取的内容是什么 https://movie.douban.com/top250,要分析我们的想要数据, 可以从哪里获取/哪里来的… (数据来源分析)

用开发者工具进行抓包(数据包)分析,静态网页/网页上面看到的数据内容,在网页源代码里面都有。

2、发送请求

开发者工具里面headers ,对于那个网址发送请求,发送什么样的请求,携带那些请求头参数。

3、获取数据

获取服务器返回的数据内容,看服务器数据格式是什么样的,或者说我们想要的数据是什么样的;
获取文本数据 response.text
获取服务器json字典数据 response.json()
获取二进制数据 response.content
保存视频/音频/图片/特定格式的文件内容, 都是获取二进制数据;

4、解析数据

提供我们想要的数据内容

5、保存数据

保存本地

四、代码部分

import requests  # 数据请求模块 pip install requests
import parsel  # 数据解析模块 pip install parsel
import csv  # 保存表格数据

f = open("豆瓣数据.csv", mode="a", encoding="utf-8", newline="")
# 快速批量替换 全选内容 使用正则表达式 替换内容
csv_writer = csv.DictWriter(f, fieldnames=[
    "电影名字",
    "导演",
    "主演",
    "年份",
    "国家",
    "电影类型",
    "评论人数",
    "评分",
    "概述",
    "详情页",
])
csv_writer.writeheader()
for page in range(0, 250, 25):
    url = f"https://movie.douban.com/top250?start={page}&filter="
    # headers 请求头 用来伪装python代码 为了防止爬虫程序被服务器识别出来,
    # User-Agent 浏览器的基本标识 用户代理 直接复制粘贴的
    #Python学习交流群872937351 ,免费领取视频/电子书/解答等等
    # 披着羊皮的狼  爬虫程序 >>> 狼  headers >>> 羊皮  服务器数据 >>> 羊圈
    headers = {
        "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/96.0.4664.45 Safari/537.36"
    }
    # 发送请求 get
    # 通过requests数据请求模块里面get请求方法 对于 url以及发送请求并且携带header请求头, 最后用response变量接收返回数据
    response = requests.get(url=url, headers=headers)
    # 获取数据
    # print(response.text)
    # 解析数据 re正则表达式 css选择器 xpath 那一种更方便 更加舒服 就用哪一个
    # json 键值对取值
    # 提取我们想要的数据内容
    # 把获取下来的 response.text 网页字符串数据 转成selector 对象
    selector = parsel.Selector(response.text)
    # <Selector xpath=None data="<html lang="zh-CN" class="ua-windows ..."> 对象    # css选择器 根据标签属性提取数据
    # 第一次解析数据, 获取所有li标签
    lis = selector.css(".grid_view li")  # css选择器语法
    # selector.xpath("//*[@class="grid_view"]/li") # xpath写法
    # [] 列表, 如果说我想要一一提取列表里面的元素 怎么做?
    for li in lis:
        try:
            # span:nth-child(1) 组合选择器  表示的选择第几个span标签
            # 1 选择第一个span标签 text 获取标签文本数据
            title = li.css(".hd a span:nth-child(1)::text").get()
            href = li.css(".hd a::attr(href)").get()  # 详情页
            # li.xpath("//*[@class="hd"]/a/span(1)/text()").get()
            # get返回字符串数据 getall 是返回列表数据
            # get获取第一个标签数据 getall 获取所有的
            move_info = li.css(".bd p::text").getall()
            actor_list = move_info[0].strip().split("   ")  # 列表索引位置取值
            # print(actor_list)
            date_list = move_info[1].strip().split("/")  # 列表索引位置取值
            director = actor_list[0].replace("导演: ", "").strip()  # 导演
            actor = actor_list[1].replace("主演: ", "").replace("/", "").replace("...", "") # 演员
            date = date_list[0].strip()  # 年份
            country = date_list[1].strip()  # 国家
            move_type = date_list[2].strip()  # 电影类型
            comment = li.css(".star span:nth-child(4)::text").get().replace("人评价", "")  # 评论人数
            star = li.css(".star span:nth-child(2)::text").get()  # 星级
            world = li.css(".inq::text").get()  # 概述
            # 字符串的高级方法
            # replace() 字符串替换的方法  strip() 去除字符串左右两端的空格 split() 分割 之后返回的列表
            # 字符串如何去除空格呢?
            # print(title, actor_list, date_list)
            dit = {
                "电影名字": title,
                "导演": director,
                "主演": actor,
                "年份": date,
                "国家": country,
                "电影类型": move_type,
                "评论人数": comment,
                "评分": star,
                "概述": world,
                "详情页": href,
            }
            csv_writer.writerow(dit)
            print(title, director, actor, date, country, move_type, comment, star, world, href, sep=" | ")
        except:
            pass

 

五、视频教程

如果文字版看不懂,我还准备了视频讲解:

视频教程播放地址:Python爬取豆瓣热门电影排行

 

兄弟们看完了,觉得有帮助,记得点个赞收藏一下哇~