ICode9

精准搜索请尝试: 精确搜索
  • 怎么解决Retrying (Retry(total=4, connect=None, read=None, redirect=None, status=None)) after connection2022-08-29 11:01:14

    问题: 安装包出现Retrying (Retry(total=4, connect=None, read=None, redirect=None, status=None)) after connection broken by 'ConnectTimeoutError 解决办法: pip install selectivesearch -i http://pypi.douban.com/simple --trusted-host pypi.douban.com 简单的来说就是使

  • pprint的安装2022-08-19 10:01:30

    (d2l) [root@localhost xbiquge_w]# pip install pprint -i http://pypi.douban.com/simple/ --trusted-host pypi.douban.comLooking in indexes: http://pypi.douban.com/simple/Collecting pprint Downloading http://pypi.doubanio.com/packages/99/12/b6383259ef85c2b94

  • range关键字2022-08-12 19:02:41

    用法1:括号内只写一个数字 range(100) 从0开始到99结束 顾头不顾尾 变相的理解为:[0,1,2,3,4,5,6......,99]用法2:括号内写两个数字 range(1, 10) 从1开始到9结束 顾头不顾尾 变相的理解为:[1,2,3,4,5,6,7,8,9]用法3:括号内写三个数字 range(1, 10, 2) 从1开始到9结束 并

  • 【Python爬虫技巧】快速格式化请求头Request Headers2022-07-15 10:03:11

    from lxpy import copy_headers_dict import requests headers = """ Accept: text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9 Accept-Encoding: gzip, deflate

  • 爬虫实战(五):爬豆瓣top2502022-07-06 13:00:09

    目录爬虫实战(五):爬豆瓣top250一、网址分析1、 页面分析2、 源码分析3、 内容解析4、 链接分析二、编写代码1、 获取每页url2、 获取ol里面的li标签3、 获取数据4、 数据清洗三、完整代码 爬虫实战(五):爬豆瓣top250 一、网址分析 1、 页面分析 通过抓包分析,可得数据不是动态加载出来的

  • pip安装包报错Could not find a version that satisfies the requirement pymysql (from versions: none)2022-07-05 11:32:55

    第一种可能: 这时可能需要我们升级一下pip版本,于是执行命令 python -m pip install --upgrade pip   第二种可能: 这时考虑换一个pip源 pip install pymysql -i https://pypi.tuna.tsinghua.edu.cn/simple/     第三种可能: 这时考虑是网速的原因,这时采用国内的镜像源来加速 pip i

  • 章节十四:Scrapy框架2022-06-28 22:03:48

    章节十四:Scrapy框架 目录章节十四:Scrapy框架1. Scrapy是什么1.1 Scrapy的结构1.2 Scrapy的工作原理2. Scrapy的用法2.1 明确目标与分析过程2.2 代码实现——创建项目2.3 代码实现——编辑爬虫2.4 代码实现——定义数据2.5 代码实操——设置2.6 代码实操——运行3. 代码实操4. 复习

  • python循环结构之for循环2022-06-23 19:33:32

    内容回顾 逻辑运算符回顾 连接多个条件运算符,and、or、not 问题:连接多个条件的运算返回的是布尔值还是数据值?? 如果所有的条件都是数据值,那么返回的就是数据值 print(0 and 2 and 5) # 5 print(0 or 1 or 3 or 5) # 1 如果所有的条件都是表达式,那么返回的是布尔值 print(1

  • python2.7安装pip以及配置镜像2022-06-13 21:35:03

    1、安装pip python get-pip.py -i http://pypi.douban.com/simple/ --trusted-host pypi.douban.com # 使用安装get-pip.py 安装pip(python2不自带pip) 2、配置镜像 pip.exe -v config list 如果没有pip.ini则手动创建 mkdir -p C:\ProgramData\pip && touch C:\ProgramData

  • pip安装显示Could not find a version that satisfies the requirement2022-06-08 19:34:24

    两种情况,第一种是pip版本过低,用python -m pip install --upgrade pip命令更新pip版本 如果更新了还不行那就是网络问题,本来我想安装个loguru试了好久一直出错,如果前面提示“WARNING: Retrying (Retry(total=4, connect=None, read=None, redirect=None, status=None)) after conne

  • 【爬虫】豆瓣电影2022-05-29 23:03:31

    # -*- coding:utf-8 -*- # Filename:test_豆瓣250.py import requests import re import csv def douban_film(): header = { "User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_6) AppleWebKit/537.36 (KHTML, like Gecko) "

  • python之pip换源2022-05-25 22:33:42

    python安装模块的两种方式 # 方式一:用国外镜像 pip install pandas # 方式二:换成国内镜像 pip install -i https://pypi.douban.com/simple 模块名pip install -i https://pypi.douban.com/simple pandas 永久换源基本配置 每次都需要临时换源很麻烦,所以我们就需要配置

  • 02、 pip源2022-05-03 14:32:48

    1、国内镜像源 1.阿里云:https://mirrors.aliyun.com/pypi/simple/2.豆瓣:https://pypi.douban.com/simple/3.清华大学:https://pypi.tuna.tsinghua.edu.cn/simple/4.中国科学技术大学 http://pypi.mirrors.ustc.edu.cn/simple/5.华中理工大学:http://pypi.hustunique.com/6.山东理工

  • 配置pip源2022-04-18 20:01:55

    永久安装源 windows """ 1、文件管理器文件路径地址栏敲:%APPDATA% 回车,快速进入 C:\Users\电脑用户\AppData\Roaming 文件夹中 2、新建 pip 文件夹并在文件夹中新建 pip.ini 配置文件 3、新增 pip.ini 配置文件内容 """ Macos,linux """ 1、在用户根目录下 ~ 下创建 .pip 隐藏文

  • 安装Python库时超时或者网络问题怎么办2022-03-28 15:33:13

    设置超时时间并且设置豆瓣源下载 # 根据requirements.txt文件下载 pip --default-timeout=1000 install -r requirements.txt -i http://pypi.douban.com/simple/ --trusted-host pypi.douban.com # 下载单个依赖 pip --default-timeout=1000 install `matplotlib` -i http://pyp

  • 静态网页爬虫2022-03-06 11:16:30

    解析数据 通过在命令行中输入 pip install beautifulsoup4 安装 BeautifulSoup 我们通过 from bs4 import BeautifulSoup 语句导入 BeautifulSoup,然后使用 BeautifulSoup(res.text, 'html.parser') 语句将网页源代码的字符串形式解析成了 BeautifulSoup 对象。 创建 Bea

  • (一)环境安装和web框架使用(flask)2022-03-04 10:31:32

     由于环境安装的文章太多,最靠谱的当然是廖老师,自己的js和java很多学习也都是来自廖雪峰,这里放个连接,如果环境都搞不定,就可以直接放弃了。 环境安装和基础的语法知识: 廖雪峰个人博客:https://www.liaoxuefeng.com/wiki/1016959663602400 学习一个新东西的时候,尽量少吃快餐,想要了解

  • 2 python之pip换源2022-02-16 15:01:39

    之前python安装模块的两种方式: 1 pip install mysql 使用的是国外镜像,很慢 2 pip install mysql -i 国内镜像地址 这种方式每次都要加国内镜像地址,麻烦 所以我们要配置pip换源 1、采用国内源,加速下载模块的速度 2、常用pip源: -- 豆瓣:https://pypi.douban.com/simple --

  • 1、项目准备2022-02-03 15:02:00

    前期项目的准备,需要进行项目分析需求,pip换源,虚拟环境的搭建. 项目是模仿 路飞学城 这个网站的。 一、需求分析 我们通过路飞学城网站,分析了一下这个网站的功能和需求 1 首页功能 -轮播图 2 用户功能 -多方式登录 -手机验证码登录 -手机验证码注册 -发送验证码接

  • python-转化请求头2022-01-31 17:34:05

    转化请求头 import re headers = """ Accept: */* Accept-Encoding: gzip, deflate, br Accept-Language: zh-CN,zh;q=0.9 Connection: keep-alive Host: movie.douban.com Referer: https://movie.douban.com/subject/27010768/comments?start=420

  • Windows 10 python 更换国内源2022-01-29 09:02:30

    打开此电脑在在地址栏输入:%APPDATA% 在搜索出的目录里新建文件夹pip,在pip文件夹下新建pip.ini文件,输入以下内容并保存 [global] timeout = 6000 index-url = http://pypi.douban.com/simple trusted-host = pypi.douban.com 国内其他安装源 豆瓣 :http://pypi.douban.com/simp

  • python装库报错解决2022-01-14 21:02:20

    python装库报错解决 输入的代码: pip install HSI -i https://pypi.douban.com/simple 报错内容: Could not fetch URL https://pypi.douban.com/simple/hsi/: There was a problem confirming the ssl certificate: HTTPSConnectionPool(host='pypi.douban.com', port=443): Max

  • 使用pip安装库或执行pip命令时报错解决方案2022-01-11 09:33:34

    初次安装pip后执行安装升级一般不会有问题,但是国外的镜像源下载升级由于网速过慢会进行报错,提示需要升级 pip 或者下载速度很慢最后直接报了错如下图:    这个时候只需要修改镜像源即可,建议修改为永久镜像源: 一、在windows环境下修改pip镜像源的方法(以python3.10为例) (1):在wi

  • sklearn下载方法,如果pycharm下载失败的话,你可以看看这里2022-01-01 13:33:51

    提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档 文章目录 一、sklearn下载方法是什么? 一、sklearn下载方法是什么? 示例:pandas 是基于NumPy 的一种工具,该工具是为了解决数据分析任务而创建的。 **注意:**直接在终端运行就可以了 pip install scikit-learn -

  • scrapyd和scrapyd-client使用教程2021-12-20 10:31:56

    scrapyd是一个用于部署和运行scrapy爬虫的程序,它允许你通过JSON API来部署爬虫项目和控制爬虫运行 概览 项目和版本 scrapyd可以管理多个项目,并且每个项目允许有多个版本,但是只有最新的版本会被用来运行爬虫. 最方便的版本管理就是利用VCS工具来记录你的爬虫代码,版本比较不是简单

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有