成都网站建设设计

将想法与焦点和您一起共享

Python采集87个手绘风格PPT模板-创新互联

源码下载链接:ppt.rar - 蓝奏云

成都创新互联主营红桥网站建设的网络公司,主营网站建设方案,成都app软件开发公司,红桥h5微信平台小程序开发搭建,红桥网站营销推广欢迎红桥等地区企业咨询

PPT下载链接:https://pan.baidu.com/s/1HUAEe_-4IEV6ttOKC_VPuA?pwd=96px 
提取码:96px

采集的参数

page_count = 1  # 每个栏目开始业务content="text/html; charset=gb2312"
    base_url = "https://sc.chinaz.com/"  # 采集的网址  https://sc.chinaz.com/tag_ppt/zhongguofeng.html
    save_path = "D:\\Sprider\\ChinaZ\\"
    sprider_count = 110 # 采集数量
    haved_sprider_count = 0  # 已经采集的数量
    word_content_list = []
    folder_name = ""
    first_column_name = "ppt"
    sprider_start_count=800 # 从第几个序号开始 直接改数量即可 会做除法操作正 正在采集第32页的第16个资源 debug

    max_pager=20 #每页的数量

采集主体代码

def sprider(self, second_column_name):
        """
        采集Coder代码
        :return:
        """
        if second_column_name == "zhongguofeng":
            self.folder_name = "中国风"
            self.first_column_name="tag_ppt"
        elif second_column_name == "xiaoqingxin":
            self.folder_name = "小清新"
            self.first_column_name = "tag_ppt"
        elif second_column_name == "kejian":
            self.folder_name = "课件"
            self.first_column_name = "ppt"

        merchant = int(self.sprider_start_count) // int(self.max_pager) + 1

        second_folder_name = str(self.sprider_count) + "个" + self.folder_name
        self.save_path = self.save_path+ os.sep + "PPT" + os.sep +  second_folder_name
        BaseFrame().debug("开始采集ChinaZPPT...")
        sprider_url = (self.base_url + "/" +  self.first_column_name + "/" + second_column_name + ".html")
        response = requests.get(sprider_url, timeout=10, headers=UserAgent().get_random_header(self.base_url))
        response.encoding = 'UTF-8'
        soup = BeautifulSoup(response.text, "html5lib")
        #print(soup)
        div_list = soup.find('div', attrs={"class": 'ppt-list'})
        div_list =div_list.find_all('div', attrs={"class": 'item'})
        #print(div_list)
        laster_pager_url = soup.find('a', attrs={"class": 'nextpage'})
        laster_pager_url = laster_pager_url.previous_sibling



        #89

        page_end_number = int(laster_pager_url.find('b').string)
        #print(page_end_number)
        self.page_count = merchant

        while self.page_count<= int(page_end_number):  # 翻完停止
            try:
                if self.page_count == 1:
                    self.sprider_detail(div_list,self.page_count,page_end_number)
                else:
                    if self.haved_sprider_count == self.sprider_count:
                        BaseFrame().debug("采集到达数量采集停止...")
                        BaseFrame().debug("开始写文章...")
                        self.builder_word(self.folder_name, self.save_path, self.word_content_list)
                        BaseFrame().debug("文件编写完毕,请到对应的磁盘查看word文件和下载文件!")
                        break
                    #https://www.a5xiazai.com/android/youxi/qipaiyouxi/list_913_1.html
                    #https://www.a5xiazai.com/android/youxi/qipaiyouxi/list_913_2.html
                    #next_url = sprider_url + "/list_{0}_{1}.html".format(str(url_index), self.page_count)
                    #  (self.base_url + "/" + first_column_name + "/" + second_column_name + "/"+three_column_name+"")
                    next_url =(self.base_url + "/" +  self.first_column_name + "/" + second_column_name + "_{0}.html").format(self.page_count)
                    # (self.base_url + "/" + self.first_column_name  + "/" + second_column_name + "")+"/list_{0}_{1}.html".format(str(self.url_index), self.page_count)
                    response = requests.get(next_url, timeout=10, headers=UserAgent().get_random_header(self.base_url))
                    response.encoding = 'UTF-8'
                    soup = BeautifulSoup(response.text, "html5lib")
                    div_list = soup.find('div', attrs={"class": 'ppt-list'})
                    div_list = div_list.find_all('div', attrs={"class": 'item'})
                    self.sprider_detail(div_list, self.page_count,page_end_number)
                    pass
            except Exception as e:
                print("sprider()执行过程出现错误" + str(e))
                pass
            self.page_count = self.page_count + 1  # 页码增加1

    def sprider_detail(self, element_list, page_count,max_page):
        try:
            element_length = len(element_list)

            self.sprider_start_index = int(self.sprider_start_count) % int(self.max_pager)
            index = self.sprider_start_index

            while index< element_length:
                a=element_list[index]
                if self.haved_sprider_count == self.sprider_count:
                    BaseFrame().debug("采集到达数量采集停止...")
                    break
                index = index + 1
                sprider_info = "正在采集第" + str(page_count) + "页的第" + str(index) + "个资源"
                BaseFrame().debug(sprider_info)

                title_image_obj = a.find('img', attrs={"class": 'lazy'})
                url_A_obj=a.find('a', attrs={"class": 'name'})
                next_url = self.base_url+url_A_obj.get("href")
                coder_title = title_image_obj.get("alt")
                response = requests.get(next_url, timeout=10, headers=UserAgent().get_random_header(self.base_url))
                response.encoding = 'UTF-8'
                soup = BeautifulSoup(response.text, "html5lib")
                #print(next_url)
                down_load_file_div = soup.find('div', attrs={"class": 'download-url'})
                if down_load_file_div is None:
                    BaseFrame().debug("需要花钱无法下载因此跳过哦....")
                    continue

                down_load_file_url = down_load_file_div.find('a').get("href")

                #print(down_load_file_url)
                image_obj = soup.find('div', attrs={"class": "one-img-box"}).find('img')
                image_src = "https:"+ image_obj.get("data-original")
                #print(image_src)

                if (DownLoad(self.save_path).__down_load_file__(down_load_file_url, coder_title, self.folder_name)):
                    DownLoad(self.save_path).down_cover_image__(image_src, coder_title)  # 资源的 封面
                    sprider_content = [coder_title,
                                       self.save_path + os.sep + "image" + os.sep + coder_title + ".jpg"]  # 采集成功的记录
                    self.word_content_list.append(sprider_content)  # 增加到最终的数组
                    self.haved_sprider_count = self.haved_sprider_count + 1
                    BaseFrame().debug("已经采集完成第" + str(self.haved_sprider_count) + "个")
            if (int(page_count) == int(max_page)):
                self.builder_word(self.folder_name, self.save_path, self.word_content_list)
                BaseFrame().debug("文件编写完毕,请到对应的磁盘查看word文件和下载文件!")
        except Exception as e:
            print("sprider_detail:" + str(e))
            pass

采集的文件名

手绘风格乐器素材ppt背景图片

水粉手绘小清新花卉ppt背景图片
水彩手绘绿叶素材ppt背景图片
粉色儿童成长相册ppt背景图片
彩色手绘蔬菜食材ppt背景图片
水彩手绘开学季返校ppt背景图片
新的学期新的起点主题班会ppt模板
绿色渐变水彩风ppt背景模板
彩色卡通健康蔬果ppt图片背景
手绘拼贴画新冠防疫知识ppt背景图
手绘风介绍立秋节气ppt模板
儿童手绘致敬医学工作者ppt背景图片
手绘风幼儿园儿童节PPT课件
黑板手绘风备战高考PPT模板
小清新蓝绿植物文艺风ppt模板
期末家长会PPT模板
大学生职业规划书PPT模板
小学生秋游安全教育PPT模板
活动流程策划案例PPT模板
绿色手绘风叶子开学家长会PPT模板
小学教学工作汇报PPT模板
手绘风学业生涯规划书PPT模板
手绘策划方案答辩PPT模板
手绘绿植毕业生答辩PPT模板
手绘风卡通期中家长会PPT模板
转正述职报告PPT模板
大学生调研报告PPT模板
小清新财务总结报告PPT模板
美妆销售年初总结PPT模板
手绘风旅游旅行PPT模板
销售经理年终总结PPT模板
卡通手绘风2021庆典PPT模板
卡通儿童旅行相册PPT模板
手绘风圣诞节ppt背景
商务时尚企业PPT模板
秋天的图画ppt
小学语文ppt模板
卡通ppt背景图片
ppt模板免费下载
精美ppt模板免费下载
水彩手绘风感恩教师节ppt
手绘风快乐61儿童节PPT模板
文艺趣味手绘风商务总结PPT模板
手绘风医疗医药数据报告PPT模板
创意手绘风动态工作汇报PPT模板
手绘风可爱小班家长会PPT模板
创意手绘电商节活动策划PPT模板
手绘感恩节主题班会PPT模板
手绘清新教学课件PPT模板
绿色手绘花卉植物个人工作总结PPT模板
手绘卡通风端午节习俗PPT模板
手绘风唯美创意三八女神节PPT模板
日系风手绘美丽38女王节PPT模板
清新绿色手绘插画风艺术设计PPT模板
文艺小清新手绘插画风情人节PPT模板
创意粉笔手绘感恩教师节ppt模板
素雅文艺手绘插画师ppt模板
创意可爱手绘风童年回忆ppt模板
个性涂鸦色彩手绘风ppt模板
清新水彩手绘ppt模板
创意卡通铅笔手绘风ppt模板
卡通铅笔手绘大数据整理ppt模板
创意手绘卡通论文答辩ppt模板
创意手绘卡通ppt模板
灰色可爱卡通背景ppt模板
趣味简约手绘线稿ppt模板
创意趣味手绘涂鸦ppt模板下载
创意低碳环保ppt模板
创意彩色手绘论文答辩ppt模板
创意手绘涂鸦褶皱纸张背景ppt模板
创意趣味手绘ppt模板下载
精美彩绘ppt模板下载
水彩手绘说课ppt模板下载
创意手绘ppt卡通动画模板下载
个性创意手绘ppt模板下载
春天气息的ppt模板
化学说课ppt模板下载
玫瑰情人节ppt模板免费下载
手绘涂鸦PPT图表下载
师范类通用ppt模板下载
手绘沙滩海洋生物ppt模板
手绘绿色公园ppt模板下载
手绘梦幻樱花ppt模板下载
手绘女孩ppt模板下载
手绘女孩ppt模板下载
手绘爱心ppt模板下载
粉红女孩ppt模板下载
粉彩美女ppt模板下载

你是否还在寻找稳定的海外服务器提供商?创新互联www.cdcxhl.cn海外机房具备T级流量清洗系统配攻击溯源,准确流量调度确保服务器高可用性,企业级服务器适合批量采购,新人活动首月15元起,快前往官网查看详情吧


当前文章:Python采集87个手绘风格PPT模板-创新互联
标题来源:http://chengdu.cdxwcx.cn/article/cddgcp.html