ICode9

精准搜索请尝试: 精确搜索
  • Jenkins的pipeline集成代码检查质量门禁2022-02-09 17:33:44

    1.配置jenkins的sonarqube和token    2.增加代码检查的pipeline的质量门禁语法             pipeline { agent any stages{ stage('拉取git代码'){ steps{ checkout([$class: 'GitSCM',  branches: [[name: '*/dev']],  userRemoteConfigs: [[credentialsId: '

  • Jenkins Pipeline远端触发构建2022-02-09 16:33:10

    Jenkins Pipeline远端触发构建 Pipeline Script from SCM流水线 在jenkins的UI界面编写Pipeline代码,很不方便脚本维护,建议把Pipeline脚本放到项目中(一起进行版本控制) 1.在项目根目录建立jenkinsfile文件,把写在jenkins流水线中的内容复制到该文件中 把Jenkinsfile上传到GitLa

  • pipeline中sh使用参数化构建输入的参数2022-02-09 15:04:04

    摘要:pipeline是参数化构架的,并且想在pipeline中sh命令中使用参数 代码块: pipeline{ parameters { string defaultValue: 'AMD-desktop', name: 'node_name' string defaultValue: 'test_cmd/test_version.py', name: 'feature' }

  • 三天学会网络爬虫之Day022022-02-03 17:33:39

    三天学会网络爬虫之Day02 第一章 课程计划第二章 2. WebMagic介绍2.1. 架构介绍2.1.1. WebMagic的四个组件2.1.2. 用于数据流转的对象 2.2. 入门案例2.2.1. 加入依赖2.2.2. 加入配置文件2.2.3. 案例实现 第三章 WebMagic功能3.1. 实现PageProcessor3.1.1. 抽取元素Select

  • Jenkins 学习笔记2022-02-02 19:32:42

    持续集成 1. 概述 持续集成(Continuous integration,简称 CI)指的是,频繁地(一天多次)将代码集成到主干 持续集成的目的,就是让产品可以快速迭代,同时还能保持高质量。它的核心措施是,代码集成到主干之前,必须通过自动化测试。只要有一个测试用例失败,就不能集成 通过持续集成,团队可以快速的

  • Castled 源码解析 - container 模块说明2022-02-01 13:31:22

    container 属于Castled api 后端服务,后端包含了任务调度,db 迁移,有几个服务是比较重要的 主要是pipelineservice,ExternalAppService,WarehouseService,而且官方还提供了一套基于events 的处理 主要包含PipelineEvent,CastledEvent,其他的主要是基于dropwizard 开发的rest api 了,整

  • Netty学习笔记(4) Netty源码 - accept 和 read流程2022-01-30 13:04:13

    文章目录 前言1. nio中的accept回顾2. netty中的accept流程1. int localRead = doReadMessages(readBuf)2. pipeline.fireChannelRead(readBuf.get(i))1. childGroup.register(child).addListener(new ChannelFutureListener() 3. netty 中的 read 流程 前言 笔记基于

  • Game CI 提升研发生产力,UWA Pipeline 2.0正式推出2022-01-27 12:02:41

    随着项目研发规模的扩大,无论是打包编译的需求,还是测试任务的广度深度都在与日俱增。面对越来越高频的“发版-测试-反馈”的工期,如何在每个工作环节上提升研发效率,最大程度地发挥整个研发团队的生产力,并最终可按时交付版本,是大家都在努力的方向。 当下游戏团队面临的研发

  • scrapy的Pipeline类不可使用yield2022-01-22 23:33:48

    scrapy的Pipeline类不可使用yield 业务需求在scarpy的pipeline中处理过数据后再生成新的Request。但如果直接再Pipeline类的process_item方法中yield Request,会导致爬虫执行直接跳过该Pipeline,连个报错都看不到。 排查发现是yield使该函数的调用的返回值成为生成器,而不是相关返回

  • 使用流水线(pipeline)部署项目时,自动杀死衍生进程问题2022-01-21 17:30:41

    使用JENKINS_NODE_COOKIE=dontkillme防止衍生进程被杀死,注意这是流水线项目的操作!!! 示例: stage('部署jar包') { steps { withEnv(['JENKINS_NODE_COOKIE=dontkillme']){ # 最重要的操作 echo '部署jar包' sh '''cp ruoyi-admin/target/platform.jar /u

  • Nvidia Deepstream极致细节:3. Deepstream Python RTSP视频输出显示2022-01-21 13:33:02

    Nvidia Deepstream极致细节:3. Deepstream Python RTSP视频输出显示 此章节将详细对官方案例:deepstream_test_1_rtsp_out.py作解读。deepstream_test_1_rtsp_out.py的主要作用是可以输入rtsp格式的视频流。当我们成功运行了这个Python文件后,我们在屏幕上并不会看到视频,但是,系

  • jenkins基于pipeline实现项目构建2022-01-20 17:31:53

    1、Pipeline 是什么 Jenkins Pipeline 实际上是基于Groovy实现的CI/CD领域特定语言(DSL),主要分为两类,一类叫做Declarative Pipeline,一类叫做Scripted Pipeline。 1.1 Declarative Pipeline Declarative Pipeline 体验上更接近于我们熟知的 travis CI的 travis.yml,通过声明自

  • WebAPI Tip #8: Working with Tasks & WebAPI Tip #7: Beautiful Message Handlers (转发)2022-01-20 12:33:26

    原文:https://odetocode.com/blogs/scott/archive/2013/04/08/webapi-tip-8-working-with-tasks.aspx   Message handlers in the WebAPI feature a single method to process an HTTP request and turn the request into a response. SendAsync is the method name, and follow

  • Azure Terraform(九)利用 Azure DevOps Pipeline 的审批,控制流程发布2022-01-13 23:31:13

    一,引言   Azure Pipeline 管道是一个自动化过程;但是往往我们由于某种原因,需要在多个阶段之前获得批准之后再继续下一步流程,所以我们可以向Azure Pipeline 管道添加审批!批准流程可帮助我们进一步控制自己的管道;我们可以控制管道内特定阶段的 Step 开始,通过审批,并决定 Azure Pipel

  • 完成Pipeline。-- 代码源自虎哥博客。感谢2022-01-11 22:31:37

      当时想实践一下Pipeline的构建。   未能实现的原因主要是在于    1. ClickHouse架构认识不足。   2.CMakeLists.txt 功力不足。   各占一半一半。   参见虎哥的博客: https://bohutang.me/2020/06/11/clickhouse-and-friends-processor/   1. Source 12345678

  • Logstash(3)插件的使用(input、filter、output的使用)2022-01-11 19:30:25

    一:输入插件(input) 输入插件地官方文档:https://www.elastic.co/guide/en/logstash/current/input-plugins.html 下面将举例说明: 标准输入读取文件读取TCP网络数据 1 标准输入(stdin) 在控制台打helloworld(stdin{}),回车就会在当前控制台进行输出(codec=>rubydebug ) input{ stdi

  • HDFS文件写入过程2022-01-11 14:02:17

      详细步骤解析: List itemclient发起文件上传请求,通过RPC与NameNode建立通讯,NameNode检查目标文件是否已存在,父目录是否存在,返回是否可以上传; client请求第一个block该传输到哪些DataNode服务器上; NameNode根据配置文件中指定的备份数量及机架感知原理进行文件分配,返回可用的Da

  • 自动化集成:Pipeline整合Docker+K8S2022-01-11 09:03:26

    前言:该系列文章,围绕持续集成:Jenkins+Docker+K8S相关组件,实现自动化管理源码编译、打包、镜像构建、部署等操作;本篇文章主要描述流水线集成K8S用法。 一、背景描述 分布式服务的部署是一个复杂的流程,当容器应用存在几十甚至上百的时候,用手动的方式部署显然难度过高,借助Kubernete

  • 【爬虫】从零开始使用 Scrapy2022-01-09 11:01:43

    一. 概述 最近有一个爬虫相关的需求,需要使用 scrapy 框架来爬取数据,所以学习了一下这个非常强大的爬虫框架,这里将自己的学习过程记录下来,希望对有同样需求的小伙伴提供一些帮助。 本文主要从下面几个方面进行介绍: 我的学习过程 需求分析 搭建项目 编写代码实现需求 部署爬虫项目

  • WebRTC video pipeline2022-01-08 20:35:55

    本文主要从网上收集,贴这里是为自己查看方便。原文:https://blog.piasy.com/2018/05/24/WebRTC-Video-Native-Journey/index.html     通过这次的源码分析,我们可以看到 WebRTC 是如何设计 VCM (Video Coding Module) 这个跨平台视频处理模块的结构的。 首先这个模块包括采集、编码

  • 基于Docker的可持续交付2022-01-05 20:37:22

    在测试的立场上,希望开发编写的代码都是经过开发的单元测试的,但是事实上,这中间总是存在理想和现实的差距,既然如此,我们何不来开发部署环境后,对服务进行自动化测试验证了。整体的设计思路就是开发编写的代码,使用Dockerfile构建成镜像文件,然后使用docker-compose自动化启动镜像文件,下

  • blackduck2022-01-04 11:02:01

    最近一段时间,log4j吸引了大家的眼球,而一些大公司用的一个值得笔记的软件,就浮出水面。 公司基本依赖这个软件,加上pipeline的扫描,实现了快速检测漏洞的体系。 这个软件是收费的,看样子价格不菲,赚钱的公司。 这个公司赚钱的地方就是信息。  

  • 自动化集成:Pipeline整合Docker容器2022-01-02 12:39:09

    前言:该系列文章,围绕持续集成:Jenkins+Docker+K8S相关组件,实现自动化管理源码编译、打包、镜像构建、部署等操作;本篇文章主要描述流水线集成Docker用法。 一、背景描述 微服务架构是当前主流的技术选型,在业务具体落地时,会存在很多业务服务,不管是在开发、测试、上线的任意节点中,如

  • 【gitlab 多工程的pipeline】2022-01-01 18:34:43

    gitlab 多工程的pipeline 文献: https://www.kancloud.cn/apachecn/gitlab-doc-zh/1948835 https://docs.gitlab.com/ee/ci/pipelines/multi_project_pipelines.html 遗留问题点 是否可以触发mr是否可以等待子流水线运行结束,也就是控制串型或者并行 【好像可以使用 strategy:

  • 玩转jpmml之tpot+sklearn2pmml自动化机器学习集成模型部署2021-12-30 11:02:03

    前言 应该是首发原创,网上没搜到。 总体的逻辑是:数据导入----tpot自动化机器学习挑选最适合的模型和数据预处理思路----转换为sklearn代码----通过sklearn2pmml库转换为pmml模型----通过jpmml库调用pmml模型实现在java中部署。 好像看起来很简单,但是实际处理中问题不少,且在外

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有