ICode9

精准搜索请尝试: 精确搜索
  • HTTP状态 500 - 内部服务器错误类型 异常报告 消息 Servlet[springmvc]的Servlet.init()引发异常 描述 服务器遇到一个意外的情况,阻止它完成请求。 例外情2020-12-11 23:02:17

    HTTP状态 500 - 内部服务器错误 类型 异常报告 消息 Servlet[springmvc]的Servlet.init()引发异常 描述 服务器遇到一个意外的情况,阻止它完成请求。 例外情况 javax.servlet.ServletException: Servlet[springmvc]的Servlet.init()引发异常 org.apache.catalina.authenticator

  • mybatis拦截器对SQL处理,数据权限逻辑控制2020-12-11 22:04:10

    import org.apache.ibatis.cache.CacheKey; import org.apache.ibatis.executor.Executor; import org.apache.ibatis.executor.statement.StatementHandler; import org.apache.ibatis.mapping.BoundSql; import org.apache.ibatis.mapping.MappedStatement; import org.apac

  • 配置Maven2020-12-11 21:03:59

    目录下载配置 下载 官网:http://maven.apache.org/ 点击Download来到下载页面:http://maven.apache.org/download.cgi 最新版本是3.6.3 配置 解压和jdk放在同一个目录 配置环境变量,path中添加: C:\Program Files\Java\apache-maven-3.6.3\bin 输入命令: mvn -v 配置成功

  • MapReduce的数据去重处理2020-12-11 19:29:08

    6、让类【DeduplicationMapper】继承类Mapper同时指定需要的参数类型,根据业务逻辑修改map类的内容如下。 package com.simple.duduplication; import java.io.IOException; import org.apache.hadoop.io.LongWritable; import org.apache.hadoop.io.Text; import org.apache.

  • (二)Flink从入门到项目实战——Flink入门程序2020-12-11 19:01:29

    Flink环境准备 开发工具及环境要求 IDE最好使用IntelliJ IDEA (eclipse存在插件不兼容的风险) 唯一的要求是使用 Maven 3.0.4 和安装 Java 8.x(或更高版本)。 Maven依赖坐标 <dependency>   <groupId>org.apache.flink</groupId>   <artifactId>flink-core</artifactId>   <

  • 最简易的Maven打包2020-12-11 18:01:09

    一、简洁方式将依赖包和class一起打包 <build> <plugins> <!-- Maven Assembly Plugin --> <plugin> <groupId>org.apache.maven.plugins</groupId> <artifactId>maven-assembly

  • Zookeeper监听服务器节点动态上下线案例2020-12-11 16:34:32

    1)需求:某分布式系统中,主节点可以有多台,可以动态上下线,任意一台客户端都能实时感知到主节点服务器的上下线 2)需求分析 3)具体实现: (0)现在集群上创建/servers节点 [zk: localhost:2181(CONNECTED) 10] create /servers "servers" Created /servers (1)服务器端代码 package com.common

  • idea的pom中将目标编译版本改为JDK112020-12-11 13:29:06

    可以解决下面这种异常 Failed to execute goal org.apache.maven.plugins:maven-compiler-plugin:3.1:compile (default-compile) on project 06springJDBC: Compilation failure <properties> <project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>

  • Flink常见问题解决记录2020-12-11 11:02:58

    1.Hardlink from files of previous local stored state might cross devices 开启了state.backend.local-recovery: true 任务checkpoint的时候一直报错 Fail to create hard link from xx java.nio.file.FileSystemException xx Invalid cross-device link 如果'taskmanager.

  • apache https访问配置2020-12-11 07:33:32

    1.httpd-ssh.conf Listen 443SSLStrictSNIVHostCheck offSSLCipherSuite AESGCM:ALL:!DH:!EXPORT:!RC4:+HIGH:!MEDIUM:!LOW:!aNULL:!eNULLSSLProtocol all -SSLv2 -SSLv3 <VirtualHost *:443> ServerAdmin joey DocumentRoot "E:/www/API/public" Serve

  • 设定Apache的反向代理及输出内容过滤器(替换)三、反向代理2020-12-11 04:01:14

    按照 httpd-proxy.conf 样例 <IfModule proxy_module><IfModule proxy_http_module> ## Reverse Proxy#ProxyRequests Off <Proxy *> Require all granted</Proxy> ProxyPass / https://www.baidu.com/ ProxyPassReverse / https://www.baidu.co

  • 设定Apache的反向代理及输出内容过滤器(替换)一、配置模块2020-12-11 03:32:50

    httpd.conf 需要开启的模块 ● Apache的反向代理 LoadModule proxy_module modules/mod_proxy.soLoadModule proxy_http_module modules/mod_proxy_http.soLoadModule proxy_connect_module modules/mod_proxy_connect.so ● 注释的这几行用于修改网页中的网址 # LoadModule prox

  • 设定Apache的反向代理及输出内容过滤器(替换)二、过滤器2020-12-11 03:32:40

    上一篇是如何开启相关的模块的,这篇说说ext_filter 过滤器。码字很费劲,直接搬了一篇老外的《在 Apache 2.4 上建立一个 mod_ext_filter 过滤器》并做了简单的翻译。 该文中把过滤器放在 httpd.conf 中,其实放到指定的 httpd-filter.conf 文件中更适合;<Location> 部分应该放在虚拟机

  • Spark与HBase的集成2020-12-10 23:31:46

    目录 一、Spark与HBase的集成二、Spark SQL与HBase的集成 版本说明: hbase版本:hbase-1.3.1spark版本:spark-2.4.7-bin-hadoop2.7 一、Spark与HBase的集成 背景: Spark支持多种数据源,但是Spark对HBase的读写都没有相对优雅的api,但spark和HBase整合的场景又比较多,故通过spark

  • Flink学习笔记——配置文件2020-12-10 15:01:37

    在Flink任务中,需要加载外置配置参数到任务中,在Flink的开发文档中介绍了,Flink提供了一个名为 ParameterTool 的工具来解决这个问题 Flink开发文档: https://github.com/apache/flink/blob/master/docs/dev/application_parameters.zh.md 其引入配置的方式有3种: 1. From .proper

  • Flink java wordcount2020-12-10 13:32:19

    Flnk java wordcount 前言项目的目录结构pom文件WindowWordCount.javahelloword.txt文件运行结果注意 前言 各位好,欢迎浏览我的博客,后面将持续更新小编在flink上学习的心得体会,希望越来越多的新同学加入到这个行列中。 本次小编开发是flink的入门程序 wordcount 项目的

  • http模拟webservice请求并获取参数示例2020-12-10 10:58:13

    org.apache.httpcomponents httpclient 4.5.6 org.apache.cxf cxf-spring-boot-starter-jaxws 3.2.4 import net.sf.json.JSONObject; import org.apache.cxf.endpoint.Endpoint; import org.apache.cxf.jaxws.endpoint.dynamic.JaxWsDynamicClientFact

  • Servlet.init() for servlet [DispatcherServlet] threw exception;The server encountered异常解决方案springmvc2020-12-09 22:30:14

    错误提示 HTTP Status 500 – Internal Server Error Type Exception Report Message Servlet.init() for servlet [DispatcherServlet] threw exception Description The server encountered an unexpected condition that prevented it from fulfilling the request. E

  • Java导出Excel2020-12-09 22:05:29

    POI简介 POI简介:Jakarta POI 是一套用于访问微软格式文档的Java API。Jakarta POI有很多组件组成,其中有用于操作Excel格式文件的HSSF和用于操作Word的HWPF,在各种组件中目前只有用于操作Excel的HSSF相对成熟。 官方主页http://poi.apache.org/index.html, API文档http://poi.apache.

  • centos7离线安装airflow1.10.10(真正离线)2020-12-09 16:57:41

    一:环境及包准备: 1、外网服务器一台,内网服务器一台 2、python3.7+airflow1.10.10+redis4.0.6+mysql5.7 3、从https://github.com/apache/airflow找到对应版本的requirements-python3.7.txt列表单 基础软件安装python、mysql及redis 略过,安装简单,再次略过,注意一点mysql集成airflow

  • springboot开发webservice服务端和客户端代码2020-12-09 09:58:33

    直接上工程代码 首先创建springboot项目,这个就不多说了。整体项目结构如下图: pom.xml <?xml version="1.0" encoding="UTF-8"?> <project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"

  • Flink入门(一)——Apache Flink介绍2020-12-09 08:34:59

    Apache Flink是什么? ​ 在当代数据量激增的时代,各种业务场景都有大量的业务数据产生,对于这些不断产生的数据应该如何进行有效的处理,成为当下大多数公司所面临的问题。随着雅虎对hadoop的开源,越来越多的大数据处理技术开始涌入人们的视线,例如目前比较流行的大数据处理引擎Apache S

  • hadoop代码22020-12-08 19:32:06

    package com.simple.duduplication; import java.io.IOException; import org.apache.hadoop.io.LongWritable; import org.apache.hadoop.io.Text; import org.apache.hadoop.mapreduce.Mapper; public class DeduplicationMapper extends Mapper<LongWritable, Text, Tex

  • Kioptrix Level 1(#1)2020-12-08 14:58:30

    Kioptrix Level 1(#1) 目标:Kioptrix Level 1(VMware) 攻击机:kali(192.168.43.80) 网关:192.168.43.255 #1查看Kioptrix在内网的ip地址 nmap 192.168.43.0/24 -n -sP -sn -n 不做DNS解析 -sP ping扫描 -sn 不做端口扫描 得到ip192.168.43.36 #2查看端口开放情况(nmap) nmap 19

  • Zookeeper 客户端 apache-curator2020-12-08 11:33:08

    博文目录 文章目录 Apache Curator 客户端会话创建重试策略代码演示异步接口监听Curator Cachesnode cachepath cachetree cache代码演示 集群模式下的使用 Apache Curator 客户端 Curator 是一套由netflix 公司开源的,Java 语言编程的 ZooKeeper 客户端框架,Curator项目

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有