ICode9

精准搜索请尝试: 精确搜索
  • COMSOL Multiphysics多物理场仿真与ANSYS-Fluent激光加工、熔覆过程,多种案例一定有你想要的2021-10-22 16:00:26

    ** comsol光电-RF-波动光学专题 ** 案列应用实操 COMSOL仿真实践(RF及波动光学模块案例Step by step详解): 1、光子晶体能带分析、能谱计算、光纤模态计算、微腔腔膜求解; 2、类比凝聚态领域魔角石墨烯的moiré 光子晶体建模以及物理分析; 3、传播表面等离激元和表面等离激元光

  • hive的UDF编写例子2021-10-20 19:33:33

    1.Hive 的udf使用需用需要的依赖 <?xml version="1.0" encoding="UTF-8"?> <project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation=&qu

  • Hive 自定义函数2021-09-25 09:34:37

    一、概述 1)Hive 自带了一些函数,比如:max/min等,但是数量有限,自己可以通过自定义UDF来方便的扩展。 2)当Hive提供的内置函数无法满足你的业务处理需要时,此时就可以考虑使用用户自定义函数(UDF:user-defined function)。 3)根据用户自定义函数类别分为以下三种: (1)UDF(User-Defined-Funct

  • FlinkSQL自定义函数(UDF)维表转换2021-09-07 14:02:02

    前言 Table和SQL的关系:SQL是Table的继承封装(这点在Flink的概念有所体现),比如说:StreamTableEnvironment继承自TableEnvironment便可体现出来。故官文中Table的使用均可在SQL中体现出来,比如说自定义函数,Table API & SQL下的自定义函数中只给出了Table方式的TableEnvironment 创

  • UDF自定义函数的开发流程2021-08-06 11:30:20

    准备好idea,安装jdk,以及系统配置 2.maven的配置 (1)系统配置,setting本地仓库以及代理的修改 Path下 (2)连接外网的代理设置:目前是为了在线下载jar包 (3)idea上的配置 配置maven 配置jdk 3.创建一个maven项目 加载对应的jar包 4.继承UDF类,使用evaluate 5.开发验证后,打jar包

  • Java操作Hive系列1-Hive UDF2021-07-26 16:00:04

    文章目录 一.创建Hive工程1.1 新建Java工程1.2 将Hive的lib下所有jar包放到lib目录下1.3 导入hadoop-common jar包1.4 将jar包添加到工程 二.编写java代码并打包三. 注册UDF3.1 上传上一步的jar文件到服务器3.2 注册UDF3.3 Hive UDF测试3.4 创建永久性的函数 一.创建Hiv

  • hive学习笔记之九:基础UDF2021-07-08 08:02:53

    欢迎访问我的GitHub https://github.com/zq2599/blog_demos 内容:所有原创文章分类汇总及配套源码,涉及Java、Docker、Kubernetes、DevOPS等; 《hive学习笔记》系列导航 基本数据类型 复杂数据类型 内部表和外部表 分区表 分桶 HiveQL基础 内置函数 Sqoop 基础UDF 用户自定义聚合函

  • hive添加自定义函数2021-06-19 10:33:17

    hive添加自定义函数方式有两种,一种是继承UDF ,另一种继承GenericUDF UDF开发较为方便,先新版本中已被弃用,建议使用GenericUDF   org.apache.hadoop.hive.ql.exec.UDF GenericUDF开发更加灵活,但也增加了复杂成本    org.apache.hadoop.hive.ql.udf.generic.GenericUDF   以下以

  • Flink在滴滴的应用与实践进化版2021-06-13 21:52:58

    本文整理自Flink Forward 全球在线会议 ,分享者薛康,滴滴实时平台负责人,主要是是从以下四个方面介绍,flink在滴滴的应用与实践: Flink服务概览 StreamSQL实践 实时计算平台建设 挑战与规划 1. Flink服务概览 1.1 滴滴实时计算发展史 2016引入实时计算引擎,但是主要是用户自建集

  • 独孤九剑-Spark面试80连击(下)2021-06-10 21:04:14

    By 大数据技术与架构 场景描述:这是一个Spark的面试题合集。是我自己作为面试者和作为面试官都会被问到或者问到别人的问题,这个总结里面有大量参考了网上和书上各位老师、大佬的一些原文答案,只是希望可以给出更好的回答,一般上我都会把原文链接贴上,如有侵权请联系删除!

  • 独孤九剑-Spark面试80连击(下)2021-06-10 21:04:06

    By 大数据技术与架构 场景描述:这是一个Spark的面试题合集。是我自己作为面试者和作为面试官都会被问到或者问到别人的问题,这个总结里面有大量参考了网上和书上各位老师、大佬的一些原文答案,只是希望可以给出更好的回答,一般上我都会把原文链接贴上,如有侵权请联系删除!

  • Flink实战(八十七):flink-sql使用(十四)Flink 与 hive 结合使用(六)Hive 函数2021-06-10 20:05:51

    声明:本系列博客是根据SGG的视频整理而成,非常适合大家入门学习。 《2021年最新版大数据面试题全面开启更新》 1 通过 HiveModule 使用 Hive 内置函数 在 Flink SQL 和 Table API 中,可以通过系统内置的 HiveModule 来使用 Hive 内置函数, 详细信息,请参考 HiveModule。 val name

  • Flink实战(八十七):flink-sql使用(十四)Flink 与 hive 结合使用(六)Hive 函数2021-06-10 20:05:35

    声明:本系列博客是根据SGG的视频整理而成,非常适合大家入门学习。 《2021年最新版大数据面试题全面开启更新》 1 通过 HiveModule 使用 Hive 内置函数 在 Flink SQL 和 Table API 中,可以通过系统内置的 HiveModule 来使用 Hive 内置函数, 详细信息,请参考 HiveModule。 val name

  • mysql udf提权2021-06-06 19:03:31

    UDF (user defined function),即用户自定义函数。是通过添加新函数,对MySQL的功能进行扩充。原理是添加一个能执行系统命令的函数。   前提 secure_file_priv为空,支持导入导出 show global variables like 'secure%';   一、导入udf.dll 当 MySQL< 5.1 版本时,将 .dll 文件导入到

  • UDF提权与MOF提权2021-06-05 21:00:53

    UDF提权与MOF提权 一、UDF提权1.1 条件1.2 动态链接库文件获取1.3 查看插件目录位置1.4 动态连接库文件导入1.5 将函数导入mysql 二、MOF提权2.1 利用条件2.2 利用过程2.3 防御方法 三、其他提权方式3.1 启动项提权3.2 反弹shell3.3 缓冲区溢出3.4 暴力登录 话不多说,直

  • 在pyspark中使用pandas udf/apache Arrow2021-06-02 13:05:24

    摘要 apache arrow是用于在jvm和python进程之间进行高效数据传输的列式数据格式。 使用arrow 须首先将基于arrow的数据传输设置为可用。   import numpy as np import pandas as pd # 使用arrow进行数据传输 spark.conf.set("spark.sql.execution.arrow.pyspark.enabled", "tru

  • SparkSQL的UDF函数和UDAF函数2021-05-31 17:52:32

    文章目录UDF函数:用户自定义函数UDAF函数: 用户自定义聚合函数UDF函数:用户自定义函数 SparkConf conf = new SparkConf(); conf.setMaster("local"); conf.setAppName("udf"); JavaSparkContext sc = new JavaSparkContext(conf); SQLContext sqlContext = new

  • 案例解析丨Spark Hive自定义函数应用2021-05-28 07:05:07

    摘要:Spark目前支持UDF,UDTF,UDAF三种类型的自定义函数。 1. 简介 Spark目前支持UDF,UDTF,UDAF三种类型的自定义函数。UDF使用场景:输入一行,返回一个结果,一对一,比如定义一个函数,功能是输入一个IP地址,返回一个对应的省份。UDTF使用场景: 输入一行,返回多行(hive),一对多, 而sparkSQL中没

  • 2021-04-302021-04-30 17:29:45

    1.编写文档目的 大多数企业在使用CDH集群时,考虑数据的安全性会在集群中启用Sentry服务,这样就会导致之前正常使用的UDF函数无法正常使用。本文主要讲述如何在Sentry环境下使用自定义UDF函数。   文章概述 部署UDF JAR 文件Hive配置授权JAR文件创建临时函数创建永久函数 测试环境

  • pyflink作业提交的踩坑过程,看完少走两个星期弯路2021-04-30 17:29:32

    flink在努力地将Python 生态和大数据生态融合,但目前的版本还不够成熟,尤其是在官方对python现有资料有限的情况下,用户想要使用python完成一个flink job并提交到flink平台上,还是有很多雷需要踩的。 以下对pyflink环节问题,python job编写到提交做了总结,可减少不必要的弯路。 一、部

  • [源码分析]从"UDF不应有状态" 切入来剖析Flink SQL代码生成 (修订版)2021-04-26 11:54:12

    "Flink SQL UDF不应有状态" 这个技术细节可能有些朋友已经知道了。但是为什么不应该有状态呢?这个恐怕大家就不甚清楚了。本文就带你一起从这个问题点入手,看看Flink SQL究竟是怎么处理UDF,怎么生成对应的SQL代码。[源码分析]从"UDF不应有状态" 切入来剖析Flink SQL代码生成 (修订版)

  • 从"UDF不应有状态" 切入来剖析Flink SQL代码生成2021-04-26 11:53:56

    "Flink SQL UDF不应有状态" 这个技术细节可能有些朋友已经知道了。但是为什么不应该有状态呢?这个恐怕大家就不甚清楚了。本文就带你一起从这个问题点入手,看看Flink SQL究竟是怎么处理UDF,怎么生成对应的SQL代码。从"UDF不应有状态" 切入来剖析Flink SQL代码生成目录从"UDF不应有状态

  • pyspark---数据预处理经典demo2021-04-07 15:29:46

    文章目录 1.先看下造的数据2.创建SparkSession及读取数据3.dataframe基本信息的查看获取列(字段)查看列(字段)个数查看记录数查看维度打印字段树结构显示前n条记录选择某几个字段查看详细信息 4.基础操作增加列修改某一列的类型filter过滤过滤 + 选择条件某列的不重复值(特

  • mysql的UDF提权2021-03-27 17:02:48

    原理 UDF ,(即用户自定义函数。是通过添加新函数,对MySQL的功能进行扩充,其实就像使用本地MySQL函数如 user() 或 concat() 等。原理就是自定义一个函数,让他可以任意的执行系统命令,达到提权目的。 前提条件 mysql的权限是root权限。配置文件中secure_file_priv=(未写路径)mysql

  • Spark SQL用UDF实现按列特征重分区2021-03-19 15:04:07

    Spark SQL用UDF实现按列特征重分区 浪尖 浪尖聊大数据 欢迎关注,浪尖公众号,bigdatatip,建议置顶。 这两天,球友又问了我一个比较有意思的问题: 解决问题之前,要先了解一下Spark 原理,要想进行相同数据归类到相同分区,肯定要有产生shuffle步骤。 比如,F到G这个shuffle过程,那么如何决定

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有