ICode9

精准搜索请尝试: 精确搜索
  • 针对小样本和小目标的数据增强方法-Mixup2022-01-02 17:02:14

    最近在学习YOLOv4,想换一种数据增强方法来试一下,下方的代码是基于VOC格式的数据集 简单来说,Mixup就是将两张图片,以一种重合浮现(可以理解为一张图片衬于另一张图片上方)的方式,并且生成新的xml文件 两张图片在使用Mixup以前     两张图片在使用Mixup以后   import cv2 import o

  • 数据挖掘领域十大经典算法之—AdaBoost算法(超详细附代码)2022-01-02 12:37:59

    相关文章: 数据挖掘领域十大经典算法之—C4.5算法(超详细附代码)数据挖掘领域十大经典算法之—K-Means算法(超详细附代码)数据挖掘领域十大经典算法之—SVM算法(超详细附代码)数据挖掘领域十大经典算法之—Apriori算法数据挖掘领域十大经典算法之—EM算法数据挖掘领域十大经典算法之—Pag

  • 机器学习中的数学——距离定义(六):马氏距离(Mahalanobis Distance)2022-01-01 16:34:47

    马氏距离(Mahalanobis Distance)是由印度统计学家马哈拉诺比斯(P. C. Mahalanobis)提出的,表示数据的协方差距离。它是一种有效的计算两个未知样本集的相似度的方法。与欧氏距离不同的是它考虑到各种特性之间的联系并且是尺度无关的,即独立于测量尺度。对于一个均值为

  • 【数据科学基础复习 - 4】区间估计2022-01-01 16:05:55

    本文旨在熟练运用区间估计而不去探究其背后的原理 0. 区间估计思想 置信系数的理解: 区间\(U\)​置信系数为\(95\%\)​并不是说一个由给定样本确定的\(U\)​包含待估计参数\(\theta\)​的概率为\(95\%\)​, 因为样本确定后\(U\)​是否包含\(\theta\)​二者必居其一,是一个确定性的

  • 【数据科学基础复习 - 3】PCA主成分分析2022-01-01 11:37:39

    本文仅就PCA原理及应用作一简单总结, 具体的数学原理等考试后再补上. 1. PCA推导 目标 对于正交空间中的样本点,现想将其投影到一个低维超平面中使得所有样本可在该平面中得到恰当的表达. 什么叫恰当的表达? 最近重构性:样本点到该超平面的距离都足够近(距离最小). 最大可分性:样本点

  • 样本类别不平衡问题之SMOTE算法(Python imblearn极简实现)2022-01-01 11:06:46

    类别不平衡问题        类别不平衡问题,顾名思义,即数据集中存在某一类样本,其数量远多于或远少于其他类样本,从而导致一些机器学习模型失效的问题。例如逻辑回归即不适合处理类别不平衡问题,例如逻辑回归在欺诈检测问题中,因为绝大多数样本都为正常样本,欺诈样本很少,逻辑回归算法

  • Rank & Sort Loss for Object Detection and Instance Segmentation 论文解读(含核心源码详解)2021-12-31 23:34:35

    ♥ 第一印象 Rank & Sort Loss for Object Detection and Instance Segmentation 这篇文章算是我读的 detection 文章里面比较难理解的,原因可能在于:创新的点跟普通的也不太一样;文章里面比较多公式。但之前也有跟这方面的工作如 AP Loss、aLRPLoss 等。它们都是为了解决一个问题:单

  • 机器学习之类别不平衡问题 (3) —— 采样方法2021-12-31 22:37:01

      机器学习之类别不平衡问题 (1) —— 各种评估指标 机器学习之类别不平衡问题 (2) —— ROC和PR曲线 机器学习之类别不平衡问题 (3) —— 采样方法 完整代码 前两篇主要谈类别不平衡问题的评估方法,重心放在各类评估指标以及ROC和PR曲线上,只有在明确了这些后,我们才能据此选择具

  • 机器学习:从决策树到xgboost2021-12-30 20:31:49

    本文参考了知乎很多大佬的文章,自己用自己的语言整理的一下,相信通过这篇文章,你会对树模型有深刻的认识 本文持续更新 前置知识: 泰勒公式 带皮亚诺余项的泰勒公式 若f(x)在 x 0

  • 机器学习中的Accuracy和Precision的区别2021-12-30 20:02:19

    准确率(Accuracy)、精确率(Precision)和召回率(Recall)的区别 准确率(Accuracy) = (TP + TN) / 总样本 =(40 + 10)/100 = 50%。 定义是: 对于给定的测试数据集,分类器正确分类的样本数与总样本数之比。True/Total 精确率(Precision) = TP / (TP + FP) = 40/60 = 66.67%。它表示:预测为

  • 机器学习入门(1)之基本概念简介2021-12-30 12:30:00

    目录 一、机器学习概述 1.1 什么是机器学习? 1.2 为什么需要机器学习? 1.3 机器学习应用场景 1.4 机器学习的一般流程 1.5 典型的机器学习过程​ 二、机器学习的基本术语 三.假设空间与版本空间 四、归纳偏好 1.哪种更好 2.没有免费的午餐(No Free Lunch Theorem) 一、机器学习概述

  • 一文掌握二代测序NGS2021-12-29 21:04:40

    目录 一. RPKM,FPKM,TPM的区别 二. 二代测序中的barcode 三. De Novo sequencing & resequencing 四. depth & coverage 五. 高通量测序技术 六. Sanger测序 七. 三代测序技术 八. 外显子测序 九. small RNA测序 十. SNP、SNV、InDel、CNV、SV 十一. Duplication 十二. Read

  • R语言——双样本独立检验的快速分析立检验的快速分析2021-12-29 21:02:28

    背景介绍 双样本独立检验在平时的研究中是比较常用的。本文介绍了一种,当数据结果为连续的数据,那么可以使用以下双样本独立检验的方法。废话不多说,直接上教程。 在数据开始分析时,我们先介绍一下三种检验方法,特地列了个表格,应该可以看懂吧! TestNormalityVariance homogeneity

  • Few-shot Object Detecion via Feature Reweighting论文解读2021-12-29 21:02:09

    Few-shot Object Detecion via Feature Reweighting 最近入坑小样本检测,所以会更新一些论文解读,调研一下 本文使用元学习的方法进行训练,基础框架为单阶段目标检测框架(作者提供的代码使用的是yolov2) 建议先了解小样本学习的形式化定义,这里不细讲,由于我最近要写中文论文,所以

  • [论文分享] Self-Promoted Prototype Refinement for Few-Shot Class-Incremental Learning2021-12-29 15:58:47

    这篇论文是CVPR’ 2021的一篇Few-Shot增量学习(FSCIL)文章 No.contentPAPER{CVPR’ 2021} Self-Promoted Prototype Refinement for Few-Shot Class-Incremental LearningURLhttps://openaccess.thecvf.com/content/CVPR2021/papers/Zhu_Self-Promoted_Prototype_Refinement_

  • 机器学习中的样本不平衡问题如何解决?2021-12-27 15:02:48

    近些年,随着智能化应用概念在各个行业的普及、智能应用项目的落地实践,作为智能应用的基础技术-机器学习,也得到了广泛的应用并取得了不错的效果。与此同时,在实际的项目应用中也经历了各种各样的难题,如数据分散难统一、输出结果滞后、数据不准确等,其中样本不平衡就是一个典型的

  • 数值分析-超松弛迭代法2021-12-27 13:01:51

    超松弛迭代法 【简介-源自百度百科】 D. M. Young于20世纪70年代提出逐次超松弛(Successive Over Relaxation)迭代法,简称SOR方法,是一种经典的迭代算法。它是为了解决大规模系统的线性等式提出来的,在GS法基础上为提高收敛速度,采用加权平均而得到的新算法。由于超松弛迭代法公

  • 球谐光照2021-12-26 20:04:26

    RPT试着将计算拆分为两部分:一部分是预计算,一部分是实时计算。简化+近似渲染公式。 PRT基于三个设定:每个物体不会自发光 + 光源无限远    合并为传输函数 T transfer function 一个点表面的光照可以合并为:光照函数(左侧) 可见性函数(中间) 几何函数 (右侧)  代表点x 光照函数 公

  • As a reader --> AI-Lancet: Locating Error-inducing Neurons to Optimize Neural Networks.2021-12-26 08:33:22

    AI-Lancet: Locating Error-inducing Neurons to Optimize Neural Networks. AI-柳叶刀:定位诱发错误的神经元以优化神经网络   摘要:深度神经网络(DNN)由于其精度越来越高,在许多领域得到了广泛的应用。然而,DNN模型也可能由于内部错误而产生错误的输出,从而导致严重的安全问题。与修

  • 概率论复习笔记1.0--数理统计的基本概念2021-12-25 21:03:18

    概率论复习笔记1.0–数理统计的基本概念 授课:邹洋杨老师 邮箱:mathzyy@cqut.edu.cn 数理统计的主要思想是:局部推断整体 主要内容: 一、数理统计的基本概念:统计量及其分布 二、参数估计 三、假设检验 四、方差分析及回归分析 一、数理统计的基本概念:统计量及其分布 主要内容:

  • 【机器学习】<刘建平Pinard老师博客学习记录>机器学习算法的随机数据生成2021-12-25 12:30:55

    目录 一、Numpy生成随机数: 二、Scikit-learn随机数据生成API介绍: 三、Scikit-learn随机数据生成实例: 1.回归模型随机数据:  2.分类模型随机数据:  3.聚类模型随机数据:  4.分组正态分布混合数据:         在学习机器学习算法的过程中,我们经常需要数据来验证算法,调试参数

  • 机器学习期末复习题题库-单项选择题2021-12-25 12:06:00

    1.属于监督学习的机器学习算法是:贝叶斯分类器 2.属于无监督学习的机器学习算法是:层次聚类 3.二项式分布的共轭分布是:Beta分布 4.多项式分布的共轭分布是:Dirichlet分布 5.朴素贝叶斯分类器的特点是:假设样本各维属性独立 6.下列方法没有考虑先验分布的是:最大似然估计 7.对于正态密

  • 「机器学习算法的数学解析与Python实现」K-means聚类算法2021-12-25 09:37:02

    本章讲解无监督学习中最为经典的问题——聚类问题。 用投票表决实现“物以类聚” 标注数据不足始终是监督学习的一大问题,因此业界逐渐开始探索将监督学习和无监督学习结合在一起,首先通过聚类等无监督学习的算法处理数据,通过各种假设和结合聚类结果来给数据打标签,然后再把这些数据

  • 「机器学习算法的数学解析与Python实现」KNN分类算法2021-12-25 09:02:22

    参考资料: 数据科学中常见的9种距离度量方法,内含欧氏距离、切比雪夫距离等 KNN分类算法相对另类,不太依赖数学。 KNN分类算法:用多数表决进行分类 KNN算法中最重要的两个概念: 多数表决 距离 以鸢尾花样本为例,随机选取了两个特征,用不同颜色表示不同的鸢尾花类别: import matplotlib

  • 毕业设计 : 基于机器学习的驾驶疲劳检测2021-12-24 18:01:25

    文章目录 0 前言1 总结2 基于多视频窗口的疲劳驾驶监测系3 基于近红外图像的疲劳驾驶检测4 基于面部特征的全天候疲劳驾驶检测及预警5 其他方法 0 前言 最近在帮同一位同学研究基于机器学习方法的驾驶疲劳算法,这里做一些记录 毕设帮助,开题指导,技术解答

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有