机器学习

MSE用于线性回归的可解释性推导

均方误差损失函数(简称均方损失)可以用于线性回归的一个原因是:我们假设相对于模型的预测,原数据的实际值中包含噪声,其中噪声服从正态分布。 噪声分布如下式: y = \omega^Tx+b+\epsilon 其中,\epsilon \sim N(0,\sigma^2) 因此,我们现在可以写出通过给定的

EDITOR'S SELECTION

推荐文章

  • 深度学习

    基于MR数据集的bert文本分类任务

    自然语言处理课上做了一个有趣的大作业,于是把它记录下来。 模型代码和数据集文件已经上传至github:https://github.com/MSilke/bert_classifier 一 题目介绍 设计一个关于文本分类的课程大作业,旨在让学生掌握文本分类的基本概念、数据预处理、模型训练、评估和部署

  • 机器学习

    PCA降维算法推导

    PCA降维算法推导   主成分分析(PCA)是一种常用的无监督学习方法,这一方法利用正交变换(也就是对原坐标系做旋转变换)把由线性相关变量表示的观测数据转换为少数几个由线性无关变量表示的数据,线性无关的变量称作主成分。   算法原理有最大方差理论以及最小均方误差理论。   下面利用数学推导PCA算法

文章列表

  • 全部
  • vlog2
  • 笔记4
  • 数据处理1
  • 机器学习5
  • 论文阅读1
  • LLM1
  • 数据分析1
  • 数据清洗1
  • NLP1
  • 第十七届全国大学生信息安全竞赛作品赛决赛游记

    在信息安全作品赛中,投稿了我们做的一个针对越狱攻击和提示词注入的漏洞检测和防御系统,然后没想到进决赛了,于是获得了太仓的四日游。比赛地点在西北工业大学太仓校区。 8月10日 与队友们高铁站集合,坐高铁去太仓,高铁上wya认识了一个哈工大的妹子,她也是参加信息安全竞赛作品赛的决赛的,wya和她聊的很投

  • 机器学习

    MSE用于线性回归的可解释性推导

    均方误差损失函数(简称均方损失)可以用于线性回归的一个原因是:我们假设相对于模型的预测,原数据的实际值中包含噪声,其中噪声服从正态分布。 噪声分布如下式: y = \omega^Tx+b+\epsilon 其中,\epsilon \sim N(0,\sigma^2) 因此,我们现在可以写出通过给定的

  • 深度学习

    基于MR数据集的bert文本分类任务

    自然语言处理课上做了一个有趣的大作业,于是把它记录下来。 模型代码和数据集文件已经上传至github:https://github.com/MSilke/bert_classifier 一 题目介绍 设计一个关于文本分类的课程大作业,旨在让学生掌握文本分类的基本概念、数据预处理、模型训练、评估和部署

  • LLM安全相关

    LLM安全论文概要(持续更新中)

    论文来源:arxiv 关于大语言模型安全的Paper arxiv列表: Paper Date:2024-06-11 1.Merging Improves Self-Critique Against Jailbreak Attacks 针对越狱攻击的自我批评的改进方法 大型语言模型(LLMs)对抗敌对

  • 机器学习

    PCA降维算法推导

    PCA降维算法推导   主成分分析(PCA)是一种常用的无监督学习方法,这一方法利用正交变换(也就是对原坐标系做旋转变换)把由线性相关变量表示的观测数据转换为少数几个由线性无关变量表示的数据,线性无关的变量称作主成分。   算法原理有最大方差理论以及最小均方误差理论。   下面利用数学推导PCA算法

  • 机器学习

    决策树相关笔记

    决策树相关笔记 一.划分准则 1.熵和信息增益   熵的计算:                    熵(S)=-p_1log(p_1)-p_2log(p_2)   在这里,S 表示一个分支的样本,p_1 表示该样本中属于 class1 类别的概率,p_2 是该样本中数据属于 class2 类别的概

  • 机器学习

    逻辑回归相关笔记

    逻辑回归相关笔记 一.构建逻辑回归模型   对于二值目标数据,将建立逻辑回归线。利用如下的方程来建立逻辑回归线。与线性回归线类似,逻辑回归线中也有相关系数 β_0 和 β_1 需要计算。   逻辑回归的公式如下所示。                        y=\frac{e^{β_0+β_1

  • 机器学习

    线性回归相关笔记

    线性回归相关笔记 一.R-squared(拟合度)   R-squared是一个衡量模型拟合度的量。   计算公式:                 R-squared=\frac{SSR}{SST}=1-\frac{SSE}{SST}   其中:SST是原始数据和均值之差的平方和,SSR即预测数据

  • 1
avatar

smilkes的小站

使用数学、代码和数据来探索世界。

  • 9

    文章

  • 5

    分类

  • 678

    访问量

  • 2024-06-11

    建站天数

avatar

smilkes的小站

使用数学、代码和数据来探索世界。

  • 9

    文章

  • 5

    分类

  • 678

    访问量

  • 首页
  • 友链
  • 关于
请您轻一点,我是很昂贵的机器人哦! O.O