建站者
建站者
前端开发工程师
2026/4/26 19:19:38
15分钟阅读
1,245 次浏览
React 18 新特性
前端开发 React TypeScript

文章摘要

PyTorch缓存机制优化:基于Miniconda-Python3.9环境的深度实践 在现代AI开发中,一个常见的尴尬场景是:本地训练顺畅的模型一上服务器就报显存溢出;或者每次重启Jupyter内核后,torch.compile都要重新“预热”几十秒。这些…

文章不存在

相关文章

字符编码知多少(一)
前端
字符编码知多少(一) 2026/4/26 14:50:58

字符编码知多少(一)

前言 曾经在一场面试中,问到过UTF-8与UTF-16的区别,我一脸懵逼,惨遭羞辱。 最近在使用rider这个IDE的过程中,发现在visual studio中好好的代码,在rider中是乱码。 故此深入了解一下字符编码的前世今生。 前世&#xff…

PyTorch自定义算子开发环境搭建:Miniconda-Python3.9指南
前端
PyTorch自定义算子开发环境搭建:Miniconda-Python3.9指南 2026/4/27 7:10:11

PyTorch自定义算子开发环境搭建:Miniconda-Python3.9指南

PyTorch自定义算子开发环境搭建:Miniconda-Python3.9指南 在深度学习模型日益复杂、推理性能要求不断提升的今天,标准框架提供的算子往往难以满足特定场景下的极致优化需求。尤其是在边缘计算设备部署、专用硬件加速或大规模训练集群中,开发…

深度学习激活函数详解:从Sigmoid到Swish的实战指南
前端
深度学习激活函数详解:从Sigmoid到Swish的实战指南 2026/4/27 0:02:09

深度学习激活函数详解:从Sigmoid到Swish的实战指南

1. 激活函数在深度学习中的核心作用第一次接触神经网络时,我对着全连接层的矩阵运算百思不得其解——为什么简单的线性变换堆叠就能实现复杂功能?直到理解了激活函数这个"非线性开关"的作用,才算真正入门深度学习。激活函数决定了神…

AdaGrad算法解析:自适应梯度下降优化原理与实践
前端
AdaGrad算法解析:自适应梯度下降优化原理与实践 2026/4/27 0:02:10

AdaGrad算法解析:自适应梯度下降优化原理与实践

1. 梯度下降与AdaGrad算法解析在机器学习领域,优化算法是模型训练的核心引擎。传统梯度下降算法虽然简单有效,但在面对不同维度曲率差异较大的目标函数时,固定学习率的设定往往成为性能瓶颈。想象一下,你在山区徒步时,…

首页 博客 项目 关于我