2025/09/30
开学一整个月了,感觉比以往的学期稍微好了一点,但是离自己的目标还是有一点点距离,每天的额外学习时间还是不太够。玩手机的时间还是有一点长。而且总是拖延预定的任务。导致还是到现在要赶ddl. 为什么每次都是这样,到现在我都没有看blip,还有八股文,还有复习cs229,还有背托福单词,我每天到底都在干些什么事。无语了,科研一天的工作时间不知道有没有二十分钟?还是低估了一下3033的作业的时间耗时量,只能希望这个学期不会那种强迫证一直在疯狂纠结过程吧。还有4431的作业,我觉得真的离谱,我都不敢说又任何一题我写的一定是对的,真的无语,明天先把concept部分的作业核对掉吧。真的是无语了。
2025/09/26
仔细想来每个星期都说要好好research,细细想来这周竟然只有两天在干活,真是给自己气笑了,每天也不知道在干什么。托福今年还必须要考掉,也就是说要开始背单词背口语背写作了,或许我应该每天能够保持集中学习的情况下再晚睡一会,稍微拼他两个月呢。 或许我就是这样什么事也做不成的人,还有奖学金的表格没有确认,还有交换的表格没有填完,唉明天meeting完先把交换的表格搞定吧。希望没有问题。但是有一说一,那个表格的很多信息估计真的是无人在意。谁知道呢。
2025/09/20
又玩了一整天呢,真是无可救药。每周给自己放纵一天其实是可以接受的,但是似乎每天都在放纵?今天又是什么都没有做的一天呢,明天去学校图书馆呆一天,也许效率可以高一点呢?希望如此。 之前说的将主页换一个主题到现在还没有开始动手,其实随便腾出刷视频的一两个小时就能开个头了,科研也没有开始新的进展。以后打算写一个科研日志,能够督促自己每天多干一点实事而不是无意义的空耗时间。 感觉又好多东西要复习要看啊,从第一个星期差一点,到现在第三个星期差许多。就是这样一点点累计起来的,大部分课没有期中考试,不可以松懈,不然期末考试的时候又要开始崩溃了。今天就这样吧,明天会更好的。
pytorch-day09
张量的结构操作张量创建 与numpy中创建array的方法相似1234567891011a = torch.tensor([1,2,3],dtype=torch.float)b = torch.arange(1,10,step = 2)c = torch.linspace(0.0,2**3,10)d = torch.zeros((3,3))e = torch.ones((3,3),dtype=torch.int)f = torch.zeros_like(a,dtype = torch.float) 1234567891011121314151617# 创建服从某种分布的张量## 均匀分布min, max = 0,10a = min + (max - min)*torch.rand([5])## 正态分布b = torch.normal(mean = torch.zeros(3,3),std = torch.ones(3,3))c = std*torch.randn((3,3)) + mean## 整数随机排列d = torch.randperm(20)## 特殊矩阵I = tor...
2025/9/18
及其失败的一天,什么都没有做,我觉得我应该不上课也去学校的。但是我真的很讨厌到处都是人类。
pytorch-day08
使用线性回归和DNN作为示例进行演示 首先手动创建训练数据集12345n = 400X = 10*torch.rand([n,2])-5.0w0 = torch.tensor([[2.0,3.0]])b0 = torch.tensor([[10.0]]) # 这里为什么要创建一个二维的张量?Y = X@w0 + b0 + torch.normal(0.0,2.0,size=[n,1]) 创建数据管道12345678def data_iter(features, labels, batch_size=8): num_examples = len(features) indices = list(range(num_examples)) np.random.shuffle(indices) for i in range(0,num_examples,batch_size): indexs = torch.LongTensor(indices[i:min(i + batch_size,num_examples)]) yield fea...
2025/09/16
今天完成了三公里!好耶!虽然配速只有6分半,但是已经很满意了。每个学期的最终目标都是跑下5公里,已经很多个学期没有达成了,这个学期会赢吗? 跑完步在海边做了一会,晚上听着海浪的声音确实挺惬意的,很适合放空自己。唯一美中不足的是今天没有很大的风,只有偶尔微微徐来的小风。这个学校唯一的好处应该就在于有个清净的地方可以和自然交流了吧 可恶啊定的目标还是没有完成,今天怎么会玩手机玩多了呢,实在是太可恶了!!!手机真是这个世界上最邪恶的东西!!!星期五的meeting又要完蛋了,我可能真的不适合做科研吧。 今天刷到了一个南科大机器人实验室的视频,我内心还是对机器人这玩意挺感兴趣的,真的要考虑一下从ai4healthcare跳车了吗。还是先了解一下这两个领域的前景吧。 每当觉得自己没什么作为的时候就打开《守护解放西》看个一集,至少我没和那帮飞舞一样干违法乱纪的事;觉得自己不够幸运就看看《闪闪的儿科医生》,至少我健健康康长大。 Seeds bear new life, when flowers dare to fade繁花谢世之时,万物自此新生Petals linger about飞花流连a...
pytorch-day07
动态计算图 Pytorch 中的计算图是动态图 计算图的正向传播立即执行,无需等待完整的图创建完毕 计算图在反向传播后立即销毁,下次调用需要重新构建计算图。如果使用backward方法或者torch.autograd.grad 方法计算了梯度,创建的梯度会被立即销毁,释放储存空间。1234567891011121314#计算图在反向传播之后立即销毁import torch w = torch.tensor([[3.0,1.0]],requires_grad=True)b = torch.tensor([[3.0]],requires_grad=True)X = torch.randn(10,2)Y = torch.randn(10,1)Y_hat = X@w.t() + b # Y_hat定义后其正向传播被立即执行,与其后面的loss创建语句无关loss = torch.mean(torch.pow(Y_hat-Y,2))#计算图在反向传播后立即销毁,如果需要保留计算图, 需要设置retain_graph = Trueloss.backward() #loss.backwar...
2025/09/15
感觉今天又浪费了好多时间啊,明明有时间复习一下4222和4432的,结果现在就看了一个特征值分解。特征值分解还是老早以前就学过一遍了。transformer的最后一次学习还没有开始启动。希望明天加油. 非常恐怖的是感觉马上又要meeting了但我好像又什么都么有干?上周好歹学习了一下对比学习系列的文章,这周呢?本来是想要学一下GAN系列的文章的。争取明天能挤出时间搞定。 还有一件事,我想要早点睡觉,但是但是但是现在是科研的关键时期,是刷GPA的关键学期,其实不应该睡那么久的。折中一下就每天1点睡吧,早饭就略略少吃一点。 这两天重新开始跑步了,三个月没跑仅仅是两公里就可以让腿疼两三天。按照经验应该这周末就能适应了,争取早点恢复到三公里! One! Stop staying within the lines一 开拓者应自有主张Two! We always align!二 车组一致同向Three! Even if we don’t gain the upper hand,we’ll fight for rihgt三 即便深处逆境仍与不义相抗Four! Never c...
pytorch-day06
Auto-gradient 自动微分pytorch 通过反向传播 backward 方法,实现梯度计算。该方法求得的梯度将存在对应自变量张量的grad属性下。此外也可以使用 torch.autograd.grad函数来实现求梯度计算 使用backward方法求导数 backward方法通常在一个标量张量上调用,如果非标量,则要传入一个和它同形状的gradient参数张量。 相当于用该gradient参数张量与调用张量作向量点乘,得到的标量结果再反向传播. 标量的反向传播1234567891011121314import numpy as np import torch # f(x) = a*x**2 + b*x + c的导数x = torch.tensor(0.0,requires_grad = True) # x需要被求导a = torch.tensor(1.0)b = torch.tensor(-2.0)c = torch.tensor(1.0)y = a*torch.pow(x,2) + b*x + c y.backward()dy_dx = x.gradprint(...