2025/9/18
及其失败的一天,什么都没有做,我觉得我应该不上课也去学校的。但是我真的很讨厌到处都是人类。
pytorch-day08
使用线性回归和DNN作为示例进行演示 首先手动创建训练数据集12345n = 400X = 10*torch.rand([n,2])-5.0w0 = torch.tensor([[2.0,3.0]])b0 = torch.tensor([[10.0]]) # 这里为什么要创建一个二维的张量?Y = X@w0 + b0 + torch.normal(0.0,2.0,size=[n,1]) 创建数据管道12345678def data_iter(features, labels, batch_size=8): num_examples = len(features) indices = list(range(num_examples)) np.random.shuffle(indices) for i in range(0,num_examples,batch_size): indexs = torch.LongTensor(indices[i:min(i + batch_size,num_examples)]) yield fea...
2025/09/16
今天完成了三公里!好耶!虽然配速只有6分半,但是已经很满意了。每个学期的最终目标都是跑下5公里,已经很多个学期没有达成了,这个学期会赢吗? 跑完步在海边做了一会,晚上听着海浪的声音确实挺惬意的,很适合放空自己。唯一美中不足的是今天没有很大的风,只有偶尔微微徐来的小风。这个学校唯一的好处应该就在于有个清净的地方可以和自然交流了吧 可恶啊定的目标还是没有完成,今天怎么会玩手机玩多了呢,实在是太可恶了!!!手机真是这个世界上最邪恶的东西!!!星期五的meeting又要完蛋了,我可能真的不适合做科研吧。 今天刷到了一个南科大机器人实验室的视频,我内心还是对机器人这玩意挺感兴趣的,真的要考虑一下从ai4healthcare跳车了吗。还是先了解一下这两个领域的前景吧。 每当觉得自己没什么作为的时候就打开《守护解放西》看个一集,至少我没和那帮飞舞一样干违法乱纪的事;觉得自己不够幸运就看看《闪闪的儿科医生》,至少我健健康康长大。 Seeds bear new life, when flowers dare to fade繁花谢世之时,万物自此新生Petals linger about飞花流连a...
pytorch-day07
动态计算图 Pytorch 中的计算图是动态图 计算图的正向传播立即执行,无需等待完整的图创建完毕 计算图在反向传播后立即销毁,下次调用需要重新构建计算图。如果使用backward方法或者torch.autograd.grad 方法计算了梯度,创建的梯度会被立即销毁,释放储存空间。1234567891011121314#计算图在反向传播之后立即销毁import torch w = torch.tensor([[3.0,1.0]],requires_grad=True)b = torch.tensor([[3.0]],requires_grad=True)X = torch.randn(10,2)Y = torch.randn(10,1)Y_hat = X@w.t() + b # Y_hat定义后其正向传播被立即执行,与其后面的loss创建语句无关loss = torch.mean(torch.pow(Y_hat-Y,2))#计算图在反向传播后立即销毁,如果需要保留计算图, 需要设置retain_graph = Trueloss.backward() #loss.backwar...
2025/09/15
感觉今天又浪费了好多时间啊,明明有时间复习一下4222和4432的,结果现在就看了一个特征值分解。特征值分解还是老早以前就学过一遍了。transformer的最后一次学习还没有开始启动。希望明天加油. 非常恐怖的是感觉马上又要meeting了但我好像又什么都么有干?上周好歹学习了一下对比学习系列的文章,这周呢?本来是想要学一下GAN系列的文章的。争取明天能挤出时间搞定。 还有一件事,我想要早点睡觉,但是但是但是现在是科研的关键时期,是刷GPA的关键学期,其实不应该睡那么久的。折中一下就每天1点睡吧,早饭就略略少吃一点。 这两天重新开始跑步了,三个月没跑仅仅是两公里就可以让腿疼两三天。按照经验应该这周末就能适应了,争取早点恢复到三公里! One! Stop staying within the lines一 开拓者应自有主张Two! We always align!二 车组一致同向Three! Even if we don’t gain the upper hand,we’ll fight for rihgt三 即便深处逆境仍与不义相抗Four! Never c...
pytorch-day06
Auto-gradient 自动微分pytorch 通过反向传播 backward 方法,实现梯度计算。该方法求得的梯度将存在对应自变量张量的grad属性下。此外也可以使用 torch.autograd.grad函数来实现求梯度计算 使用backward方法求导数 backward方法通常在一个标量张量上调用,如果非标量,则要传入一个和它同形状的gradient参数张量。 相当于用该gradient参数张量与调用张量作向量点乘,得到的标量结果再反向传播. 标量的反向传播1234567891011121314import numpy as np import torch # f(x) = a*x**2 + b*x + c的导数x = torch.tensor(0.0,requires_grad = True) # x需要被求导a = torch.tensor(1.0)b = torch.tensor(-2.0)c = torch.tensor(1.0)y = a*torch.pow(x,2) + b*x + c y.backward()dy_dx = x.gradprint(...
TOEFL_words
deficient 缺乏的,不足的virtuosity 技艺精湛,技艺高超verisimilitude 逼真,貌似真实horticulturalist 园艺师stamina 体力,毅力shroud 包裹,覆盖over arch 成拱形fodder 饲料flora 植物群drench 浸透,使浸透cohesive 有凝聚力的vulture 秃鹰porter 搬运工inundate 淹没,泛滥
2025/09/14
开学整整两周,也算是正式进入学习模式了。ADP结束了,最终还是选择了只上5门课,希望明年这个时候ARIN5203还能被批waiver,今年似乎漏洞已经被填上了。唉唉唉,其实不上应该也无所谓,无伤大雅。成功把大部分时间都用在了UROP上,还是挺不错的,要是去年就有这个觉悟也不至于现在这么被动。我现在就跳车去做别的东西了。另外呢,工作日的手机时长也有所压缩,接下来就是把休息日的时间也压缩一下,毕竟现在没有任何休息日可言。 周末看起来有两天可以好好整理一下笔记啥的,但一转眼又结束了,现在回想起来似乎也是什么都没有做呢;科研推进了微乎其微的一点点;上的课啥的完全没有复习笔记,想要扩展学习的知识一点都没有动,一些general的著名论文也没有去学习。还是有一点点失败的,但是急也不能太急。慢慢来,总能好起来的。 想学的东西还蛮多的,我感觉自己还挺喜欢刚接触一个领域的感觉的,一点点找学习资料去入门,让生活变得更加丰富了一点。有很多东西其实并没有任何的用处,但是还是应该学习一下的,可以不用;但是不能不会。 Fly away oh my gentle dove, through the shad...
pytorch-day-05
张量的数据类型张量的数据类型与 numpy.array 基本一一对应,除了不支持str类型 一般的神经网络用的是torch.float32类型 如果要显示指定数据类型,可以使用torch.tensor(data,dtype = torch.type) 也可以使用特定的构造函数123i = torch.Inttensor() #构造数据类型为 int 的张量x = torch.Tensor() # 构造数据类型为 float 的张量b = torch.BoolTensor() #构造数据类型为 bool 的张量 此外,还可以对不同类型的张量进行转化1234i = torch.tensor(1) # 构建类型为int64的张量x = i.float() # 调用float方法转换为float类型y = i.type(torch.float) # 使用type函数转换为浮点类型z = i.type_as(x) # 使用type_as 方法转化为与某个Tensor相同类型的张量 张量的维度张量的尺寸 可以使用shape属性或者size() 方法查看张量在每一维的长度 可以...
pytorch-day04
由没有可以tran的optimization课,下学期可能要去上一门time series,这里正好就看到了,也许是天意呢。 通过继承torch.utils.data.Dataset 实现自定义时间序列数据集1torch.utils.data.Dataset 这是一个抽象类,我们只需继承这个类,并且复写其中两个方法即可 __len__: 实现len(dataset)返回整个数据集的大小 __getitem__: 用来获取一些索引的数据,使dataset[i] 返回数据集中第 i 个样本 注意:如果不复写的话会直接返回错误12345678910WINDOW_SIZE = 8class Covid19Dataset(Dataset): def __len__(self): return len(dfdiff) - WINDOW def __getitem___(self,i) x = dfdiff.loc[i:i+WINDOW_SIZE-1,;] feature = torch.tensor(x.values) y...