机器学习 | PyTorch简明教程上篇


前面几篇文章介绍了特征归一化和张量,接下来开始写两篇pytorch简明教程,主要介绍pytorch简单实践。

1、四则运算

import torcha = torch.tensor([2, 3, 4])b = torch.tensor([3, 4, 5])print("a + b: ", (a + b).numpy())print("a - b: ", (a - b).numpy())print("a * b: ", (a * b).numpy())print("a / b: ", (a / b).numpy())

加减乘除就不用多解释了,输出为:

a + b:[5 7 9]a - b:[-1 -1 -1]a * b:[ 6 12 20]a / b:[0.6666667 0.750.8]

2、线性回归

线性回归是找到一条直线尽可能接近已知点,如图:

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

机器学习 | PyTorch简明教程上篇图1

import torchfrom torch import optimdef build_model1():return torch.nn.Sequential(torch.nn.Linear(1, 1, bias=False))def build_model2():model = torch.nn.Sequential()model.add_module("linear", torch.nn.Linear(1, 1, bias=False))return modeldef train(model, loss, optimizer, x, y):model.train()optimizer.zero_grad()fx = model.forward(x.view(len(x), 1)).squeeze()output = loss.forward(fx, y)output.backward()optimizer.step()return output.item()def main():torch.manual_seed(42)X = torch.linspace(-1, 1, 101, requires_grad=False)Y = 2 * X + torch.randn(X.size()) * 0.33print("X: ", X.numpy(), ", Y: ", Y.numpy())model = build_model1()loss = torch.nn.MSELoss(reductinotallow='mean')optimizer = optim.SGD(model.parameters(), lr=0.01, momentum=0.9)batch_size = 10for i in range(100):cost = 0.num_batches = len(X) // batch_sizefor k in range(num_batches):start, end = k * batch_size, (k + 1) * batch_sizecost += train(model, loss, optimizer, X[start:end], Y[start:end])print("Epoch = %d, cost = %s" % (i + 1, cost / num_batches))w = next(model.parameters()).dataprint("w = %.2f" % w.numpy())if __name__ == "__main__":main()

(1)先从main函数开始,torch.manual_seed(42)用于设置随机数生成器的种子,以确保在每次运行时生成的随机数序列相同,该函数接受一个整数参数作为种子,可以在训练神经网络等需要随机数的场景中使用,以确保结果的可重复性;

(2)torch.linspace(-1, 1, 101, requires_grad=False)用于在指定的区间内生成一组等间隔的数值,该函数接受三个参数:起始值、终止值和元素个数,返回一个张量,其中包含了指定个数的等间隔数值;

(3)build_model1的内部实现:

  • torch.nn.Sequential(torch.nn.Linear(1, 1, bias=False))中使用nn.Sequential类的构造函数,将线性层作为参数传递给它,然后返回一个包含该线性层的神经网络模型;
  • build_model2和build_model1功能一样,使用add_module()方法向其中添加了一个名为linear的子模块;

(4)torch.nn.MSELoss(reductinotallow='mean')定义损失函数;

使用optim.SGD(model.parameters(), lr=0.01, momentum=0.9)可以实现随机梯度下降(Stochastic Gradient Descent,SGD)优化算法

将训练集通过批量大小拆分,循环100次

(7)接下来是训练函数train,用于训练一个神经网络模型,具体来说,该函数接受以下参数:

  • model:神经网络模型,通常是一个继承自nn.Module的类的实例;
  • loss:损失函数,用于计算模型的预测值与真实值之间的差异;
  • optimizer:优化器,用于更新模型的参数;
  • x:输入数据,是一个torch.Tensor类型的张量;
  • y:目标数据,是一个torch.Tensor类型的张量;

(8)train是PyTorch训练过程中常用的方法,其步骤如下:

  • 将模型设置为训练模式,即启用dropout和batch normalization等训练时使用的特殊操作;
  • 将优化器的梯度缓存清零,以便进行新一轮的梯度计算;
  • 将输入数据传递给模型,计算模型的预测值,并将预测值与目标数据传递给损失函数,计算损失值;
  • 对损失值进行反向传播,计算模型参数的梯度;
  • 使用优化器更新模型参数,以最小化损失值;
  • 返回损失值的标量值;

(9)print("轮次 = %d, 损失值 = %s" % (i + 1, cost / num_batches)) 最后打印当前训练的轮次和损失值,上述的代码输出如下:

...Epoch = 95, cost = 0.10514946877956391Epoch = 96, cost = 0.10514946877956391Epoch = 97, cost = 0.10514946877956391Epoch = 98, cost = 0.10514946877956391Epoch = 99, cost = 0.10514946877956391Epoch = 100, cost = 0.10514946877956391w = 1.98

3、逻辑回归

逻辑回归即用一根曲线近似表示一堆离散点的轨迹,如图:

Voicepods Voicepods

Voicepods是一个在线文本转语音平台,允许用户在30秒内将任何书面文本转换为音频文件。

Voicepods 142 查看详情 Voicepods

机器学习 | PyTorch简明教程上篇图2

import numpy as npimport torchfrom torch import optimfrom data_util import load_mnistdef build_model(input_dim, output_dim):return torch.nn.Sequential(torch.nn.Linear(input_dim, output_dim, bias=False))def train(model, loss, optimizer, x_val, y_val):model.train()optimizer.zero_grad()fx = model.forward(x_val)output = loss.forward(fx, y_val)output.backward()optimizer.step()return output.item()def predict(model, x_val):model.eval()output = model.forward(x_val)return output.data.numpy().argmax(axis=1)def main():torch.manual_seed(42)trX, teX, trY, teY = load_mnist(notallow=False)trX = torch.from_numpy(trX).float()teX = torch.from_numpy(teX).float()trY = torch.tensor(trY)n_examples, n_features = trX.size()n_classes = 10model = build_model(n_features, n_classes)loss = torch.nn.CrossEntropyLoss(reductinotallow='mean')optimizer = optim.SGD(model.parameters(), lr=0.01, momentum=0.9)batch_size = 100for i in range(100):cost = 0.num_batches = n_examples // batch_sizefor k in range(num_batches):start, end = k * batch_size, (k + 1) * batch_sizecost += train(model, loss, optimizer,trX[start:end], trY[start:end])predY = predict(model, teX)print("Epoch %d, cost = %f, acc = %.2f%%"% (i + 1, cost / num_batches, 100. * np.mean(predY == teY)))if __name__ == "__main__":main()

(1)先从main函数开始,torch.manual_seed(42)上面有介绍,在此略过;

(2)load_mnist是自己实现下载mnist数据集,返回trX和teX是输入数据,trY和teY是标签数据;

(3)build_model内部实现:torch.nn.Sequential(torch.nn.Linear(input_dim, output_dim, bias=False)) 用于构建一个包含一个线性层的神经网络模型,模型的输入特征数量为input_dim,输出特征数量为output_dim,且该线性层没有偏置项,其中n_classes=10表示输出10个分类; 重写后: (3)build_model内部实现:使用torch.nn.Sequential(torch.nn.Linear(input_dim, output_dim, bias=False)) 来构建一个包含一个线性层的神经网络模型,该模型的输入特征数量为input_dim,输出特征数量为output_dim,且该线性层没有偏置项。其中n_classes=10表示输出10个分类;

(4)其他的步骤就是定义损失函数,梯度下降优化器,通过batch_size将训练集拆分,循环100次进行train;

使用optim.SGD(model.parameters(), lr=0.01, momentum=0.9)可以实现随机梯度下降(Stochastic Gradient Descent,SGD)优化算法

(6)在每一轮训练结束后,需要执行predict函数来进行预测。该函数接受两个参数model(已经训练好的模型)和teX(需要进行预测的数据)。具体步骤如下:

  • model.eval()模型设置为评估模式,这意味着模型将不会进行训练,而是仅用于推理;
  • 将output转换为NumPy数组,并使用argmax()方法获取每个样本的预测类别;

(7)print("Epoch %d, cost = %f, acc = %.2f%%" % (i + 1, cost / num_batches, 100. * np.mean(predY == teY)))最后打印当前训练的轮次,损失值和acc,上述的代码输出如下(执行很快,但是准确率偏低):

...Epoch 91, cost = 0.252863, acc = 92.52%Epoch 92, cost = 0.252717, acc = 92.51%Epoch 93, cost = 0.252573, acc = 92.50%Epoch 94, cost = 0.252431, acc = 92.50%Epoch 95, cost = 0.252291, acc = 92.52%Epoch 96, cost = 0.252153, acc = 92.52%Epoch 97, cost = 0.252016, acc = 92.51%Epoch 98, cost = 0.251882, acc = 92.51%Epoch 99, cost = 0.251749, acc = 92.51%Epoch 100, cost = 0.251617, acc = 92.51%

4、神经网络

一个经典的LeNet网络,用于对字符进行分类,如图:

机器学习 | PyTorch简明教程上篇图3

  • 定义一个多层的神经网络
  • 对数据集的预处理并准备作为网络的输入
  • 将数据输入到网络
  • 计算网络的损失
  • 反向传播,计算梯度
import numpy as npimport torchfrom torch import optimfrom data_util import load_mnistdef build_model(input_dim, output_dim):return torch.nn.Sequential(torch.nn.Linear(input_dim, 512, bias=False),torch.nn.Sigmoid(),torch.nn.Linear(512, output_dim, bias=False))def train(model, loss, optimizer, x_val, y_val):model.train()optimizer.zero_grad()fx = model.forward(x_val)output = loss.forward(fx, y_val)output.backward()optimizer.step()return output.item()def predict(model, x_val):model.eval()output = model.forward(x_val)return output.data.numpy().argmax(axis=1)def main():torch.manual_seed(42)trX, teX, trY, teY = load_mnist(notallow=False)trX = torch.from_numpy(trX).float()teX = torch.from_numpy(teX).float()trY = torch.tensor(trY)n_examples, n_features = trX.size()n_classes = 10model = build_model(n_features, n_classes)loss = torch.nn.CrossEntropyLoss(reductinotallow='mean')optimizer = optim.SGD(model.parameters(), lr=0.01, momentum=0.9)batch_size = 100for i in range(100):cost = 0.num_batches = n_examples // batch_sizefor k in range(num_batches):start, end = k * batch_size, (k + 1) * batch_sizecost += train(model, loss, optimizer,trX[start:end], trY[start:end])predY = predict(model, teX)print("Epoch %d, cost = %f, acc = %.2f%%"% (i + 1, cost / num_batches, 100. * np.mean(predY == teY)))if __name__ == "__main__":main()

(1)以上这段神经网络的代码与逻辑回归没有太多的差异,区别的地方是build_model,这里是构建一个包含两个线性层和一个Sigmoid激活函数的神经网络模型,该模型包含一个输入特征数量为input_dim,输出特征数量为output_dim的线性层,一个Sigmoid激活函数,以及一个输入特征数量为512,输出特征数量为output_dim的线性层;

(2)print("Epoch %d, cost = %f, acc = %.2f%%" % (i + 1, cost / num_batches, 100. * np.mean(predY == teY)))最后打印当前训练的轮次,损失值和acc,上述的代码输入如下(执行时间比逻辑回归要长,但是准确率要高很多):

第91个时期,费用= 0.054484,准确率= 97.58%第92个时期,费用= 0.053753,准确率= 97.56%第93个时期,费用= 0.053036,准确率= 97.60%第94个时期,费用= 0.052332,准确率= 97.61%第95个时期,费用= 0.051641,准确率= 97.63%第96个时期,费用= 0.050964,准确率= 97.66%第97个时期,费用= 0.050298,准确率= 97.66%第98个时期,费用= 0.049645,准确率= 97.67%第99个时期,费用= 0.049003,准确率= 97.67%第100个时期,费用= 0.048373,准确率= 97.68%


以上就是机器学习 | PyTorch简明教程上篇的详细内容,更多请关注其它相关文章!


# 可以实现  # 姜堰优化seo  # 昆明b站关键词排名优化  # 燕郊新闻营销推广公司  # 外贸公司网站优化的软件  # 虹口区营销推广设计  # 上海餐饮seo排名  # 武侯区抖音seo费用  # 网站建设咨询出售  # 沉浸式快递外国网站推广  # 浙江网站建设服务  # 机器学习  # 一幅  # 构建一个  # 微软  # 如图  # 官网  # 上篇  # 随机数  # 是一个  # 量为  # PyTorch 


相关栏目: 【 Google疑问12 】 【 Facebook疑问10 】 【 优化推广96088 】 【 技术知识133117 】 【 IDC资讯59369 】 【 网络运营7196 】 【 IT资讯61894


相关推荐: 即时 AI再次升级 30秒生成自带动效的网页 生成速度提升100%  人工智能产业协同创新中心:全产业链资源在这里汇聚  Xreal AR 眼镜用投屏盒子 Beam 发布:分体式设计,到手 699 元  微软向美国政府提供GPT大模型,如何保证安全性?  塑造全能智能管家:华为小艺AI加成应对大模型挑战  原小米 9 号员工李明打造全球首款 AI 安卓桌面机器人  阿里云AI绘画创作大模型通义万相发布 已开启定向邀测  微软推出 LLaVA-Med AI 模型,可对医学病理案例进行分析  昇思开源社区理事会成立,基于昇思AI框架的全模态大模型“紫东.太初2.0”发布  稿见AI助手:提升写作效率与质量的必备工具  探索人工智能在物联网领域的影响与改变  AI和ML推动联网设备的增长  AI 助手 Copilot 上线,微软 Win11 Dev 预览版 Build 23493 发布  海南科技职业大学第25届中国机器人及人工智能大赛海南赛区荣获一等奖等114项  张朝阳与陆川谈AI:ChatGPT是鹦鹉学舌思维,不可能取代人类 | 把脉AI大模型  利用AI技术更好地发展农村电商  日入400万,第一批AI骗子已上岗  生成式AI引路产业加速来袭,微美全息探索“AIGC+虚拟人”融合应用  小米首次曝光 64 亿参数的 MiLM-6B AI 大模型,或将应用于小爱同学  深企派遣无人机救援队赴京津冀开展防汛救灾任务  人工智能时代的科幻译者怎么办?“做好翻译工作的高端10%”|文化观察  令人震惊的特斯拉机器人  DreamAvatar数字人在哪里下载  华为联合合作伙伴 共同发布昇腾AI大模型训推一体化解决方案  腾讯机器狗进化:通过深度学习掌握自主决策能力  纪录片 《寻找人工智能》全集1080P超清  首个算网生态体!中国移动元宇宙产业联盟正式成立  7大探索区域打造沉浸式玩乐“元宇宙” 昆明京东MALL未来科技探索官全城招募中  发布最新版本的 PICO OS 5.7.0:支持VR头盔录屏并跨平台分享至微信  Meta将VR头显最低年龄限制从13岁降至10岁  “一般智力”与工艺学批判是认识AI的重要入口 | 社会科学报  B站内测 AI 搜索功能,输入“?”即可体验  优化系统韧性:故障恢复与监控在RabbitMQ中的应用  VR健身应用《FitXR》将取消Quest 1端会员服务  “黑科技”亮相大湾区轨交论坛 智慧交通迈向“强AI”  家电行业观察:AI加持下,全屋智能将成为智能家电未来?  OpenAI首席执行官表态支持欧盟AI监管  世界人工智能大会上,科大讯飞宣布与华为联手  机构研选 | 虚拟电厂是电力物联网升级版 智能电网望迎来高速发展  AI赋能艺术 超现实达利奇幻之旅在沪开启  农业产业升级:AI驱动的“崃·见田”开启农田未来展望  普林斯顿大学推出 Infinigen AI 模型,生成真实自然环境 3D 场景  物联网“僵尸网络DDos攻击”增长惊人,威胁全球电信网络  沐曦首款AI推理GPU亮相:INT8算力达160TOPS!  常见的五个人工智能误解  从数据中心到发电站:人工智能对能源使用的影响  深剖Apple Vision Pro中暗藏的“AI”  当孔子遇见AI|尼山的“数字”  猿编程参加人工智能高峰论坛,推动人工智能教育解决方案在千所学校推行  AI连线 | 专访风平智能CEO林洪祥:让AI数字人拥有漂亮的外表和有趣的灵魂,安全问题是重要考量 

 2023-11-02

了解您产品搜索量及市场趋势,制定营销计划

同行竞争及网站分析保障您的广告效果

点击免费数据支持

提交您的需求,1小时内享受我们的专业解答。

运城市盐湖区信雨科技有限公司


运城市盐湖区信雨科技有限公司

运城市盐湖区信雨科技有限公司是一家深耕海外推广领域十年的专业服务商,作为谷歌推广与Facebook广告全球合作伙伴,聚焦外贸企业出海痛点,以数字化营销为核心,提供一站式海外营销解决方案。公司凭借十年行业沉淀与平台官方资源加持,打破传统外贸获客壁垒,助力企业高效开拓全球市场,成为中小企业出海的可靠合作伙伴。

 8156699

 13765294890

 8156699@qq.com

Notice

We and selected third parties use cookies or similar technologies for technical purposes and, with your consent, for other purposes as specified in the cookie policy.
You can consent to the use of such technologies by closing this notice, by interacting with any link or button outside of this notice or by continuing to browse otherwise.