深度学习在JavaScript中的应用
发表时间: 2024-04-10 17:48
(本文视频讲解:java567.com)
注意: 项目的 README 包含所有可用操作和层的详细信息。
首先,您可以在终端上运行 npm install js-pytorch 来在本地安装该包。 然后,在您的 JavaScript 文件中,使用以下命令导入该包:
const torch = require("js-pytorch");
为了使用所有这些酷炫的深度学习张量操作,我们需要实例化一些张量:
// 实例化张量:let x = torch.randn([8,4,5]);let w = torch.randn([8,5,4], requires_grad = true);let b = torch.tensor([0.2, 0.5, 0.1, 0.0], requires_grad = true);
语法与PyTorch相同:
现在,让我们对这些张量运行一些操作:
// 进行计算:let out = torch.matmul(x, w);out = torch.add(out, b);
注意: 由于 w 的 require_grad 设置为 true,其子级 out 也将跟踪其梯度。
// 计算整个图的梯度:out.backward();// 从特定张量获取梯度:console.log(w.grad);console.log(b.grad);
在这个示例中,我们实现了一个完整的神经网络,包括三个线性层和ReLU激活函数。nn.Module 类的语法与 PyTorch 完全相同。
const torch = require("js-pytorch");const nn = torch.nn;const optim = torch.optim;// 实现 Module 类:class NeuralNet extends nn.Module { constructor(in_size, hidden_size, out_size) { super(); // 实例化神经网络的层: this.w1 = new nn.Linear(in_size, hidden_size); this.relu1 = new nn.ReLU(); this.w2 = new nn.Linear(hidden_size, hidden_size); this.relu2 = new nn.ReLU(); this.w3 = new nn.Linear(hidden_size, out_size); }; forward(x) { let z; z = this.w1.forward(x); z = this.relu1.forward(z); z = this.w2.forward(z); z = this.relu2.forward(z); z = this.w3.forward(z); return z; };};// 实例化模型:let in_size = 16;let hidden_size = 32;let out_size = 10;let batch_size = 16;let model = new NeuralNet(in_size, hidden_size, out_size);// 定义损失函数和优化器:let loss_func = new nn.CrossEntropyLoss();let optimizer = new optim.Adam(model.parameters(), 3e-3);// 实例化输入和输出:let x = torch.randn([batch_size, in_size]);let y = torch.randint(0, out_size, [batch_size]);let loss;// 训练循环:for (let i = 0; i < 256; i++) { let z = model.forward(x); // 获取损失: loss = loss_func.forward(z, y); // 使用 torch.tensor 的 backward() 方法反向传播损失: loss.backward(); // 更新权重: optimizer.step(); // 在每个训练步骤后将梯度重置为零: optimizer.zero_grad(); // 打印当前损失: console.log(`Iter: ${i} - Loss: ${loss.data}`);}
(本文视频讲解:java567.com)