如何制作h5做网站wordpress改成英文

张小明 2026/1/8 18:44:40
如何制作h5做网站,wordpress改成英文,詹凌峰建盏简介,网站续费 多久Pearson相关系数通常用于衡量两个变量之间的线性相关性。 之前介绍了如何用python模拟Pearson相关系数损失。 https://blog.csdn.net/liliang199/article/details/155751622 pytorch是最流行的模型训练工具#xff0c;这里尝试用pytorch实现Pearson loss训练模型的过程。 …Pearson相关系数通常用于衡量两个变量之间的线性相关性。之前介绍了如何用python模拟Pearson相关系数损失。https://blog.csdn.net/liliang199/article/details/155751622pytorch是最流行的模型训练工具这里尝试用pytorch实现Pearson loss训练模型的过程。所用代码和示例参考和修改自网络资料。1 模型定义这里参考pytorch开发模型的力促先通过torch的nn.Module定义模型然后定义Pearson损失。1.1 模型定义这里使用torch的Linear模块直接模拟weights和bias。input_dim为输入维度需要与输入X的维度一致输出为1。代码示例如下所示。# 创建简单的线性模型 class LinearModel(nn.Module): def __init__(self, input_dim): super(LinearModel, self).__init__() self.linear nn.Linear(input_dim, 1) def forward(self, x): return self.linear(x).squeeze()1.2 损失定义参考pytorch损失函数的定义流程定义Pearson损失函数。Pearson相关系数有两种常用的损失函数形式1 - |r| 或 1 - r^2。基于绝对值的损失1 - |r|取值范围 [0, 1]基于平方的损失1 - r^2取值范围 [0, 1]对弱相关更敏感。这里为简化分析采用第一种# 使用PyTorch实现Pearson损失函数的版本 class PearsonLossTorch(nn.Module): def __init__(self): super(PearsonLossTorch, self).__init__() def forward(self, y_pred, y_true): # 计算Pearson相关系数 v_pred y_pred - torch.mean(y_pred) v_true y_true - torch.mean(y_true) numerator torch.sum(v_pred * v_true) denominator torch.sqrt(torch.sum(v_pred ** 2)) * torch.sqrt(torch.sum(v_true ** 2)) # 防止除以零 if denominator 0: denominator 1e-10 pearson_r numerator / denominator # 返回1 - r作为损失 return 1 - pearson_r1.3 梯度定义Pearson损失相对weight和bias的梯度定义如下所示具体过程参考https://blog.csdn.net/liliang199/article/details/155751622由于torch版本实现可以自动根据loss函数计算梯度所以这里不需要单独计算梯度。具体过程参考模型训练过程示例如下loss.backward()2 模型训练这里分别准备训练数据和使用pytorch训练模型。2.1 训练数据对于输入X目标值y的生成核心逻辑如下X是一个三维向量true_weights是权重true_bias是固定偏移为保证随机性加随机偏移。y np.dot(X, true_weights) true_bias np.random.randn(n_samples) * noise训练数据生成代码如下所示具体过程参考https://blog.csdn.net/liliang199/article/details/155751622import numpy as np import matplotlib.pyplot as plt from sklearn.datasets import make_regression from sklearn.preprocessing import StandardScaler # 创建模拟数据 def generate_synthetic_data(n_samples200, noise10.0, seed42): 生成合成数据 np.random.seed(seed) # 生成特征 dim_size 3 X np.random.randn(n_samples, dim_size) # 生成真实权重 true_weights np.array([2.5, -1.5, 0.8, 1.8, 3.2, 6.9, 7.8][:dim_size]) true_bias 1.0 # 生成目标值 y np.dot(X, true_weights) true_bias np.random.randn(n_samples) * noise # 标准化特征有助于训练 scaler StandardScaler() X_scaled scaler.fit_transform(X) # 标准化目标值 y_mean, y_std y.mean(), y.std() y_scaled (y - y_mean) / y_std return X_scaled, y_scaled, y_mean, y_std2.2 模型训练参考pytorch训练模型流程在每次迭代过程中1先计算预测值predictions2然后根据预测值predictions和实际值y_tensor计算Pearson损失loss3再然后通过loss.backward() optimizer.step()计算梯度更新模型torch版Pearson损失训练模型的伪码如下所示。X_tensor torch.FloatTensor(X_np)y_tensor torch.FloatTensor(y_np)model LinearModel(X_np.shape[1])criterion PearsonLossTorch()optimizer optim.SGD(model.parameters(), lr0.01)# 训练losses []for epoch in range(1000):optimizer.zero_grad()predictions model(X_tensor)loss criterion(predictions, y_tensor)loss.backward()optimizer.step()losses.append(loss.item())以下是torch版本的Pearson损失训练模型的代码。def pytorch_version(): 使用PyTorch实现Pearson损失函数的版本 需要安装: pip install torch try: import torch import torch.nn as nn import torch.optim as optim class PearsonLossTorch(nn.Module): def __init__(self): super(PearsonLossTorch, self).__init__() def forward(self, y_pred, y_true): # 计算Pearson相关系数 v_pred y_pred - torch.mean(y_pred) v_true y_true - torch.mean(y_true) numerator torch.sum(v_pred * v_true) denominator torch.sqrt(torch.sum(v_pred ** 2)) * torch.sqrt(torch.sum(v_true ** 2)) # 防止除以零 if denominator 0: denominator 1e-10 pearson_r numerator / denominator # 返回1 - r作为损失 return 1 - pearson_r # 创建简单的线性模型 class LinearModel(nn.Module): def __init__(self, input_dim): super(LinearModel, self).__init__() self.linear nn.Linear(input_dim, 1) def forward(self, x): return self.linear(x).squeeze() # 示例用法 print(\nPyTorch版本:) X_np, y_np, _, _ generate_synthetic_data() X_tensor torch.FloatTensor(X_np) y_tensor torch.FloatTensor(y_np) model LinearModel(X_np.shape[1]) criterion PearsonLossTorch() optimizer optim.SGD(model.parameters(), lr0.01) # 训练 losses [] for epoch in range(1000): optimizer.zero_grad() predictions model(X_tensor) loss criterion(predictions, y_tensor) loss.backward() optimizer.step() losses.append(loss.item()) if epoch % 200 0: print(fEpoch {epoch}: Loss {loss.item():.4f}) print(PyTorch训练完成!) except ImportError: print(PyTorch未安装跳过PyTorch示例。) print(安装命令: pip install torch) pytorch_version()训练输出如下可见随着训练进行模型越来越收敛说明Pearson loss生效了。PyTorch版本:Epoch 0: Loss 0.8733Epoch 200: Loss 0.7504Epoch 400: Loss 0.7321Epoch 600: Loss 0.7300Epoch 800: Loss 0.7298PyTorch训练完成!reference---如何使用python模拟Pearson loss训练模型https://blog.csdn.net/liliang199/article/details/155751622
版权声明:本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!

网站建设中添加图片链接域名对网站seo的影响

Brevent 终极指南:免费提升 Android 设备性能的完整解决方案 【免费下载链接】Brevent 项目地址: https://gitcode.com/gh_mirrors/br/Brevent Brevent 是一款革命性的 Android 应用程序管理工具,通过智能控制后台应用运行来显著提升设备性能和电…

张小明 2026/1/7 8:16:59 网站建设

成品在线网站免费入口网站建设逻辑组织的几种模型

第一章:Java包依赖混乱导致上线事故?银行生产环境的可视化防控体系在某大型商业银行的一次版本发布中,因一个微服务模块意外引入了高版本的FastJSON依赖,与核心交易系统中使用的旧版本产生兼容性冲突,最终导致交易接口…

张小明 2026/1/7 21:15:16 网站建设

福永公司网站建设泰安百度公司代理商

设计团队面临的最大效率瓶颈不是创意不足,而是重复性操作消耗了大量宝贵时间。我们调研了50家互联网公司的设计工作流,发现设计师平均每天需要执行200次重复操作——调整组件尺寸、更新文本内容、批量导出资产。这些机械性工作占据了40%的设计时间&#…

张小明 2026/1/7 18:47:08 网站建设

页游网站郑州高档网站建设

交互式脚本编程:键盘输入与循环控制 1. 键盘输入的读取 在计算机编程中,许多程序都需要与用户进行交互,接收用户的输入。在之前编写的脚本中,往往缺乏这种交互性。例如下面这个评估整数的脚本: #!/bin/bash # test-integer2: evaluate the value of an integer. INT=-…

张小明 2026/1/7 21:15:16 网站建设

低价网站建设机构wordpress如何把标签去掉

快速体验 打开 InsCode(快马)平台 https://www.inscode.net输入框内输入如下内容: 快速开发一个wan2.2协议创新功能的概念验证原型。要求:1. 实现协议扩展头部的新字段 2. 展示性能改进潜力 3. 提供参数调节滑块 4. 生成对比测试报告。使用DeepSeek模型…

张小明 2026/1/7 0:00:25 网站建设