网站建设的现状做网站的公司现在还 赚钱吗
2026/1/9 4:50:37 网站建设 项目流程
网站建设的现状,做网站的公司现在还 赚钱吗,团购网站切换城市js特效代码,怎样做二维码网站一、研究背景 1、隐私法规与被遗忘权 近年来#xff0c;随着《通用数据保护条例》#xff08;GDPR#xff09;、《加州消费者隐私法案》#xff08;CCPA#xff09;等法律法规的颁布#xff0c;数据隐私保护成为了全球关注的焦点。其中最重要且最具争议的条款之一是 “…一、研究背景1、隐私法规与被遗忘权近年来随着《通用数据保护条例》GDPR、《加州消费者隐私法案》CCPA等法律法规的颁布数据隐私保护成为了全球关注的焦点。其中最重要且最具争议的条款之一是“被遗忘权”Right to be Forgotten。这意味着数据主体用户有权要求服务提供商删除其存储的个人数据。2、机器遗忘在机器学习ML背景下仅仅从数据库中删除数据是不够的因为模型在训练过程中已经“记住”了这些数据的信息。为了真正合规模型提供者必须消除被撤销数据对模型参数的影响。这一过程被称为“机器遗忘”。传统方法最彻底的方法是删除数据后**从头重新训练Retraining from scratch**模型。但这在计算上非常昂贵尤其是当数据集很大、模型很复杂时频繁的重训是不现实的。近似方法SISA为了加速学术界提出了近似算法。其中最先进的是SISA(Sharded, Isolated, Sliced, and Aggregated) 框架。它的核心思想是将训练数据随机划分成多个不重叠的碎片Shards每个碎片训练一个子模型。当需要删除某条数据时只需要重新训练该数据所在的那个碎片对应的子模型即可从而大大节省时间。3、图神经网络的兴起现实世界中有大量数据是以图Graph的形式存在的如社交网络、金融网络、生物网络等。图神经网络GNN在处理这些非欧几里得数据方面表现出色。因此如何在GNN中实现高效的“机器遗忘”成为了一个紧迫的问题。二、研究动机作者发现直接将现有的 SISA 框架主要针对图像和文本设计应用到图数据上存在严重的问题。1. 核心冲突数据独立性 vs. 图结构依赖性SISA的假设图像或文本数据通常被视为独立同分布I.I.D.的。随机划分数据不会破坏数据的内在属性。图数据的特性图中的节点不是独立的它们通过边Edges相互连接共享特征和标签信息。图的结构信息Structure Information对 GNN 的性能至关重要。2. 现有方法的缺陷如果直接对图数据使用 SISA即随机划分节点到不同的碎片中破坏结构会切断大量的边破坏图的拓扑结构。性能下降导致子模型的预测准确率Utility大幅下降。3. 潜在解决方案的挑战社区发现的不平衡性为了保留图结构一个直观的方法是使用社区发现Community Detection算法来划分图将联系紧密的节点分在同一个碎片。但是真实世界的图通常具有幂律分布特性导致社区大小极其不均匀有的社区巨大有的极小。不平衡的后果如果按照社区划分会导致碎片大小极度不平衡。根据木桶效应遗忘效率取决于最大的那个碎片的重训时间。如果被删除的节点恰好在最大的碎片中重训时间依然很长导致遗忘效率低下。总结动机我们需要一种专门针对 GNN 的遗忘框架它既能像社区发现那样保留图结构保证模型准确性又能像随机划分那样保证碎片大小均衡保证遗忘效率。三、核心方法作者提出的GraphEraser框架主要包含三个阶段均衡图划分、分片模型训练、基于学习的聚合。阶段 1: 均衡图划分 (Balanced Graph Partition) ——这是论文最核心的创新点作者提出了一个通用原则将节点分配问题转化为排序与容量限制问题。设定每个碎片的容量上限 δ并定义每个节点对于特定碎片的“偏好Preference”优先满足高偏好的分配。为了实现这一原则作者提出了两种具体的算法基础基于标签传播算法Label Propagation Algorithm, LPA。改进逻辑初始化随机将节点分配给 k个碎片。偏好计算计算每个节点 u 的邻居中有多少属于目标碎片 Cdst。邻居数越多说明该节点越应该属于这个碎片偏好越高。排序与分配将所有 (节点, 目标碎片) 对按照邻居数量从高到低排序。容量限制按照排序顺序重新分配节点。关键点如果目标碎片的当前节点数已经达到了上限 δ则不允许该节点加入必须寻找其他碎片或留在原处。迭代重复上述过程直到收敛或达到最大次数。适用性适用于高度依赖图拓扑结构的模型如 GCN。基础基于 K-Means 聚类算法。改进逻辑预处理先用一个预训练的 GNN 提取所有节点的 Embedding这样 Embedding 既包含特征信息也包含结构信息。初始化随机选择 k 个质心。偏好计算计算节点 Embedding 到各质心的欧几里得距离。距离越近偏好越高。排序与分配将 (节点, 质心) 对按距离从小到大排序。容量限制同样强制执行容量上限 δ。如果一个簇满了距离再近的节点也进不去。更新质心根据新分配的节点更新质心位置。适用性适用于对节点特征敏感的模型如 GAT, GraphSAGE, GIN。阶段 2: 分片模型训练 (Shard Model Training)在图被划分为 k个大小均衡的子图碎片后作者在每个碎片上独立训练一个 GNN 子模型。遗忘操作当收到针对节点u的遗忘请求时GraphEraser 只需要定位到 u 所在的那个碎片从该碎片中删除 u然后重新训练该碎片的子模型。其他 k-1 个子模型保持不变。效率由于碎片大小被强制均衡任何一个碎片的重训时间都是可控且较短的。阶段 3: 基于学习的聚合 (Learning-based Aggregation, LBAggr)在推理阶段预测未知节点的标签时所有子模型都会给出一个预测结果。如何汇总这些结果现有问题传统的 SISA 使用“多数投票”Majority Voting。但这假设所有子模型同等重要。实际上某些子模型可能因为包含了与目标节点更相关的结构信息预测更准确。LBAggr 方案作者提出为每个子模型 i学习一个重要性权重αi。优化目标最小化加权聚合后的预测误差。公式如下min⁡αEw∈G0[L(∑i0mαi⋅Fi(Xw,Nw),y)]实现细节从训练图中采样一小部分节点例如 10%用它们的真实标签来训练这个权重向量 a。最终预测最终输出是各子模型输出后验概率的加权和。

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询