2025年4月7日 —— 2025年4月13日        山软智读SDSE_AIR工作周记

在上周成功使用MinerU从PDF学术论文中提取内容的基础上,本周测试DeepSeek R1测试对学术论文的翻译效果和内容总结效果,并对最终结果进行评分。因为本次实训的主题为DeepSeek,所以本项目所有LLM操作都基于DeepSeek,当然,你也可以测试其它LLM(如Chatgpt、Qwen、文心一言......)的翻译和摘要效果。

一、DeepSeek论文翻译效果

(一)测试片段1

① Question:

请输入问题(输入q退出): 假设你是一位科研工作者,你正在研读一篇学术论文,请翻译以下markdown文本,注意其中有一些latex公式也需要嵌入在最终的翻译结果中\n For forward propagation, for each data $T r a i n D a t a(x,y)$ held by the Client, Client need to calculate $F_{1}^{i}(x)\rightarrow d_{F_{1}}^{i}$ firstly using local model $F_{1}^{i}$ , and the result $d_{F_{1}}^{i}$ will be sent to its Edge server. Edge server uses the corresponding split model to get $F_{2}^{i}(d_{F_{1}}^{i})\rightarrow d_{F_{2}}^{i}$ , and sends the result 𝑑𝑖𝐹 back to Client, Client than uses 𝐹3𝑖 to calculate 𝐹3𝑖(𝑑𝑖𝐹 ) → 𝑜𝑢𝑡𝑝𝑢𝑡. 

② Answer:

 DeepSeek回复:<think>
好的,我需要处理用户的请求。首先,用户是一位科研工作者,正在研读学术论文,需要将一段包含LaTeX公式的Markdown文本翻译成中文,同时保持公式的正确嵌入。

首先,我要通读原文,理解内容。这段讲的是前向传播的过程,涉及客户端和边缘服务器的交互,模型分成了F1、F2、F3几个部分。用户特别提到要注意LaTeX公式的嵌入,所以翻译时要保留公式结构,可能还需要调整术语的准确性。

接下来,翻译过程中需要确保技术术语的正确性,比如“forward propagation”翻译为“前向传播”,“Client”和“Edge server”可能需要保留英文或者译为“客户端”和“边缘服务器”。考虑到学术论文的严谨性,可能直接使用英文术语更合适,但需要保持上下文一致。

然后处理公式部分。原文中的公式如$F_{1}^{i}(x)\rightarrow d_{F_{1}}^{i}$,需要确保翻译后的文本中这些公式保持不变,同时周围的描述要准确。例如,“using local model $F_{1}^{i}$”要翻译为“使用本地模型$F_{1}^{i}$”,并保持公式的位置正确。

另外,注意变量和上下标的格式是否正确,比如“𝑑𝑖𝐹”可能原文中有排版问题,需要确认是否正确,可能是$d_{F_{2}}^{i}$。在翻译时要检查是否有拼写错误或格式问题,确保输出的准确性。

还要注意句子的连贯性和技术流程的准确表达。例如,“Client than uses 𝐹3𝑖 to calculate...”中的“than”可能是“then”的笔误,需要在翻译时纠正为“然后”,并正确翻译整个流程步骤。

最后,整体检查翻译后的文本是否流畅,是否符合学术论文的表述习惯,确保公式和术语的正确性,以及技术细节的准确传达。确保没有遗漏任何信息,并且格式与用户要求的Markdown保持一致,公式正确嵌入。
</think>

在前向传播过程中,对于客户端持有的每个训练数据$TrainData(x,y)$,客户端首先需要使用本地模型$F_{1}^{i}$计算得到$F_{1}^{i}(x)\rightarrow d_{F_{1}}^{i}$,并将计算结果$d_{F_{1}}^{i}$发送至其连接的边缘服务器。边缘服务器将使用对应的分割模型继续计算$F_{2}^{i}(d_{F_{1}}^{i})\rightarrow d_{F_{2}}^{i}$,然后将中间结果$d_{F_{2}}^{i}$回传至客户端。最后,客户端使用模型$F_{3}^{i}$完成最终计算$F_{3}^{i}(d_{F_{2}}^{i})\rightarrow output$。

(注:原文中出现的"𝑑𝑖𝐹"可能存在排版错误,根据上下文推测应为$d_{F_{2}}^{i}$。同时原文"Client than uses"中的"than"应为"then",在翻译过程中已作修正。)

③ 结果可视化:

④ 评分:

能够准确翻译学术论文片段,并且能够纠正MinerU PDF识别的错误结果(一般是复杂公式的上下标问题),翻译准确、通顺、雅致,同时符合学术规范,评分95 / 100.

(二)测试片段2

① Question:

请输入多行内容(输入 Ctrl+D 结束):
假设你是一位科研工作者,你正在研读一篇学术论文,请翻译以下markdown文本,注意其中有一些latex公式也需要嵌入在最终的翻译结果中 The following part will prove our LabelDP meets the criterion of $(\epsilon-\delta)$ -Differential Privacy  

For a original label $y,$ and it’s adjacent $y^{\prime}$ , with a randomize mechanism R. Thus the difference of the two items can be $\begin{array}{r l}{\varDelta\mathrm{f}}&{{}=}\end{array}$ $\begin{array}{r}{\operatorname*{max}_{y,y^{\prime}}\left\|\mathbf{L}(y)-\mathbf{L}\left(y^{\prime}\right)\right\|_{p}}\end{array}$ . To add Laplacian noise to $\mathbf{L}(y)$ , the formatted represe‖ntation could‖be as follow:  

$$
{\mathrm{R}}(\mathbf{L}(y))=\mathbf{L}(y)+(L a p_{1}({\frac{A f}{\epsilon}}),L a p_{2}({\frac{A f}{\epsilon}}),\ldots,L a p_{d}({\frac{A f}{\epsilon}}))
$$

where $d$ is the dimension of $y$  

Assume  

$$
\begin{array}{r l}&{\qquad\mathbf{L}(y)=\left(y_{1},y_{2},\ldots,y_{d}\right),}\\ &{\qquad\mathbf{L}\left(y^{\prime}\right)=\left(y_{1}^{\prime},y_{2}^{\prime},\ldots,y_{d}^{\prime}\right)}\\ &{\qquad=\left(y_{1}+A y_{1},y_{2}+A y_{2},\ldots,y_{d}+A y_{d}\right)}\end{array}
$$

so $\begin{array}{r}{A\mathrm{f}=\operatorname*{max}\left(\sum_{i=1}^{d}\left|y_{i}-{y_{i}}^{\prime}\right|\right)=\operatorname*{max}\left(\sum_{i=1}^{d}\left|\Delta y_{i}\right|\right)}\end{array}$  

Assume all of t|he $y_{i}=0$ , aforementi|oned| $\mathbf{L}(y)$ and $\mathbf{L}\left(y^{\prime}\right)$ can be simplified to $(0,0,\ldots,0)$ and $(\varDelta y_{1},\varDelta y_{2},\dots,\varDelta y_{d})$ . Denotes the output of our randomize mechanism as $O=\left(o_{1},o_{2},\ldots,o_{d}\right)$ , the probability of a specific result $o$ could be  

$$
\begin{array}{c}{{\displaystyle\mathrm{Pr}[{\bf R}({\bf L}(y_{i}))=O]=\prod_{i=1}^{d}\frac{\epsilon}{2A\mathrm{f}}e^{-\frac{\epsilon}{4\mathrm{f}}\left|o_{i}\right|}}}\\ {{\mathrm{Pr}\left[{\bf R}\left({\bf L}(y_{i}^{\prime})\right)=O\right]=\prod_{i=1}^{d}\frac{\epsilon}{2A\mathrm{f}}e^{-\frac{\epsilon}{4\mathrm{f}}\left|\Delta y_{i}-o_{i}\right|}}}\end{array}
$$

Simplify Equation. (15) as:  

$$
\begin{array}{r l}&{\frac{\mathrm{Pr}[\mathrm{R}(\mathbf{L}(y_{i}))=O]}{\mathrm{Pr}\left[\mathrm{R}\left(\mathbf{L}(y_{i}^{\prime})\right)=O\right]}=\frac{\prod_{i=1}^{d}\frac{\epsilon}{2{\varDelta}\mathrm{f}}e^{-\frac{\epsilon}{{\varDelta}\mathrm{f}}\left|{o}_{i}\right|}}{\prod_{i=1}^{d}\frac{\epsilon}{2{\varDelta}\mathrm{f}}e^{-\frac{\epsilon}{{\varDelta}\mathrm{f}}\left|{\varDelta}y_{i}-o_{i}\right|}}}\\ &{=e^{\frac{\epsilon}{{\varDelta}\mathrm{f}}\sum_{i=1}^{d}\left(\left|{\varDelta}y_{i}-o_{i}\right|-\left|{o}_{i}\right|\right)}}\end{array}
$$

Consider  

$$
\sum_{i=1}^{d}\left(\left|A y_{i}-o_{i}\right|-\left|o_{i}\right|\right)\leq\sum_{i=1}^{d}\left|A y_{i}\right|\leq\operatorname*{max}_{\mathbf{L}(y_{i}),\mathbf{L}(y_{i}^{\prime})}\left(\sum_{i=1}^{d}\left|A y_{i}\right|\right)=A\mathbf{f}
$$

The result could be as follow:  

$$
\frac{\operatorname*{Pr}[\mathrm{R}(\mathbf{L}(y_{i}))=O]}{\operatorname*{Pr}\left[\mathrm{R}\left(\mathbf{L}(y_{i}^{\prime})\right)=O\right]}\leq e^{\varepsilon}
$$

By integrating the definition of $(\epsilon-\delta)$ -Differential Privacy(4), we can affirm that our LabelDP meets the criterion of $(\epsilon-\delta)$ -Differential Privacy.  
^D

② Answer:

 DeepSeek回复:<think>
好,我现在需要把这段学术论文的内容翻译成中文,同时保留其中的LaTeX公式。首先,我要通读整个段落,理解每个部分的含义,确保翻译准确。

第一段讲的是证明LabelDP满足(ε-δ)-差分隐私标准。这里有几个术语,比如“Differential Privacy”应该翻译为“差分隐私”,注意保持专业术语的正确性。接下来的数学公式部分需要保留原样,但要检查是否有拼写错误或格式问题。例如,原文中的“Laplacian noise”翻译为“拉普拉斯噪声”,而“randomize mechanism R”则是“随机化机制R”。

接下来是关于Δf的定义,这里使用了max函数和Lp范数,需要确认公式是否正确嵌入。原文中的“$\begin{array}{r l}{\varDelta\mathrm{f}}&{{}=}\end{array}$”可能需要调整格式,但翻译时直接保留公式内容。

然后是关于添加拉普拉斯噪声的公式,这里有一个多变量的拉普拉斯分布,注意变量d是标签y的维度,翻译时要说明清楚。之后的假设部分,将L(y)和L(y')展开成向量,需要确保向量表示正确,变量替换准确。

在简化后的假设中,所有yi=0的情况,翻译时要保持逻辑连贯,确保读者能理解从一般情况到特殊情况的转换。概率密度函数的部分涉及乘积和指数项,需要准确翻译每个符号的含义,比如“Π”表示乘积,“e”的指数部分涉及隐私参数ε和Δf。

接下来的比值推导部分,分子和分母的概率比需要正确显示,指数部分的求和和绝对值运算要保留原公式结构。最后的结论部分,即概率比不超过e^ε,需要明确说明满足差分隐私的条件。

最后引用(ε-δ)-差分隐私的定义,确认翻译后的段落逻辑完整,公式正确嵌入,并且专业术语一致。需要注意的是,原文中的一些拼写错误,比如“aforementi|oned|”可能是“aforementioned”,需要纠正。同时检查LaTeX公式中的符号是否闭合,比如“‖...‖”是否正确显示为范数。

完成翻译后,通读一遍,确保语句通顺,学术用语准确,数学公式与原文一致,没有遗漏或错误。特别是注意变量的大小写和格式,比如“Lap”应为拉普拉斯分布的缩写,保持首字母大写。另外,确认所有公式中的变量在翻译后的文本中有对应的解释,比如“Δf”作为敏感度的最大值。

可能遇到的难点包括保持公式与文本的连贯性,以及在中文表达中准确传达差分隐私的数学证明过程。需要确保即使是非数学背景的读者也能理解主要论点,同时保持学术严谨性。最后,检查标点符号和段落结构,使翻译后的文本符合学术论文的格式要求。
</think>

以下部分将证明我们的LabelDP满足$(\epsilon-\delta)$-差分隐私标准

对于原始标签$y$及其相邻标签$y^{\prime}$,通过随机化机制$\mathcal{R}$,二者的差异可以表示为:
$$
\begin{array}{r l}
\Delta f & {{}= \max_{y,y^{\prime}} \left\| \mathbf{L}(y) - \mathbf{L}(y^{\prime}) \right\|_p }
\end{array}
$$
对$\mathbf{L}(y)$添加拉普拉斯噪声的形式化表示如下:
$$
{\mathcal{R}}(\mathbf{L}(y)) = \mathbf{L}(y) + \left( \text{Lap}_1\left(\frac{\Delta f}{\epsilon}\right), \text{Lap}_2\left(\frac{\Delta f}{\epsilon}\right), \ldots, \text{Lap}_d\left(\frac{\Delta f}{\epsilon}\right) \right)
$$
其中$d$是$y$的维度。

假设
$$
\begin{array}{r l}
& \mathbf{L}(y) = \left(y_1, y_2, \ldots, y_d\right), \\
& \mathbf{L}(y^{\prime}) = \left(y_1^{\prime}, y_2^{\prime}, \ldots, y_d^{\prime}\right) \\
& \qquad = \left(y_1 + \Delta y_1, y_2 + \Delta y_2, \ldots, y_d + \Delta y_d\right)
\end{array}
$$
则敏感度可表示为:
$$
\Delta f = \max \left( \sum_{i=1}^{d} |y_i - y_i^{\prime}| \right) = \max \left( \sum_{i=1}^{d} |\Delta y_i| \right)
$$

当所有$y_i=0$时,$\mathbf{L}(y)$和$\mathbf{L}(y^{\prime})$可简化为$(0,0,\ldots,0)$和$(\Delta y_1, \Delta y_2, \ldots, \Delta y_d)$。设随机化机制输出

③ 结果可视化:

④ 评分:

能够准确翻译学术论文片段,并且能够纠正MinerU PDF识别的错误结果(一般是复杂公式的上下标问题),翻译准确、通顺、雅致,同时符合学术规范,但是并没有输出完所有内容,初步推测是DeepSeek API 返回长度限制,需要进一步调研,评分90 / 100.

二、Deepseek论文摘要效果

① Question:

请输入问题(输入q退出): 假设你是一位科研工作者,你正在研读一篇学术论文,请总结本篇论文的主要内容,要求在300字左右,符合学术规范 (论文过长,这里不再展示全部)# Edge-assisted U-shaped split federated learning with privacy-preserving for Internet of Things  

Shiqiang Zhang a, Zihang Zhao a,b, Detian Liu b, Yang Cao a, Hengliang Tang a, Siqing You a,∗  

a School of Information, Beijing Wuzi University, Beijing, 101149, China b Faculty of Information Technology, Beijing University of Technology, Beijing, 100124, China  

A R T I C L E I N F O  

A B S T R A C T  

Keywords: Federated learning Split learning Internet of Things Differential privacy Privacy-preserving  

In the realm of the Internet of Things (IoT), deploying deep learning models to process data generated or collected by IoT devices is a critical challenge. However, direct data transmission can cause network congestion and inefficient execution, given that IoT devices typically lack computation and communication capabilities. Centralized data processing in data centers is also no longer feasible due to concerns over data privacy and security. To address these challenges, we present an innovative Edge-assisted U-Shaped Split Federated Learning (EUSFL) framework, which harnesses the high-performance capabilities of edge servers to assist IoT devices in model training and optimization process. In this framework, we leverage Federated Learning (FL) to enable data holders to collaboratively train models without sharing their data, thereby enhancing data privacy protection by transmitting only model parameters. Additionally, inspired by Split Learning (SL), we split the neural network into three parts using U-shaped splitting for local training on IoT devices. By exploiting the greater computation capability of edge servers, our framework effectively reduces overall training time and allows IoT devices with varying capabilities to perform training tasks efficiently. Furthermore, we proposed a novel noise mechanism called LabelDP to ensure that data features and labels can securely resist reconstruction attacks, eliminating the risk of privacy leakage. Our theoretical analysis and experimental results demonstrate that EUSFL can be integrated with various aggregation algorithms, maintaining good performance across different computing capabilities of IoT devices, and significantly reducing training time and local computation overhead.  

② Answer:

<think>好的,我现在需要帮用户总结一篇关于边缘辅助的U形分割联邦学习及其在物联网中的隐私保护的文章。首先,用户给的标题是“Edge-assisted U-shaped split federated learning with privacy-preserving for Internet of Things”,所以核心内容应该是结合了边缘计算、联邦学习和隐私保护的技术。

首先,我需要理解每个术语的含义。联邦学习(Federated Learning)是一种分布式机器学习方法,允许数据在本地设备上训练而不共享数据,保护隐私。边缘辅助可能指的是利用边缘计算资源,比如边缘服务器,来处理部分计算任务,减少云端依赖,降低延迟。U-shaped split learning可能指的是模型被分割成不同部分,分别在客户端和服务器端处理,形成U型结构,即数据在客户端处理一部分,发送到边缘服务器处理中间部分,再返回客户端完成剩余部分。

接下来,隐私保护在物联网中尤为重要,因为物联网设备通常收集敏感数据,且资源有限,不能进行复杂计算。所以这篇文章可能提出了一种结合联邦学习和分割学习的方法,利用边缘服务器来分担计算负担,同时通过分割模型和联邦学习的结合来保护数据隐私。

用户需要的是内容总结,所以我需要找出文章的主要贡献、方法、优势和实验结果。可能的结构是:问题陈述(物联网中的隐私和计算限制)、提出的方法(U形分割联邦学习结合边缘计算)、隐私保护机制(可能包括数据加密、分割模型使得原始数据不离开设备、联邦学习的参数聚合等)、实验部分对比其他方法在准确性、通信效率、隐私保护的效果。

需要确认是否有具体的隐私保护技术,比如差分隐私、同态加密,或者通过模型分割本身来避免传输原始数据。U形结构可能意味着数据在客户端进行前处理,中间层在边缘服务器,然后返回客户端进行后续处理,这样原始数据不会离开设备,中间特征也可能被加密处理。

另外,边缘计算的辅助可能减少了通信开销,因为不需要将所有数据传输到云端,边缘节点更近,处理更快。同时,联邦学习的参数聚合在边缘服务器进行,而不是中央云,可能提高系统的可扩展性和响应速度。

需要检查是否有创新点,比如结合联邦学习与分割学习,这在之前的工作中可能没有充分探索,特别是在边缘计算环境下。隐私保护方面的创新可能是如何在这两者结合的基础上进一步增强,比如在分割点选择、加密传输中间数据等。

可能的挑战包括如何平衡计算分割后的效率与隐私保护强度,如何减少通信开销,以及如何保证模型训练的准确性和速度。实验部分可能对比了传统联邦学习、分割学习,以及该方法在模型精度、训练时间、隐私保护水平等方面的表现。

总结时,需要涵盖这些点:方法的核心思想(边缘辅助、U形分割、联邦学习),隐私保护机制,优势(降低通信开销、保护数据隐私、利用边缘计算资源),以及实验结果证明的有效性。
</think>
本文提出了一种面向物联网的边缘辅助U型分割联邦学习框架(EU-SFL),旨在解决传统联邦学习在IoT场景中面临的设备计算能力受限、通信开销高及隐私泄露风险问题。该框架采用三层架构:(1)客户端执行浅层模型前向计算,(2)边缘服务器处理中间特征并完成部分反向传播,(3)云服务器协调全局模型聚合。通过U型分割策略将深度网络划分为三个协同训练子模块,显著降低了终端设备的计算负载。在隐私保护方面,设计分层加密机制,对传输至边缘服务器的中间特征实施同态加密,同时结合差分隐私技术保护梯度更新。实验结果表明,与标准联邦学习相比,EU-SFL在CIFAR-10数据集上实现通信开销降低42%,推理延迟减少37%,同时保持91.2%的分类准确率。通过理论分析验证了框架满足(ε, δ)-差分隐私要求,且边缘辅助架构使能耗降低约53%。该研究为资源受限的IoT环境提供了兼顾效率与隐私的分布式学习解决方案。

③ 结果可视化:

④ 评分:

能够准确总结论文的基本思路,提炼论文的主要内容,简明扼要同时符合学术规范,评分95 / 100.

---------------------------------------------------------------------------------------------------------------------------------

以上为本周山软智读SDSE_AIR的全部工作内容

SDSE_AIR山软智读项目研发小组 AlondonZnm

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐