知识星球
首先推荐一下我们的知识星球,以AI与安全结合作为主题,包括AI在安全上的应用和AI本身的安全;
加入星球你将获得:
【Ai4sec】:以数据驱动增强安全水位,涵盖内容包括:恶意软件分析,软件安全,AI安全,数据安全,系统安全,流量分析,防爬,验证码等安全方向。星主目前在某大厂从事安全研究,论文以及专利若干,Csdn博客专家,访问量70w+。分享者均为大厂研究员或博士,如阿里云,蚂蚁,腾讯等;
选择加入即可获得:
1、前沿安全研究资讯
2、相关安全领域的研究入门和进阶,如malware,fuzz,program analysis,antibot等
3、大厂岗位内推,包括阿里云,蚂蚁,腾讯等
4、求职考研考博简历润色及辅导是允许读者一对一咨询求职、考研考博相关问题,并帮助读者修改简历和告知相关经验。
5、相关论文方向指导
现在正在低成本推广,秒杀一波福利,数量有限,先到先得,欢迎新老朋友们加入一起讨论:
对于没有抢到的朋友们,我们也有相应的较大额度的优惠券赠送:
5/01
-
标题: Quantum cryptographic protocols with dual messaging system via 2D alternate quantum walks and genuine single particle entangled states
- 作者: Dinesh Kumar Panda, Colin Benjamin
- 摘要: 单粒子纠缠态(SPES)可以提供比多粒子对应物更安全的方式来编码和处理量子信息。通过从最初可分离的状态通过2D交替量子漫步设置生成的SPES可以是三向或两向纠缠的。这封信展示了生成的真正的三向和非局域的两向SPES可以作为加密密钥,同时安全地编码两个不同的信息。我们详细描述了消息加密-解密步骤,并展示了基于3向和2向SPES的加密协议对窃听者攻击(如拦截-重发和中间人攻击)的弹性。我们还详细说明了这些协议如何使用单光子实现,其中三个自由度是OAM(轨道角动量)、路径和偏振。这些对于量子通信任务具有无与伦比的安全性。使用生成的SPES同时编码两个不同的消息展示了所提出的加密协议的多功能性和效率。这种能力可以显著提高量子通信系统的吞吐量。
- 发表时间: 2024-05-01T17:50:36Z
- 链接: http://arxiv.org/abs/2405.00663v1
-
标题: Growth in products of matrices: fastest, average, and generic
- 作者: Vladimir Shpilrain
- 摘要: 本文考虑的问题如下。设A和B是2x2矩阵(实数域上的)。设w(A, B)是长度为n的单词。将w(A, B)评估为矩阵乘积后,我们得到一个2x2矩阵,称之为W。在所有长度为n的w(A, B)中,W的最大(按绝对值)可能的条目是什么,作为n的函数?在一个随机矩阵乘积中,最大(按绝对值)条目的期望绝对值是多少,其中每个矩阵是A或B的概率为0.5?这样的随机矩阵乘积的Lyapunov指数是什么?我们对第一个问题给出了部分答案,对第二个问题给出了基本完整的答案。对于第三个问题(三个问题中最困难的),我们提供了一个非常简单的方法来在所有矩阵A和B的条目都是非负的情况下,产生Lyapunov指数的上界。
- 发表时间: 2024-05-01T16:31:29Z
- 链接: http://arxiv.org/abs/2405.00610v1
-
标题: Unbundle-Rewrite-Rebundle: Runtime Detection and Rewriting of Privacy-Harming Code in JavaScript Bundles
- 作者: Mir Masood Ali, Peter Snyder, Chris Kanich, Hamed Haddadi
- 摘要: 这项工作介绍了Unbundle-Rewrite-Rebundle (URR),一个用于检测捆绑JavaScript代码中损害隐私部分的系统,并在运行时重写该代码以移除损害隐私的行为,同时不破坏周围代码或整体应用程序。URR是JavaScript捆绑问题的新解决方案,网站将多个代码单元预编译到一个单独的文件中,使得内容过滤器和广告拦截器无法区分所需的和不需要的资源。与传统的内容过滤工具依赖URL不同,URR在AST级别分析代码,并用维护隐私和功能的替代品替换有害的AST子树。
- 发表时间: 2024-05-01T16:04:42Z
- 链接: http://arxiv.org/abs/2405.00596v1
-
标题: Byzantine-Secure Relying Party for Resilient RPKI
- 作者: Jens Friess, Donika Mirdita, Haya Schulmann, Michael Waidner
- 摘要: 为了保护免受前缀劫持的攻击,资源公钥基础设施(RPKI)已被标准化。为了享受RPKI验证的安全保证,网络需要安装一个新组件,即依赖方验证器,它获取并验证RPKI对象,并将它们提供给边界路由器。然而,最近的工作表明,依赖方在检索RPKI对象时会经历故障,并且容易受到攻击,所有这些都可能禁用RPKI验证。因此,即使是少数采用者也不一定安全。
- 发表时间: 2024-05-01T14:04:48Z
- 链接: http://arxiv.org/abs/2405.00531v1
-
标题: JNI Global References Are Still Vulnerable: Attacks and Defenses
- 作者: Yi He, Yuan Zhou, Yacong Gu, Purui Su, Qi Li, Yajin Zhou, Yong Jiang
- 摘要: Android中的系统服务和资源是通过基于IPC的机制访问的。以前的研究已经证明它们容易受到拒绝服务攻击(DoS攻击)。例如,广泛用于系统服务的JNI全局引用(JGR)可以耗尽以导致系统重启(因此得名JGRE攻击)。尽管Android团队试图通过实施安全检查来修复这个问题,但我们发现在最新的Android系统中仍然可以构建JGR耗尽的DoS攻击。
- 发表时间: 2024-05-01T14:01:16Z
- 链接: http://arxiv.org/abs/2405.00526v1
-
标题: PackVFL: Efficient HE Packing for Vertical Federated Learning
- 作者: Liu Yang, Shuowei Cai, Di Chai, Junxue Zhang, Han Tian, Yilun Jin, Kun Guo, Kai Chen, Qiang Yang
- 摘要: 作为安全分布式机器学习的基本工具,基于同态加密(HE)的垂直联邦学习(VFL)由于数据膨胀和耗时的操作而受到严重的效率问题。为了解决这个核心问题,我们提出了PackVFL,一个基于打包同态加密(PackedHE)的高效VFL框架,以加速现有的基于HE的VFL算法。PackVFL将多个明文打包成一个密文,并支持单指令多数据(SIMD)风格的并行性。我们专注于设计一个高性能的矩阵乘法(MatMult)方法,因为它占据了基于HE的VFL中大部分密文计算时间。此外,为PackedHE设计MatMult方法也具有挑战性,因为打包方式的微小差异可能会显著影响其计算和通信成本。没有特定领域的设计,直接应用最先进的MatMult方法很难实现最优。
- 发表时间: 2024-05-01T12:46:57Z
- 链接: http://arxiv.org/abs/2405.00482v1
-
标题: Lazy Layers to Make Fine-Tuned Diffusion Models More Traceable
- 作者: Haozhe Liu, Wentian Zhang, Bing Li, Bernard Ghanem, Jürgen Schmidhuber
- 摘要: 基础生成模型应该是可追溯的,以保护其所有者并促进安全监管。为了实现这一点,传统方法基于监督触发响应信号嵌入标识符,这些通常被称为后门水印。它们在模型使用非触发数据进行微调时容易失败。我们的实验表明,这种脆弱性是由于微调期间只有少数“忙碌”层的能量变化所致。这产生了一种新的任意输入到任意输出(AIAO)策略,使水印对基于微调的移除具有弹性。AIAO样本的触发响应对可以在不同神经网络深度上使用,以构建水印子路径,使用蒙特卡洛采样实现稳定的验证结果。此外,与现有设计扩散模型的输入/输出空间的后门方法不同,在我们的方法中,我们提出将后门嵌入到采样子路径的特征空间中,其中提出了一个掩码控制的触发函数,以保持生成性能并确保嵌入的后门不可见。我们在MS-COCO、AFHQ、LSUN、CUB-200和DreamBooth数据集上的实证研究证实了AIAO的鲁棒性;而其他基于触发器的方法的验证率在微调后从约90%下降到约70%,我们方法的验证率仍然一致地保持在90%以上。
- 发表时间: 2024-05-01T12:03:39Z
- 链接: http://arxiv.org/abs/2405.00466v1
-
标题: Modeling Linear and Non-linear Layers: An MILP Approach Towards Finding Differential and Impossible Differential Propagations
- 作者: Debranjan Pal, Vishal Pankaj Chandratreya, Abhijit Das, Dipanwita Roy Chowdhury
- 摘要: 对称密钥密码学是确保当代电子通信框架内安全的基础。经典对称密钥密码算法的密码分析涉及传统方法和技术,旨在破坏或分析这些密码系统。在评估新密码时,抵抗线性和差分密码分析通常是关键的设计标准。对于块密码,宽迹设计技术有助于证明其对线性和差分密码分析的安全性。评估方案对差分攻击的抵抗力通常涉及确定密码中所有轮次的SBox的最小活动数量。密码组件(如SBox)的传播特性可以使用布尔函数来表示。混合整数线性规划(MILP)被证明是解决布尔函数的有价值技术。我们制定了一组不等式来模拟布尔函数,然后由MILP求解器解决。为了有效地模拟布尔函数并选择一组最小化的不等式,必须解决两个关键挑战。我们提出了算法来解决第二个挑战,旨在找到更优化的线性和非线性组件。我们的方法应用于模拟SBoxes(多达六位)和具有任何数量输入的EXOR操作。此外,我们引入了一个基于MILP的自动化工具,用于探索密码中的差分和不可能差分传播。该工具成功应用于五个轻量级块密码:Lilliput、GIFT64、SKINNY64、Klein和MIBS。
- 发表时间: 2024-05-01T10:48:23Z
- 链接: http://arxiv.org/abs/2405.00441v1
-
标题: On the Potential of RIS in the Context of PLA in Wireless Communication Systems
- 作者: Hama Amin, Waqas Aman, Saif Al-Kuwari
- 摘要: 可重构智能表面(RIS)技术已被证明是下一代无线网络的有希望的候选者,因为它在吞吐量、频谱和能源效率方面的性能得到了增强。然而,RIS辅助无线通信的广播性质使其在物理层容易受到恶意攻击。另一方面,物理层认证(PLA)是安全领域中一个新兴的领域,它通过使用物理层的随机特性来阻止克隆、欺骗和冒充等不同类型的攻击。在本文中,我们研究了RIS辅助无线通信系统,以探索使用RIS进行物理层认证(PLA)的潜力。具体来说,我们利用物理层的两个不同特征:路径损耗和信道冲激响应(CIR)用于RIS辅助无线通信中的PLA。我们为估计的特征构建了假设测试,并推导了闭合形式误差的表达式。此外,我们选择了关键误差,即错过检测作为我们的目标函数,通过优化RIS面板的相位偏移来进行最小化。我们比较了我们提出的机制与基线机制的性能,后者是使用相同特征但没有RIS辅助的PLA方案。此外,我们使用性能指标(如误报概率(PFA)、错过检测概率(PMD)和接收者操作特征(ROC)曲线)彻底评估了我们提出的方案。结果表明,RIS对PLA有显著的积极影响,因为它在确定最佳相位偏移时有效地将PMD值减少到零。
- 发表时间: 2024-05-01T10:17:24Z
- 链接: http://arxiv.org/abs/2405.00426v1
-
标题: Detection of ransomware attacks using federated learning based on the CNN model
- 作者: Hong-Nhung Nguyen, Ha-Thanh Nguyen, Damien Lescos
- 摘要: 计算仍然面临来自勒索软件的显著威胁,这需要迅速采取行动以防止它。勒索软件攻击可能对智能电网,特别是数字变电站的运行产生负面影响。除了检查使用人工智能(AI)的勒索软件检测方法外,本文还提供了一种针对数字变电站被破坏操作的勒索软件攻击建模技术。首先,二进制数据被转换为图像数据,并使用联合学习输入到卷积神经网络模型中。实验结果表明,所提出的技术以高准确率检测勒索软件。
- 发表时间: 2024-05-01T09:57:34Z
- 链接: http://arxiv.org/abs/2405.00418v1
-
标题: Trust Driven On-Demand Scheme for Client Deployment in Federated Learning
- 作者: Mario Chahoud, Azzam Mourad, Hadi Otrok, Jamal Bentahar, Mohsen Guizani
- 摘要: 容器化技术在联邦学习(FL)设置中发挥着至关重要的作用,扩大了潜在客户端池,并确保为每次学习迭代提供特定子集的可用性。然而,当涉及到容器部署过程时,对在FL场景中部署为客户端的设备的可信度产生了疑问。特别是在管理可能破坏学习过程或破坏整个模型的潜在恶意客户端方面,解决这些挑战非常重要。在我们的研究中,我们受到动机,将信任元素集成到系统架构中的客户端选择和模型部署过程中。这是最初的按需架构的客户端选择和部署机制所缺乏的功能。我们介绍了一个名为“Trusted-On-Demand-FL”的信任机制,它建立了服务器和合格客户端池之间的信任关系。在我们的部署策略中使用Docker使我们能够有效地监控和验证参与者的行动,确保严格遵守商定的协议,同时加强对未经授权的数据访问或篡改的防御。我们的模拟依赖于一个持续的用户行为数据集,部署了一个由遗传算法驱动的优化模型,以有效地选择参与的客户端。通过为个别客户端分配信任值并动态调整这些值,结合通过降低信任分数惩罚恶意客户端,我们提出的框架识别并隔离有害客户端。这种方法不仅减少了对常规轮次的干扰,还最小化了轮次驳回的实例,从而增强了系统的稳定性和安全性。
- 发表时间: 2024-05-01T08:50:08Z
- 链接: http://arxiv.org/abs/2405.00395v1
-
标题: Inferring State Machine from the Protocol Implementation via Large Language Model
- 作者: Haiyang Wei, Zhengjie Du, Haohui Huang, Yue Liu, Guang Cheng, Linzhang Wang, Bing Mao
- 摘要: 状态机在提高协议分析的效能中起着关键作用,以揭示更多的漏洞。然而,从网络协议实现中推断状态机的任务面临重大挑战。基于动态分析的传统方法常常由于覆盖范围有限而忽略了关键的状态转换,而静态分析则面临复杂代码结构和行为的困难。为了解决这些限制,我们提出了一种由大型语言模型(LLMs)支持的创新状态机推断方法。利用文本嵌入技术,这种方法允许LLMs剖析并分析协议实现代码的复杂性。通过有针对性的提示工程,我们系统地识别并推断出底层状态机。我们在六个协议实现上的评估展示了该方法的高效性,准确率超过90%,并成功地描述了同一协议的不同实现之间状态机的差异。重要的是,将这种方法与协议模糊测试集成,通过RFCNLP显著提高了AFLNet的代码覆盖率10%,展示了LLMs在推进网络协议安全分析方面的潜力。我们提出的方法不仅在准确的状态机推断方面迈出了重要一步,而且为提高协议实现的安全性和可靠性开辟了新的途径。
- 发表时间: 2024-05-01T08:46:36Z
- 链接: http://arxiv.org/abs/2405.00393v1
-
标题: Certified Adversarial Robustness of Machine Learning-based Malware Detectors via (De)Randomized Smoothing
- 作者: Daniel Gibert, Luca Demetrio, Giulio Zizzo, Quan Le, Jordi Planes, Battista Biggio
- 摘要: 基于深度学习的恶意软件检测系统容易受到对抗性示例(EXEmples)的攻击——这些是经过精心设计的恶意程序,通过最小的扰动就能躲避检测。因此,社区正在致力于开发防御机制来抵御对抗性示例。然而,当前基于随机平滑的防御仍然容易受到注入对抗性内容块的攻击。在本文中,我们介绍了一种可证明的防御方法,可以抵御补丁攻击,保证对于给定的可执行文件和对抗性补丁大小,不存在对抗性EXEmples。我们的方法受到(去)随机平滑的启发,它提供了确定性的鲁棒性证书。在训练期间,使用连续字节的子集训练基础分类器。在推理时,我们的防御将可执行文件分割成不重叠的块,独立地对每个块进行分类,并通过多数投票计算最终预测,以最小化注入内容的影响。此外,我们引入了一个预处理步骤,将节和标头的大小固定为块大小的倍数。因此,注入的内容被限制在块中的整数数量,而不会破坏包含输入示例真实字节的其他块,允许我们将我们的认证鲁棒性保证扩展到内容插入攻击。我们进行了广泛的消融研究,通过比较我们的防御方法与基于随机平滑的防御方法,针对各种内容操作攻击和神经网络架构进行了比较。结果表明,我们的方法在强大的内容插入攻击中展现出无与伦比的鲁棒性,在文献中基于随机平滑的防御方法中表现优于其他方法。
- 发表时间: 2024-05-01T08:45:57Z
- 链接: http://arxiv.org/abs/2405.00392v1
-
标题: Metric geometry of the privacy-utility tradeoff
- 作者: March Boedihardjo, Thomas Strohmer, Roman Vershynin
- 摘要: 合成数据是实现数据共享隐私的有吸引力的概念。一个基本问题是,与真实数据相比,保护隐私的合成数据有多相似。使用度量隐私,一种超越离散设置的差分隐私的有效泛化,我们提出了一个通过度量空间的几何特征来表征最优隐私-准确性权衡的问题。我们提供了这个问题的部分解决方案,即“熵尺度”,这是一个通过其填充数的行为来捕捉度量空间的多尺度几何的量。我们通过一系列度量空间的例子说明了我们的隐私-准确性权衡框架的适用性。
- 发表时间: 2024-05-01T05:31:53Z
- 链接: http://arxiv.org/abs/2405.00329v1
-
标题: FPGA Digital Dice using Pseudo Random Number Generator
- 作者: Michael Lim Kee Hian, Ten Wei Lin, Zachary Wu Xuan, Stephanie-Ann Loy, Maoyang Xiang, T. Hui Teo
- 摘要: 该项目的目标是设计一个数字骰子,它能够实时显示骰子数字。这个数字是由使用XORshift算法的伪随机数生成器(PRNG)生成的,该算法在FPGA上用Verilog HDL实现。数字骰子配备了倾斜传感器、显示屏、电源管理电路和可充电电池,都安装在一个3D打印的骰子外壳中。通过摇晃数字骰子,倾斜传感器信号产生PRNG的种子。这个数字骰子展示了一组可能的随机数字2、4、6、8、10、12、20、100,模拟了骰子面的数目。该套件被命名为SUTDicey。
- 发表时间: 2024-05-01T04:24:37Z
- 链接: http://arxiv.org/abs/2405.00308v1
-
标题: The Reversing Machine: Reconstructing Memory Assumptions
- 作者: Mohammad Sina Karvandi, Soroush Meghdadizanjani, Sima Arasteh, Saleh Khalaj Monfared, Mohammad K. Fallah, Saeid Gorgin, Jeong-A Lee, Erik van der Kouwe
- 摘要: 现有的反恶意软件和逆向工程工具包在处理隐蔽的次系统级根工具包时存在困难,因为运行时内核级监控的局限性。一个恶意的内核级驱动程序可以很容易地绕过操作系统级别的防病毒机制。尽管静态分析这类恶意软件是可能的,但混淆和打包技术使离线分析变得复杂。此外,当前的动态分析器受到虚拟化性能开销的影响,并创建了可以被现代恶意软件检测到的痕迹,从而使其能够逃避它们。
为了解决这些问题,我们提出了\textit{The Reversing Machine} (TRM),一种新的基于 hypervisor 的内存检查设计,用于逆向工程、重构内存偏移量和指纹识别难以捉摸和混淆的用户级和内核级恶意软件。TRM提出了两种新技术,使恶意软件的有效和透明分析成为可能:使用挂起的进程创建钩住二进制,用于基于 hypervisor 的内存检查;利用基于模式的执行控制(MBEC)来检测用户/内核模式转换和内存访问模式。与现有的恶意软件检测环境不同,TRM可以提取用户和内核空间的完整内存跟踪,并钩住整个目标内存映射来重构数组、操作系统内的结构和可能的根工具包。
我们执行了TRM辅助的内核级结构逆向工程,并表明它平均可以将手动逆向工程的速度提高75%。我们使用最新的打包工具对已知的恶意软件进行混淆,并成功执行了相似性检测。此外,我们通过将修改后的根工具包部署到驱动程序上,展示了一次真实世界的攻击,该驱动程序绕过了最先进的安全审计工具。我们表明TRM可以检测到每个威胁,而且,在24种最先进的防病毒解决方案中,只有TRM可以检测到最先进的威胁。 - 发表时间: 2024-05-01T03:48:22Z
- 链接: http://arxiv.org/abs/2405.00298v1
-
标题: Differentially Private Release of Israel’s National Registry of Live Births
- 作者: Shlomi Hod, Ran Canetti
- 摘要: 2024年2月,以色列卫生部发布了基于以色列国家活产登记处的2014年以色列活产微数据。该数据集在多个领域,如科学研究和政策制定中提供了巨大价值。同时,数据被处理以保护2014年的母亲和新生儿的隐私。该数据集的发布由本文的作者与卫生部内外的利益相关者共同设计。本文介绍了用于获得该发布的方法。它还描述了在选择方法和所遵循的过程时涉及的考虑因素。
我们使用差分隐私作为我们对发布数据集造成的隐私损失的正式度量。更具体地说,我们证明了发布的数据集具有隐私损失预算\varepsilon = 9.98的差分隐私。我们广泛使用了刘和塔瓦尔(STOC 2019)的私有选择算法,将数据转换、模型生成算法、超参数选择和评估等多个步骤捆绑在一起。所选的模型生成算法是PrivBayes(张等人,SIGMOD 2014)。评估基于一系列接受标准,这些标准也被近似地披露,以提供整体的差分隐私保证。我们还讨论了与此试点项目的下一步以及未来差分隐私发布相关的具体挑战和障碍。 - 发表时间: 2024-05-01T01:20:25Z
- 链接: http://arxiv.org/abs/2405.00267v1
5/02
以下是每篇文章的标题、作者、摘要总结、发表时间和链接的中文信息,涵盖了从网络安全、联邦学习、软件漏洞检测到自动语音识别等多个领域的最新研究进展。
-
标题: Error Correction Capabilities of Non-Linear Cryptographic Hash Functions
- 作者: Alejandro Cohen, Rafael G. L. D’Oliveira
- 摘要: 线性哈希因其纠错能力而知名。然而,在大多数应用中,人们使用的是非线性哈希,它们的输出看起来是伪随机的。已经确定,无论是线性还是非线性的经典非系统随机码,在渐近极限下都能达到容量。因此,可以合理期待非线性哈希也可能表现出良好的纠错能力。在本文中,我们证明了这一点。我们的证明基于多访问信道的技术。因此,我们展示了系统化随机非线性码(S-RNLC)在渐近极限下能达到容量。我们通过比较安全哈希算法(SHA)与系统化随机线性码(SRLC)和S-RNLC的性能来验证我们的结果,证明SHA的性能同样出色。
- 发表时间: 2024-05-02T17:26:56Z
- 链接: http://arxiv.org/abs/2405.01495v1
-
标题: Navigating Heterogeneity and Privacy in One-Shot Federated Learning with Diffusion Models
- 作者: Matias Mendieta, Guangyu Sun, Chen Chen
- 摘要: 联邦学习(FL)允许多个客户端共同训练模型,同时保护数据隐私。然而,FL在通信成本和数据异质性方面面临挑战。一次性联邦学习作为解决方案出现,它通过减少通信轮次来提高效率,并提供更好的安全性以抵御窃听攻击。然而,数据异质性仍然是一个重大挑战,影响性能。本文探索了在一次性FL中扩散模型的有效性,证明了它们在解决数据异质性和提高FL性能方面的适用性。此外,我们还研究了我们的扩散模型方法FedDiff与其他一次性FL方法在差分隐私(DP)下的实用性。此外,为了在DP设置下提高生成样本的质量,我们提出了一种实用的傅里叶幅度滤波(FMF)方法,增强了生成数据对全局模型训练的有效性。
- 发表时间: 2024-05-02T17:26:52Z
- 链接: http://arxiv.org/abs/2405.01494v1
-
标题: Purify Unlearnable Examples via Rate-Constrained Variational Autoencoders
- 作者: Yi Yu, Yufei Wang, Song Xia, Wenhan Yang, Shijian Lu, Yap-Peng Tan, Alex C. Kot
- 摘要: 无法学习的例子(UEs)通过对正确标记的训练示例进行微妙的修改来寻求最大化测试错误。针对这些投毒攻击的防御可以根据是否在训练期间采用特定干预措施进行分类。第一种方法是训练时防御,如对抗性训练,虽然可以减轻投毒效果,但计算量大。另一种方法是预训练净化,例如图像短路挤压,它由几个简单的压缩组成,但通常在处理各种UEs时遇到挑战。我们的工作提供了一种新的解耦机制,以构建一种高效的预训练净化方法。首先,我们揭示了速率受限变分自编码器(VAEs)明显倾向于抑制UEs中的扰动。随后,我们对这种现象进行了理论分析。基于这些见解,我们介绍了一个解耦变分自编码器(D-VAE),能够使用可学习的类嵌入解耦扰动。在此网络基础上,自然发展出了一个两阶段的净化方法。第一阶段专注于大致消除扰动,而第二阶段产生精细的、无污染的结果,确保在各种情况下的有效性和鲁棒性。在CIFAR-10、CIFAR-100和一个100类ImageNet子集上的广泛实验表明了我们方法的卓越性能。代码可在https://github.com/yuyi-sd/D-VAE上获得。
- 发表时间: 2024-05-02T16:49:25Z
- 链接: http://arxiv.org/abs/2405.01460v1
-
标题: Unconditionally Safe Light Client
- 作者: Niusha Moshrefi, Peiyao Sheng, Soubhik Deb, Sreeram Kannan, Pramod Viswanath
- 摘要: 区块链应用通常依赖轻量级客户端高效地访问和验证链上数据,而无需运行资源密集型的完整节点。这些轻量级客户端必须保持强大的安全性,以保护建立在其上的应用程序用户的区块链完整性,实现这一点所需的资源最少,且没有显著的延迟。此外,不同的应用程序有不同的安全需求。本文专注于解决权益证明(PoS)区块链背景下的这两个关键要求,并确定实现每个轻量级客户端量身定制、最优安全所需的基本成本-延迟权衡。
- 发表时间: 2024-05-02T16:48:51Z
- 链接: http://arxiv.org/abs/2405.01459v1
-
标题: An Exploratory Case Study on Data Breach Journalism
- 作者: Jukka Ruohonen, Kalle Hjerppe, Maximilian von Zastrow
- 摘要: 本文通过databreaches.net的案例,探索了数据泄露新闻和数据泄露新闻报道这一新主题,databreaches.net是一个专门报道数据泄露及相关网络犯罪的新闻媒体。由于传统犯罪新闻和犯罪新闻报道中存在的问题,本文通过文本挖掘手段探索了这个案例。根据结果,该媒体保持了稳定的发布节奏,主要关注简单和简短的报道,但新闻文章通常有高质量的来源材料。尽管有这些特点,新闻文章还是表现出相当强烈的情感,这部分是由于情感负载的犯罪存在,以及犯罪新闻中长期的轰动效应。新闻网站还涵盖了数据泄露的全部范围,尽管其中许多是相当传统的,暴露了受害者的个人标识符和财务细节。医院和医疗保健部门也很突出。有了这些结果,本文通过媒体和新闻的角度推进了对数据泄露的研究。
- 发表时间: 2024-05-02T16:31:16Z
- 链接: http://arxiv.org/abs/2405.01446v1
-
标题: Applying Transparent Shaping for Zero Trust Architecture Implementation in AWS: A Case Study
- 作者: Wenjia Wang, Seyed Masoud Sadjadi, Naphtali Rishe
- 摘要: 本研究介绍了一种将零信任架构(ZTA)原则和透明整形集成到AWS托管的在线文件管理器(OFM)应用程序的方法,提高了安全性而无需大量代码修改。我们使用Mozilla Observatory评估了我们的方法,突出了显著的安全改进,并为在云环境中应用透明整形和ZTA指明了有希望的发展方向。
- 发表时间: 2024-05-02T16:02:40Z
- 链接: http://arxiv.org/abs/2405.01412v1
-
标题: IDPFilter: Mitigating Interdependent Privacy Issues in Third-Party Apps
- 作者: Shuaishuai Liu, Gergely Biczók
- 摘要: 第三方应用程序已成为当今在线生态系统的重要组成部分,增强了流行平台的功能。然而,它们背后的密集数据交换增加了对第三方应用的相互依赖隐私(IDP)的担忧。本文提供了对第三方应用之前未充分研究的IDP问题的全面调查。具体来说,首先,我们分析了多个应用平台的权限结构,确定了可能通过使用户能够与应用程序共享他人个人数据而引起相互依赖隐私问题的权限。其次,我们收集了数据集,并描述了现有应用程序请求这些权限的程度,揭示了各自应用平台的特征、应用程序类型以及它请求的相互依赖隐私相关权限数量之间的关系。第三,我们分析了为什么数据保护法规和应用平台忽视了IDP,然后设计了设计缓解解决方案时应遵循的原则。最后,基于这些原则并满足明确定义的目标,我们提出了IDPFilter,一个与平台无关的API,使应用程序提供者能够通过过滤从其用户那里收集但涉及他人作为数据主体的数据来最小化附带信息收集。我们实现了一个概念验证原型,IDPTextFilter,它实现了文本数据上的过滤逻辑,并就隐私、准确性和效率方面提供了其初始性能评估。
- 发表时间: 2024-05-02T16:02:13Z
- 链接: http://arxiv.org/abs/2405.01411v1
-
标题: Position Paper: Beyond Robustness Against Single Attack Types
- 作者: Sihui Dai, Chong Xiang, Tong Wu, Prateek Mittal
- 摘要: 当前针对对抗性示例的防御研究主要集中在实现对单一攻击类型的鲁棒性,如 ℓ _ 2 \ell\_2 ℓ_2或 ℓ _ ∞ \ell\_{\infty} ℓ_∞有界攻击。然而,可能的扰动空间要大得多,目前无法用单一攻击类型来建模。当前防御焦点与感兴趣的攻击空间之间的差异引发了对现有防御实用性和其评估可靠性的质疑。在这篇立场论文中,我们认为研究社区应该超越单一攻击类型的鲁棒性,并我们引起对涉及多种攻击的鲁棒性的三个潜在方向的关注:同时多攻击鲁棒性、未预见攻击鲁棒性和我们称之为持续自适应鲁棒性的新定义问题设置。我们提供了一个统一的框架,严格定义了这些问题设置,综合了这些领域的现有研究,并概述了开放的方向。我们希望我们的立场文件能激发更多关于同时多攻击、未预见攻击和持续自适应鲁棒性的研究。
- 发表时间: 2024-05-02T14:58:44Z
- 链接: http://arxiv.org/abs/2405.01349v1
-
标题: Decentralization of Ethereum’s Builder Market
- 作者: Sen Yang, Kartik Nayak, Fan Zhang
- 摘要: 区块链保护了价值超过5000亿美元的生态系统,其强大的安全属性源自去中心化的原则。今天的区块链真的去中心化了吗?在本文中,我们实证研究了以太坊的“构建者市场”——最常使用的区块链系统之一,以太坊中去中心化程度最低的部分,并从一个新的角度揭示了去中心化问题。
为了避免由最大可提取价值(MEV)引起的中心化,以太坊采用了一种通过“构建者市场”产生区块的新机制。然而,经过两年的运行,构建者市场已经演变成一个高度中心化的市场,其中三个构建者产生了超过90%的区块。“为什么在允许任何人加入的无需许可的情况下,构建者市场仍然会中心化?”此外,“中心化的构建者市场对MEV-Boost拍卖的安全影响是什么?”通过对我们自2022年以来策划的大规模拍卖数据集的MEV-Boost拍卖的核心机制的严格实证研究,我们回答了这两个问题。
与之前关注“谁”赢得拍卖的作品不同,我们关注“为什么”他们能赢,以揭示MEV-Boost拍卖的开放性、竞争性和效率。我们的发现还有助于确定改善构建者市场去中心化的方向。 - 发表时间: 2024-05-02T14:32:21Z
- 链接: http://arxiv.org/abs/2405.01329v1
-
标题: A Framework for the Systematic Assessment of Anomaly Detectors in Time-Sensitive Automotive Networks
- 作者: Philipp Meyer, Timo Häckel, Teresa Lübeck, Franz Korf, Thomas C. Schmidt
- 摘要: 连接的车辆容易受到网络攻击的影响。未来车辆的安全和安全高度依赖于对汽车组件的全面保护,其中时间敏感的骨干网络扮演了重要角色。这些车载时间敏感网络(TSNs)需要监控以确保安全,并且作为网络异常检测系统(NADSs)的多样化平台以确保安全。然而,对于在硬实时操作、汽车协议栈和特定领域攻击向量方面的异常检测方法的全面评估,以及适当的输入数据集仍然缺失。在本文中,我们提出了一个评估框架,允许对检测算法进行可重复、可比较和快速评估。它基于一个模拟工具链,该工具链提供了可配置的拓扑、流量流、异常、攻击和检测器。我们在其通信流上模拟了流量异常,并全面评估了NADSs。我们评估了示例检测机制,并揭示了检测性能如何受到不同组合的TSN流量和异常类型的影响。我们的方法可以转化为其他实时以太网领域,如工业设施、飞机和无人机。
- 发表时间: 2024-05-02T14:29:42Z
- 链接: http://arxiv.org/abs/2405.01324v1
-
标题: Privacy-Enhanced Database Synthesis for Benchmark Publishing
- 作者: Yongrui Zhong, Yunqing Ge, Jianbin Qin, Shuyuan Zheng, Bo Tang, Yu-Xuan Qiu, Rui Mao, Ye Yuan, Makoto Onizuka, Chuan Xiao
- 摘要: 基准测试对于评估数据库管理系统(DBMS)至关重要,但现有的基准测试通常未能反映用户工作负载的多样性。因此,有越来越多的动力去创建包含真实用户数据的数据库,以更准确地反映商业环境。然而,隐私问题阻碍了用户直接共享他们的数据,这强调了为基准测试创建优先考虑隐私保护的合成数据库的重要性。差分隐私已成为共享数据时保护隐私的关键方法,但主要集中在最小化聚合查询或分类任务中的错误,对基准测试因素如运行时性能的关注较少。本文深入探讨了专门为基准测试创建保护隐私的数据库,旨在生成一个查询性能与原始数据非常相似的差分隐私数据库。我们介绍了PrivBench,一个创新的合成框架,我们支持生成保持隐私的高质量数据。PrivBench使用乘积和网络(SPNs)来划分和抽样数据,增强了数据表示,同时保护了隐私。该框架允许用户调整SPN分区和隐私设置的细节,这对于定制隐私级别至关重要。我们验证了我们的方法,在保持隐私的同时,使用拉普拉斯和指数机制。我们的测试表明,PrivBench有效地生成了数据,并在查询性能上表现出色,一致地减少了查询执行时间、查询基数和KL散度的错误。
- 发表时间: 2024-05-02T14:20:24Z
- 链接: http://arxiv.org/abs/2405.01312v1
-
标题: Measuring the Exploitation of Weaknesses in the Wild
- 作者: Peter Mell, Irena Bojanova, Carlos Galhardo
- 摘要: 确定攻击利用的软件弱点有助于减少开发人员引入漏洞的努力,并指导安全代码审查工作。弱点是一种可以通过导致安全相关错误的操作被利用的bug或故障类型。理想情况下,安全社区会衡量在实际利用中使用软件弱点的普遍性。这项工作通过引入一个简单的指标,利用公共数据源来确定弱点在野外被利用的概率,为实现这一目标迈进了一步。该指标在一组在2021年4月至2024年3月期间通常在漏洞中发现的130个弱点上进行了评估。我们的分析揭示了92%的弱点没有被持续利用。
- 发表时间: 2024-05-02T13:49:51Z
- 链接: http://arxiv.org/abs/2405.01289v1
-
标题: Boosting Jailbreak Attack with Momentum
- 作者: Yihao Zhang, Zeming Wei
- 摘要: 大型语言模型(LLMs)在各种任务上取得了显著的成功,但它们仍然容易受到对抗性攻击的攻击,尤其是众所周知的“越狱”攻击。最近,贪婪坐标梯度(GCG)攻击通过结合梯度启发式和贪婪搜索来优化对抗性提示,证明了在利用这一漏洞方面的有效性。然而,这种攻击的效率已经成为攻击过程中的一个瓶颈。为了缓解这一限制,在本文中,我们通过优化镜头重新思考对抗性提示的生成,旨在稳定优化过程,并从先前的迭代中获取更多的启发式见解。具体来说,我们介绍了\textbf{M}omentum \textbf{A}ccelerated G\textbf{C}G(\textbf{MAC})攻击,它将动量项纳入梯度启发式中。实验结果展示了MAP在基于梯度的攻击中取得的显著增强。我们的代码可在https://github.com/weizeming/momentum-attack-llm上获得。
- 发表时间: 2024-05-02T12:18:14Z
- 链接: http://arxiv.org/abs/2405.01229v1
-
标题: Improving Membership Inference in ASR Model Auditing with Perturbed Loss Features
- 作者: Francisco Teixeira, Karla Pizzi, Raphael Olivier, AlbertoAbad, Bhiksha Raj, Isabel Trancoso
- 摘要: 会员推断(MI)对自动语音识别(ASR)系统的培训数据构成了重大隐私威胁,同时也提供了审计这些模型与用户数据相关性的机遇。本文探索了在ASR模型中结合高斯和对抗性扰动的基于损失的特征进行MI的有效性。据我们所知,这种方法尚未被研究。我们将我们提出的特征与常用的基于误差的特征进行了比较,并发现所提出的特征大大提高了样本级MI的性能。对于说话者级MI,这些特征改进了结果,尽管边际较小,因为基于误差的特征已经为这项任务获得了高性能。我们的发现强调了在ASR系统中进行有效的MI时考虑不同的特征集和对目标模型的访问级别的重要性,为审计此类模型提供了宝贵的见解。
- 发表时间: 2024-05-02T11:48:30Z
- 链接: http://arxiv.org/abs/2405.01207v1
-
标题: DLAP: A Deep Learning Augmented Large Language Model Prompting Framework for Software Vulnerability Detection
- 作者: Yanjing Yang, Xin Zhou, Runfeng Mao, Jinwei Xu, Lanxin Yang, Yu Zhang, Haifeng Shen, He Zhang
- 摘要: 软件漏洞检测通常由自动化静态分析工具支持,这些工具最近通过深度学习(DL)模型得到了加强。然而,尽管基于DL的方法在研究中的性能优于基于规则的方法,但将DL方法应用于实际中的软件漏洞检测仍然是一个挑战,原因是源代码的复杂结构、DL的黑盒特性,以及理解验证黑盒结果所需的领域知识,以解决检测后的任务。传统的DL模型是针对特定项目进行训练的,因此,在识别这些项目中的漏洞方面表现出色,但在其他项目中则不然。这些在漏洞检测中表现不佳的模型将影响下游任务,如定位和修复。更重要的是,这些模型不为开发人员提供解释,以便他们理解检测结果。相比之下,大型语言模型(LLMs)通过利用提示技术,在解决这些问题方面取得了很大进展。不幸的是,它们在识别漏洞方面的性能是令人不满意的。本文贡献了\textbf{DLAP},一个\textbf{D}eep \textbf{L}earning增强的LLMs \textbf{P}rompting框架,结合了DL模型和LLMs的优势,实现了卓越的漏洞检测性能。实验评估结果证实,DLAP在多个指标上超越了最先进的提示框架,包括基于角色的提示、辅助信息提示、思维链提示和上下文内学习提示,以及微调。
- 发表时间: 2024-05-02T11:44:52Z
- 链接: http://arxiv.org/abs/2405.01202v1
-
标题: Boosting Communication Efficiency of Federated Learning’s Secure Aggregation
- 作者: Niousha Nazemi, Omid Tavallaie, Shuaijun Chen, Albert Y. Zomaya, Ralph Holz
- 摘要: 联邦学习(FL)是一种分散的机器学习方法,客户端设备在本地训练模型,并将它们发送到服务器,服务器执行聚合以生成全局模型。FL容易受到模型反演攻击的威胁,在这种攻击中,服务器可以从训练模型中推断出敏感的客户端数据。谷歌的安全聚合(SecAgg)协议通过使用共享密钥和客户端设备上本地生成的个体元素来掩盖每个客户端的训练模型,从而解决了这一数据隐私问题。尽管SecAgg有效地保护了隐私,但它在通信和计算开销方面造成了相当大的负担,尤其是随着网络规模的增加。在SecAgg的基础上,本海报介绍了一种通信高效安全聚合(CESA)协议,该协议通过每个客户端仅使用两个共享密钥来掩盖模型,从而大大减少了这个开销。我们为具有低延迟变化和有限客户端掉线的稳定网络提出了我们的方法。CESA独立于数据分布和网络大小(对于超过6个节点),防止了诚实但好奇的服务器访问未掩蔽的模型。我们最初的评估显示,CESA与SecAgg相比显著降低了通信成本。
- 发表时间: 2024-05-02T10:00:16Z
- 链接: http://arxiv.org/abs/2405.01144v1
-
标题: A Survey of the Overlooked Dangers of Template Engines
- 作者: Lorenzo Pisu, Davide Maiorca, Giorgio Giacinto
- 摘要: 模板引擎在现代Web应用开发中起着关键作用,促进了内容、产品和用户界面的动态呈现。如今,模板引擎在任何处理动态数据的网站中都是必不可少的,从电子商务平台到社交媒体。然而,它们的广泛使用也使它们成为攻击者寻求利用漏洞并未经授权访问Web服务器的有吸引力的目标。本文介绍了对模板引擎的全面调查,重点关注它们对远程代码执行(RCE)攻击的易感性,这是Web应用开发中的一个关键安全问题。
- 发表时间: 2024-05-02T09:28:53Z
- 链接: http://arxiv.org/abs/2405.01118v1
-
标题: Mining REST APIs for Potential Mass Assignment Vulnerabilities
- 作者: Arash Mazidi, Davide Corradini, Mohammad Ghafari
- 摘要: REST API在访问网络空间内的受保护资源中起着关键作用。尽管安全测试工具可用,但大规模分配漏洞仍然很常见,导致未经授权地访问敏感数据。我们提出了一种轻量级方法,通过挖掘REST API规范来识别容易受到大规模分配的操作和属性。我们在100个API上进行了初步研究,并发现有25个容易受到这种漏洞的攻击。我们在六个开源API中确认了九个真正的易受攻击操作。
- 发表时间: 2024-05-02T09:19:32Z
- 链接: http://arxiv.org/abs/2405.01111v1
-
标题: LLM Security Guard for Code
- 作者: Arya Kavian, Mohammad Mehdi Pourhashem Kallehbasti, Sajjad Kazemi, Ehsan Firouzi, Mohammad Ghafari
- 摘要: 许多开发人员依赖大型语言模型(LLMs)来促进软件开发。然而,这些模型在安全领域表现出的能力有限。我们介绍了LLMSecGuard,一个开源框架,通过结合静态代码分析器和LLMs来提供增强的代码安全性。LLMSecGuard旨在为从业者提供比LLMs最初生成的代码更安全的代码解决方案。它还对LLMs进行基准测试,提供有关这些模型不断发展的安全属性的宝贵见解。
- 发表时间: 2024-05-02T09:13:01Z
- 链接: http://arxiv.org/abs/2405.01103v1
-
标题: KDPrint: Passive Authentication using Keystroke Dynamics-to-Image Encoding via Standardization
- 作者: Yooshin Kim, Namhyeok Kwon, Donghoon Shin
- 摘要: 在当代移动用户认证系统中,由于智能手机的广泛使用,验证用户的合法性已变得至关重要。虽然指纹和面部识别广泛用于移动认证,但如果多次尝试后生物识别认证失败,PIN认证仍被用作备用选项。因此,当生物识别方法失败时,系统仍然容易受到针对PIN的攻击。为了应对这些担忧,本文提出了一种被动认证系统,该系统利用按键数据(主要认证方法的副产品)进行后台用户认证。此外,我们引入了一种新颖的图像编码技术,以捕捉按键数据的时间动态,克服了深度学习模型的性能限制。此外,我们提出了一种选择适合于图像表示的行为生物特征的方法。生成的图像,描绘了用户的PIN输入模式,通过次级通道以高准确性增强了模型识别用户的能力。实验结果表明,所提出的成像方法在信息容量方面超越了现有方法。在自收集的数据集实验中,结合了先前研究的特征,我们的方法达到了6.7%的错误等率(EER),优于现有方法的47.7%。此外,我们的成像技术在17名用户中达到了94.4%的真实接受率(TAR)和8%的虚假接受率(FAR)。
- 发表时间: 2024-05-02T08:18:37Z
- 链接: http://arxiv.org/abs/2405.01080v1
-
标题: Poisoning Attacks on Federated Learning for Autonomous Driving
- 作者: Sonakshi Garg, Hugo Jönsson, Gustav Kalander, Axel Nilsson, Bhhaanu Pirange, Viktor Valadi, Johan Östman
- 摘要: 联邦学习(FL)是一种分散的学习范式,使各方能够在保持数据机密性的同时协作训练模型。在自动驾驶领域,它带来了降低数据存储成本、减少带宽需求和加速学习的可能性。然而,FL容易受到投毒攻击的影响。在本文中,我们介绍了两种针对自动驾驶回归任务的新型投毒攻击:FLStealth和Off-Track Attack(OTA)。FLStealth是一种非针对性攻击,旨在提供模型更新,这些更新在看起来良性的同时恶化全局模型性能。另一方面,OTA是一种针对性攻击,目的是在暴露于某个特定触发器时改变全局模型的行为。我们通过进行有关车辆轨迹预测任务的全面实验来证明我们的攻击的有效性。特别是,我们展示了在服务器采用的五种不同的非针对性攻击中,FLStealth在绕过考虑的防御措施方面最为成功。对于OTA,我们展示了常见防御策略无法减轻攻击的能力,突出了在自动驾驶的FL中针对针对性攻击需要新的防御机制的关键需求。
- 发表时间: 2024-05-02T08:06:10Z
- 链接: http://arxiv.org/abs/2405.01073v1
-
标题: Development of Cybersecurity Simulator-Based Platform for the Protection of Critical Infrastructures
- 作者: Tero Vartiainen, Duong Dang, Mike Mekkanen, Emmanuel Anti
- 摘要: 关键基础设施(CNI)由于其相互连接的通信系统,容易受到网络攻击的威胁。我们正在开发一个使用实时网络物理系统仿真的平台,以增强CNI的弹性和安全性。该平台在Vaasa Harbor Microgrid启动,允许创建数字孪生体并实时执行其功能。它为模拟网络攻击场景提供了一个共同仿真环境,帮助设计基于网络安全模拟器的平台,并向CNI利益相关者提供服务。
- 发表时间: 2024-05-02T06:58:46Z
- 链接: http://arxiv.org/abs/2405.01046v1
-
标题: The Privacy Power of Correlated Noise in Decentralized Learning
- 作者: Youssef Allouah, Anastasia Koloskova, Aymane El Firdoussi, Martin Jaggi, Rachid Guerraoui
- 摘要: 分散式学习具有吸引力,因为它使得大量分布式数据和资源的可扩展使用成为可能(不依赖于任何中央实体),同时促进了隐私保护,因为每个用户都最大限度地减少了他们数据的直接暴露。然而,如果没有额外的预防措施,好奇的用户仍然可以利用从他们的同伴那里获得的模型来侵犯隐私。在本文中,我们提出了Decor,一种具有差分隐私(DP)保证的分散SGD的变种。本质上,在Decor中,用户在一个通信轮次中安全地交换随机种子,以生成成对抵消的相关高斯噪声,这些噪声被注入以保护每个通信轮次的局部模型。我们理论和实证地表明,对于任意连接的图,Decor匹配了中心DP最优的隐私-效用权衡。我们是在使用SecLDP的情况下做到这一点的,SecLDP是我们对本地DP的新放松,它保护了所有用户通信免受外部窃听者和好奇用户的侵害,假设每对连接的用户共享一个秘密,即对所有其他人隐藏的信息。主要的理论挑战是控制由于网络稀疏而产生的非抵消相关噪声的累积。我们还为公众使用提出了一个配套的SecLDP隐私会计师。
- 发表时间: 2024-05-02T06:14:56Z
- 链接: http://arxiv.org/abs/2405.01031v1
-
标题: Towards Trust Proof for Secure Confidential Virtual Machines
- 作者: Jingkai Mao, Haoran Zhu, Junchao Fan, Lin Li, Xiaolin Chang
- 摘要: 基于虚拟机(VM)的可信执行环境(TEE)技术,如AMD安全加密虚拟化(SEV),可以建立保密VM(CVM)以保护数据隐私。但CVM缺乏提供其运行状态信任证明的方法,降低了用户使用CVM的信心。虚拟可信平台模块(vTPM)技术可以用来为CVM生成信任证明。然而,现有的基于vTPM的方法存在一些弱点,如缺乏明确定义的信任根、缺乏vTPM保护以及缺乏vTPM的信任证明。这些弱点阻止了CVM的信任证明的生成。本文提出了一种方法,使用安全的vTPM为基于AMD SEV的CVM生成信任证明,以确保其安全性,通过构建可信完整链(T3CVM)来实现。T3CVM由三个组件组成:1)TR-Manager,作为明确定义的信任根,帮助为CVMs构建完整的信任链;2)CN-TPMCVM,一个特殊的CVM提供安全的vTPM;3)CN-CDriver,一个增强的TPM驱动程序。我们的方法克服了现有方法的弱点,并使基于信任的计算应用程序能够无缝地在可信的CVM中运行。我们对T3CVM进行了正式的安全分析,并实现了一个原型系统来评估其性能。
- 发表时间: 2024-05-02T06:13:21Z
- 链接: http://arxiv.org/abs/2405.01030v1
-
标题: Recovering Labels from Local Updates in Federated Learning
- 作者: Huancheng Chen, Haris Vikalo
- 摘要: 梯度反演(GI)攻击对联邦学习(FL)中的客户端数据隐私构成威胁,其目标是从通信模型更新中重建客户端的数据。许多此类技术尝试通过首先重建本地训练中使用的样本的标签来加速数据恢复。然而,现有的标签提取方法做出了通常在现实的FL设置中不成立的强假设。在本文中,我们提出了一种新的标签恢复方案,从本地更新中恢复标签(RLU),它在攻击未训练的(最易受攻击的)模型时提供了近乎完美的准确性。更重要的是,RLU即使在客户端在FL系统中运行多个本地周期、在异构数据上训练,并部署各种优化器以最小化不同的目标函数的现实世界设置中,也实现了高性能。具体来说,RLU通过解决一个最小二乘问题来估计标签,这个问题是从分析训练轮次中使用的数据点的标签和输出层的更新结果之间的相关性中得出的。我们在几个数据集、架构和数据异构性场景上的实验结果表明,所提出的方法一致地优于现有的基线,并且在PSNR和LPIPS方面提高了GI攻击中重建图像的质量。
- 发表时间: 2024-05-02T02:33:15Z
- 链接: http://arxiv.org/abs/2405.00955v1
5/03
文件中包含了之前已经解析过的一些文章,我将提供这些文章的标题、作者、摘要总结、发表时间和链接的中文信息,并补充之前未提供的文章信息,这些文章涵盖了密码学、联邦学习、软件漏洞检测、网络安全、隐私保护等多个领域的最新研究进展。:
-
标题: Error Correction Capabilities of Non-Linear Cryptographic Hash Functions
- 作者: Alejandro Cohen, Rafael G. L. D’Oliveira
- 摘要: 本文展示了非线性哈希函数也具有良好的错误纠正能力,这一点通常与线性哈希函数相关联。通过使用多接入信道的技术,证明了系统化随机非线性码(S-RNLC)在渐近极限下能达到容量。通过比较安全哈希算法(SHA)与系统化随机线性码(SRLC)和S-RNLC的性能,验证了SHA同样出色的性能。
- 发表时间: 2024-05-02T17:26:56Z
- 链接: http://arxiv.org/abs/2405.01495v1
-
标题: Navigating Heterogeneity and Privacy in One-Shot Federated Learning with Diffusion Models
- 作者: Matias Mendieta, Guangyu Sun, Chen Chen
- 摘要: 本文探索了在一次性联邦学习中使用扩散模型的有效性,展示了它们在解决数据异质性和提高联邦学习性能方面的适用性。此外,还研究了在差分隐私(DP)设置下,提出的扩散模型方法FedDiff与其他一次性联邦学习方法的效用,并提出了一种实用的傅里叶幅度滤波(FMF)方法,以提高在DP设置下生成样本的质量。
- 发表时间: 2024-05-02T17:26:52Z
- 链接: http://arxiv.org/abs/2405.01494v1
-
标题: Purify Unlearnable Examples via Rate-Constrained Variational Autoencoders
- 作者: Yi Yu, Yufei Wang, Song Xia, Wenhan Yang, Shijian Lu, Yap-Peng Tan, Alex C. Kot
- 摘要: 本文提供了一种新的解耦机制,用于构建一个高效的预训练净化方法,以应对无法学习的例子(UEs)的投毒攻击。通过理论分析,引入了一种能够解耦扰动的变分自编码器(D-VAE),并基于此网络发展了一种两阶段的净化方法。实验结果表明,该方法在多个数据集上的性能显著。
- 发表时间: 2024-05-02T16:49:25Z
- 链接: http://arxiv.org/abs/2405.01460v1
-
标题: Unconditionally Safe Light Client
- 作者: Niusha Moshrefi, Peiyao Sheng, Soubhik Deb, Sreeram Kannan, Pramod Viswanath
- 摘要: 本文专注于在权益证明(PoS)区块链背景下,为轻量级客户端解决两个关键要求:在资源和延迟最小化的同时,提供强大的安全性。提出了一种新型的轻量级客户端,通过经济激励和“保险”经济安全,为不同应用提供定制化和最优的安全级别。
- 发表时间: 2024-05-02T16:48:51Z
- 链接: http://arxiv.org/abs/2405.01459v1
-
标题: An Exploratory Case Study on Data Breach Journalism
- 作者: Jukka Ruohonen, Kalle Hjerppe, Maximilian von Zastrow
- 摘要: 本文通过databreaches.net的案例,探索了数据泄露新闻和数据泄露新闻报道这一新主题。通过文本挖掘手段,研究了该新闻媒体的报道特点,包括其报道节奏、关注点以及情感倾向,以及它如何全面覆盖数据泄露事件。
- 发表时间: 2024-05-02T16:31:16Z
- 链接: http://arxiv.org/abs/2405.01446v1
-
标题: Applying Transparent Shaping for Zero Trust Architecture Implementation in AWS: A Case Study
- 作者: Wenjia Wang, Seyed Masoud Sadjadi, Naphtali Rishe
- 摘要: 本文介绍了一种方法,将零信任架构(ZTA)原则和透明整形集成到AWS托管的在线文件管理器(OFM)应用程序中,以提高安全性而无需大量代码修改。使用Mozilla Observatory评估了这种方法,突出了在云环境中应用透明整形和ZTA的有希望的方向。
- 发表时间: 2024-05-02T16:02:40Z
- 链接: http://arxiv.org/abs/2405.01412v1
-
标题: IDPFilter: Mitigating Interdependent Privacy Issues in Third-Party Apps
- 作者: Shuaishuai Liu, Gergely Biczók
- 摘要: 本文提供了对第三方应用中先前未充分研究的相互依赖隐私(IDP)问题的全面调查。分析了多个应用平台的权限结构,收集了数据集,并提出了IDPFilter,这是一个与平台无关的API,允许应用程序提供者通过过滤数据来最小化附带信息收集,同时保护用户的隐私。
- 发表时间: 2024-05-02T16:02:13Z
- 链接: http://arxiv.org/abs/2405.01411v1
-
标题: Position Paper: Beyond Robustness Against Single Attack Types
- 作者: Sihui Dai, Chong Xiang, Tong Wu, Prateek Mittal
- 摘要: 本文讨论了当前对抗性示例防御研究的局限性,即主要关注对单一攻击类型的鲁棒性,而实际可能的扰动空间远大于单一攻击类型。提出了同时多攻击鲁棒性、未预见攻击鲁棒性和持续自适应鲁棒性三个潜在方向,并提供了一个统一的框架来严格定义这些问题设置。
- 发表时间: 2024-05-02T14:58:44Z
- 链接: http://arxiv.org/abs/2405.01349v1
-
标题: Decentralization of Ethereum’s Builder Market
- 作者: Sen Yang, Kartik Nayak, Fan Zhang
- 摘要: 本文实证研究了以太坊构建者市场的中心化问题,探讨了为什么在无需许可的加入机制下,构建者市场仍然会中心化,以及中心化的构建者市场对MEV-Boost拍卖的安全影响。
- 发表时间: 2024-05-02T14:32:21Z
- 链接: http://arxiv.org/abs/2405.01329v1
-
标题: A Framework for the Systematic Assessment of Anomaly Detectors in Time-Sensitive Automotive Networks
- 作者: Philipp Meyer, Timo Häckel, Teresa Lübeck, Franz Korf, Thomas C. Schmidt
- 摘要: 本文提出了一个评估框架,用于对车载时间敏感网络(TSNs)中的网络异常检测系统(NADSs)进行可重复、可比较和快速评估。该框架基于模拟工具链,提供了可配置的拓扑、流量流、异常、攻击和检测器。
- 发表时间: 2024-05-02T14:29:42Z
- 链接: http://arxiv.org/abs/2405.01324v1
-
标题: Privacy-Enhanced Database Synthesis for Benchmark Publishing
- 作者: Yongrui Zhong, Yunqing Ge, Jianbin Qin, Shuyuan Zheng, Bo Tang, Yu-Xuan Qiu, Rui Mao, Ye Yuan, Makoto Onizuka, Chuan Xiao
- 摘要: 本文探讨了专门为基准测试创建的保护隐私的数据库的创建,旨在生成一个查询性能与原始数据非常相似的差分隐私数据库。介绍了PrivBench,一个创新的合成框架,支持生成保持隐私的高质量数据。PrivBench使用乘积和网络(SPNs)来划分和抽样数据,增强了数据表示,同时保护了隐私。该框架允许用户调整SPN分区和隐私设置的细节,这对于定制隐私级别至关重要。我们验证了我们的方法,在保持隐私的同时,使用拉普拉斯和指数机制。我们的测试表明,PrivBench有效地生成了数据,并在查询性能上表现出色,一致地减少了查询执行时间、查询基数和KL散度的错误。
- 发表时间: 2024-05-02T14:20:24Z
- 链接: http://arxiv.org/abs/2405.01312v1
-
标题: Measuring the Exploitation of Weaknesses in the Wild
- 作者: Peter Mell, Irena Bojanova, Carlos Galhardo
- 摘要: 本文介绍了一种简单的指标,利用公共数据源来确定弱点在野外被利用的概率,支持减少开发人员引入漏洞的工作,并指导安全代码审查工作。该指标在一组在2021年4月至2024年3月期间通常在漏洞中发现的130个弱点上进行了评估。分析结果显示,92%的弱点没有被持续利用。
- 发表时间: 2024-05-02T13:49:51Z
- 链接: http://arxiv.org/abs/2405.01289v1
-
标题: Boosting Jailbreak Attack with Momentum
- 作者: Yihao Zhang, Zeming Wei
- 摘要: 本文通过优化透镜重新思考对抗性提示的生成,以稳定优化过程并从先前的迭代中获取更多的启发式见解。具体来说,我们介绍了动量加速的贪婪坐标梯度(MAC)攻击,它将动量项纳入梯度启发式中。实验结果展示了MAC在基于梯度的攻击中取得的显著增强。代码可在GitHub上获得。
- 发表时间: 2024-05-02T12:18:14Z
- 链接: http://arxiv.org/abs/2405.01229v1
-
标题: Improving Membership Inference in ASR Model Auditing with Perturbed Loss Features
- 作者: Francisco Teixeira, Karla Pizzi, Raphael Olivier, Alberto Abad, Bhiksha Raj, Isabel Trancoso
- 摘要: 本文探索了在自动语音识别(ASR)模型中结合高斯和对抗性扰动的基于损失的特征进行会员推断(MI)的有效性。我们提出的特征与常用的基于误差的特征相比,对于样本级MI大大增强了性能。对于说话者级MI,这些特征改进了结果,尽管边际较小,因为基于误差的特征已经为这项任务获得了高性能。我们的发现强调了在ASR系统中进行有效的MI时考虑不同的特征集和对目标模型的访问级别的重要性。
- 发表时间: 2024-05-02T11:48:30Z
- 链接: http://arxiv.org/abs/2405.01207v1
-
标题: DLAP: A Deep Learning Augmented Large Language Model Prompting Framework for Software Vulnerability Detection
- 作者: Yanjing Yang, Xin Zhou, Runfeng Mao, Jinwei Xu, Lanxin Yang, Yu Zhang, Haifeng Shen, He Zhang
- 摘要: 本文贡献了DLAP,一个深度学习增强的大型语言模型(LLMs)提示框架,结合了DL模型和LLMs的优势,实现了卓越的漏洞检测性能。实验评估结果证实,DLAP在多个指标上超越了最先进的提示框架,包括基于角色的提示、辅助信息提示、思维链提示和上下文内学习提示,以及微调。
- 发表时间: 2024-05-02T11:44:52Z
- 链接: http://arxiv.org/abs/2405.01202v1
-
标题: Boosting Communication Efficiency of Federated Learning’s Secure Aggregation
- 作者: Niousha Nazemi, Omid Tavallaie, Shuaijun Chen, Albert Y. Zomaya, Ralph Holz
- 摘要: 本文介绍了一种通信高效安全聚合(CESA)协议,该协议通过每个客户端仅使用两个共享密钥来掩盖模型,从而大大减少了安全聚合的开销。我们提出的方法适用于具有低延迟变化和有限客户端掉线的稳定网络,与数据分布和网络规模(对于超过6个节点)无关,防止了诚实但好奇的服务器访问未掩蔽的模型。我们的初始评估显示,CESA与SecAgg相比显著降低了通信成本。
- 发表时间: 2024-05-02T10:00:16Z
- 链接: http://arxiv.org/abs/2405.01144v1
-
标题: A Survey of the Overlooked Dangers of Template Engines
- 作者: Lorenzo Pisu, Davide Maiorca, Giorgio Giacinto
- 摘要: 本文介绍了对模板引擎的全面调查,重点关注它们对远程代码执行(RCE)攻击的易感性,这是Web应用开发中的一个关键安全问题。模板引擎在现代Web应用开发中起着关键作用,促进了内容、产品和用户界面的动态呈现。
- 发表时间: 2024-05-02T09:28:53Z
- 链接: http://arxiv.org/abs/2405.01118v1
-
标题: Mining REST APIs for Potential Mass Assignment Vulnerabilities
- 作者: Arash Mazidi, Davide Corradini, Mohammad Ghafari
- 摘要: 本文提出了一种轻量级方法,通过挖掘REST API规范来识别容易受到大规模分配的操作和属性。我们在100个API上进行了初步研究,并发现有25个容易受到这种漏洞的攻击。我们在六个开源API中确认了九个真正的易受攻击操作。
- 发表时间: 2024-05-02T09:19:32Z
- 链接: http://arxiv.org/abs/2405.01111v1
-
标题: LLM Security Guard for Code
- 作者: Arya Kavian, Mohammad Mehdi Pourhashem Kallehbasti, Sajjad Kazemi, Ehsan Firouzi, Mohammad Ghafari
- 摘要: 本文介绍了LLMSecGuard,一个开源框架,通过结合静态代码分析器和大型语言模型(LLMs)来提供增强的代码安全性。LLMSecGuard旨在为从业者提供比LLMs最初生成的代码更安全的代码解决方案。它还对LLMs进行基准测试,提供有关这些模型不断发展的安全属性的宝贵见解。
- 发表时间: 2024-05-02T09:13:01Z
- 链接: http://arxiv.org/abs/2405.01103v1
-
标题: KDPrint: Passive Authentication using Keystroke Dynamics-to-Image Encoding via Standardization
- 作者: Yooshin Kim, Namhyeok Kwon, Donghoon Shin
- 摘要: 本文提出了一种被动认证系统,该系统利用按键数据(主要认证方法的副产品)进行后台用户认证。此外,我们引入了一种新颖的图像编码技术,以捕捉按键数据的时间动态,克服了深度学习模型的性能限制。此外,我们提出了一种选择适合于图像表示的行为生物特征的方法。生成的图像,描绘了用户的PIN输入模式,通过次级通道以高准确性增强了模型识别用户的能力。实验结果表明,所提出的成像方法在信息容量方面超越了现有方法。
- 发表时间: 2024-05-02T08:18:37Z
- 链接: http://arxiv.org/abs/2405.01080v1
-
标题: Poisoning Attacks on Federated Learning for Autonomous Driving
- 作者: Sonakshi Garg, Hugo Jönsson, Gustav Kalander, Axel Nilsson, Bhhaanu Pirange, Viktor Valadi, Johan Östman
- 摘要: 本文介绍了两种针对自动驾驶领域内联邦学习(FL)的新型投毒攻击:FLStealth和Off-Track Attack (OTA)。FLStealth是一种非针对性攻击,旨在提供看似良性的模型更新,却能恶化全局模型性能。而OTA是一种针对性攻击,目的是在遇到特定触发器时改变全局模型的行为。我们通过进行有关车辆轨迹预测任务的全面实验来证明我们的攻击的有效性。特别是,我们展示了在五种不同的非针对性攻击中,FLStealth在绕过服务器采用的防御措施方面最为成功。对于OTA,我们展示了常见防御策略无法减轻攻击的能力,突出了在自动驾驶的FL中针对针对性攻击需要新的防御机制的关键需求。
- 发表时间: 2024-05-02T08:06:10Z
- 链接: http://arxiv.org/abs/2405.01073v1
-
标题: Development of Cybersecurity Simulator-Based Platform for the Protection of Critical Infrastructures
- 作者: Tero Vartiainen, Duong Dang, Mike Mekkanen, Emmanuel Anti
- 摘要: 由于其相互连接的通信系统,关键基础设施(CNI)容易受到网络攻击的威胁。我们正在开发一个平台,使用实时网络物理系统的仿真来增强CNI的弹性和安全性。该平台在Vaasa Harbor Microgrid启动,允许创建数字孪生体并实时执行其功能。它为模拟网络攻击场景提供了一个共同仿真环境,帮助设计基于网络安全模拟器的平台,并为CNI利益相关者提供服务。
- 发表时间: 2024-05-02T06:58:46Z
- 链接: http://arxiv.org/abs/2405.01046v1
-
标题: The Privacy Power of Correlated Noise in Decentralized Learning
- 作者: Youssef Allouah, Anastasia Koloskova, Aymane El Firdoussi, Martin Jaggi, Rachid Guerraoui
- 摘要: 本文提出了Decor,一种具有差分隐私(DP)保证的分散随机梯度下降(SGD)的变种。在Decor中,用户在一个通信轮次中安全地交换随机种子,以生成成对抵消的相关高斯噪声,这些噪声被注入以保护每个通信轮次的局部模型。我们理论和实证地表明,对于任意连接的图,Decor匹配了中心DP最优的隐私-效用权衡。我们提出一个新的局部DP的放松版本SecLDP,它保护所有用户通信免受外部窃听者和好奇用户的侵害,假设每对连接的用户共享一个秘密,即对所有其他人隐藏的信息。主要的理论挑战是控制由于网络稀疏而产生的非抵消相关噪声的累积。我们还为公众使用提出了一个配套的SecLDP隐私会计师。
- 发表时间: 2024-05-02T06:14:56Z
- 链接: http://arxiv.org/abs/2405.01031v1
-
标题: Towards Trust Proof for Secure Confidential Virtual Machines
- 作者: Jingkai Mao, Haoran Zhu, Junchao Fan, Lin Li, Xiaolin Chang
- 摘要: 本文提出了一种方法,使用安全的虚拟可信平台模块(vTPM)为基于AMD安全加密虚拟化(SEV)的保密虚拟机(CVM)生成信任证明,以确保其安全性。我们的方法克服了现有方法的弱点,并使基于信任的计算应用程序能够无缝地在可信的CVM中运行。我们对T3CVM进行了正式的安全分析,并实现了一个原型系统来评估其性能。
- 发表时间: 2024-05-02T06:13:21Z
- 链接: http://arxiv.org/abs/2405.01030v1
-
标题: Recovering Labels from Local Updates in Federated Learning
- 作者: Huancheng Chen, Haris Vikalo
- 摘要: 本文提出了一种新的标签恢复方案,从本地更新中恢复标签(RLU),它在攻击未训练的(最易受攻击的)模型时提供了近乎完美的准确性。RLU在现实的联邦学习设置中实现了高性能,即使在客户端在联邦学习系统中运行多个本地周期、在异构数据上训练,并部署各种优化器以最小化不同的目标函数的情况下。具体来说,RLU通过解决一个最小二乘问题来估计标签,这个问题是从分析训练轮次中使用的数据点的标签和输出层的更新结果之间的相关性中得出的。实验结果表明,所提出的方法一致地优于现有的基线,并在GI攻击中提高了重建图像的质量。
- 发表时间: 2024-05-02T02:33:15Z
- 链接: http://arxiv.org/abs/2405.00955v1