最近,安全研究员发现可以通过GitHub API来访问删除和私有存储库中的代码和文件。GitHub API是一组用于访问GitHub数据的接口,可以通过它们来检索和操作GitHub的存储库,问题在于API授权的范围似乎没有得到正确的处...
Read More维信诺每年发布一份数据泄露调查报告,该报告为各行业提供了有关数据泄露的详细信息和趋势分析,包括攻击类型,攻击者和受害者的信息,以及防御策略等。2024年的报告显示,数据泄露事件数量和影响范围都有所增加,尤...
Read More据报道,OpenAI 近日解雇了两名涉嫌泄露公司机密的研究人员。这一事件是在公司连续数月的泄露事件后发生的,此前公司已在努力打击此类事件。这两名研究人员被指与泄露事件有关,但具体情况尚未公布。OpenAI 对此表示...
Read More最近,Fed3DGS发布了一种基于联邦学习的3D重建框架,该框架采用3D高斯投影(3DGS)技术,能够实现在广阔区域内的去中心化场景构建。这种创新方法不仅提高了3D重建的效率和精确度,还保证了数据处理的隐私性。联邦学...
Read More随着大型语言模型与外部工具的配对越来越多,数据泄露的新风险已经出现。本文介绍了一种系统性的方法来评估这些人工智能系统保护私人信息的能力。 研究人员发现,当前的大型语言模型在保护隐私方面存在一些问题。它...
Read More一份在GitHub上公布的AI应用程序漏洞列表显示,已经发现并负责任地披露了多个AI应用程序的漏洞。这些漏洞包括机器学习模型中的数据泄露、对抗性攻击和针对自然语言处理模型的攻击等。该列表旨在帮助AI开发人员和研究...
Read More数据污染和其他数据管道攻击是网络安全界面临的巨大挑战,同时也是大多数AI组织的盲点。本文介绍了这些攻击的方式,并提供了代码以帮助未来进行缓解。AI数据管道遭受攻击可能会导致数据泄露,模型失效,模型被篡改等...
Read MoreGiskard是一个Python库,可以自动检测从表格模型到LLM的AI模型的漏洞,包括:性能偏见、数据泄露、虚假相关性、幻觉、毒性、安全问题等等。让您的模型快速、安全地投入生产。在GitHub上安装Giskard或在Colab中尝试。
Read More