微信扫一扫,关注公众号

  • 科技行者

  • 算力行者

见证连接与计算的「力量」

首页 测验:贵公司的应用系统数据是否安全?

测验:贵公司的应用系统数据是否安全?

2014-02-20 15:59
分享至:
----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-
2014-02-20 15:59 CNET科技资讯网

如果贵公司在云中运行关键业务应用,则可能会将公司的敏感数据或机密数据存储在防火墙之外。毫无疑问,企业会采取预防措施,以防止数据暴露给不适当的人员或环境——但这么做就够了吗?

测验:贵公司的应用系统数据是否安全?

尽管您身为应用程序负责人,但令人吃惊的是,在您部门中存在一些十分常见的违反数据隐私的现象。请回答下面的问题,找出可以通过最佳实践解决的漏洞。

问题:您是否曾复制生产应用数据以用于测试、开发或报告?

您为生产环境设置的很多安全控制方法在数据仓库或开发环境中会被修改或弃用。

“通常情况下,审查都不甚严格”,Informatica企业战略服务部IT副总裁Kristin Kokie表示。“如果为了测试新版本而复制PeopleSoft中的人力资源数据,开发人员会无意中看到实际的具体薪资数据。如果您允许分析师提取数据仓库中的交易数据,他们可能会将这些数字传输到自己桌面上的电子表格中。”

这会使您失去所有基于用户的访问限制,并且,您在生产环境中实施的任何监控或合规策略都会失效。“根本就没有对开发环境或桌面进行合规性审计,”Kokie表示。

问题:个别员工了解的信息是否过多?

对于审核员工有权访问的数据,您应该想一下是否有必要为其分配这些访问权限。例如:

客户支持代表:这些员工需要访问一定数量的客户数据,以便提供顶级服务。但是,电信公司的初级员工是否确实需要掌握知名人士的电话号码信息呢?

应用生产支持人员:虽然技术支持问题需要进行实时处理,但支持人员真的需要对数据拥有完整访问权限才能完成他们的工作吗?例如,某个请求可能会暴露员工离职报告等隐私信息。

应用程序开发人员:为了进行测试而复制数据时,开发人员通常会获取完整的访问权限,这样一来,他们不仅能够访问敏感信息,而且还能够访问基础数据库和登录信息。想一想,如果某个员工在闹情绪,那么他会对这些信息造成怎样的损坏。

问题:您是否仍在运行"一套"不适用的应用程序?

当升级旧系统或使用新系统更换旧系统时,您可能会继续并行使用新旧两套应用系统。因为您并不知道何时会需要使用旧数据,对吗?这样做真是大错特错!

旧系统已经失去使用价值,变成了被遗弃的“孤儿”。如果它们仍保留敏感数据或机密数据,会导致什么后果呢?“那些极为关键的信息可能会从这里泄露出去,”Kokie说道。“如果您不知道这里有敏感数据,又如何对它加以保护呢?”

接下来该怎么办?

如果您对上述所有问题的回答都是肯定的,请不要惊慌。您可以解决这些漏洞。当务之急是了解数据在哪里,哪些人员有权访问。一个经常采用且易于部署的最佳实践是:在非生产环境中永久屏蔽敏感数据,在生产环境中动态屏蔽敏感数据。

分享至
0赞

好文章,需要你的鼓励

推荐文章
  • 奖励设计:让AI学会智能使用工具的关键
    2025-04-23 17:39

    奖励设计:让AI学会智能使用工具的关键

    想象一下,你有一个非常聪明的朋友,他知道很多知识,但每当需要使用计算器、搜索引擎或查询最新天气时,却变得像个笨手笨脚的孩子。这正是当前大语言模型(简称LLMs,如ChatGPT这类AI系统)面临的尴尬处境。

  • ToolRL:奖励设计是工具学习所需的全部
    2025-04-23 17:34

    ToolRL:奖励设计是工具学习所需的全部

    想象一下,你拥有一个聪明的助手,它知道很多知识,但在面对需要使用计算器、搜索引擎或查询最新信息时却显得笨手笨脚。这正是当前大语言模型(LLMs)面临的困境。虽然这些模型已经通过监督微调(SFT)学会了使用工具的基本能力,但它们常常在面对复杂或不熟悉的场景时表现不佳。

  • X-Teaming:使用自适应多智能体进行多轮越狱攻击和防御
    2025-04-23 14:08

    X-Teaming:使用自适应多智能体进行多轮越狱攻击和防御

    想象你正在和一个智能助手聊天。如果你直接要求它提供有害信息,它很可能会礼貌拒绝。但如果你通过一系列看似无害的对话,逐步引导它走向你的真实目标呢?这就是当前AI安全领域面临的一个严峻挑战——多轮对话中的安全漏洞。

  • "思考操纵":用外部思考让大型推理模型更高效
    2025-04-22 16:43

    "思考操纵":用外部思考让大型推理模型更高效

    想象你在使用一个非常聪明的AI助手完成一项复杂任务,比如解决一道数学难题。你可能注意到这个助手会花很长时间"思考",一步一步写下大量推理过程,最后才给出答案。虽然这种详细的思考过程确实帮助AI做出了更准确的判断,但同时也带来了一个明显的问题:它太"啰嗦"了,消耗了大量的计算资源和时间。

----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-