Dataguise最近发布了保护Hadoop敏感数据的十个最佳实践,内容涵盖隐私风险、数据管理和信息安全等,可以帮助专业人士降低大数据应用的潜在数据泄漏和政策违规等风险,对于那些考虑部署Hadoop的企业来说非常值得参考。
大数据分析向来伴随着隐私话题和争议,在大数据分析中的海量数据里,难免会出现姓名、地址和身份号码等个人隐私信息PII(Personally Identifiable Information)。而大量金融数据中类似信用卡和银行账户号码中难免也会携带上述个人信息,对这些数据的访问将引起极大的争议。但是通过缜密的计划、测试、生产预备工作,以及对大数据技术的合理应用,大多数隐私问题都可以得到缓解。
以下是Dataguise给出的Hadoop项目实施的最佳安全实践,尤其对项目初期的规划阶段有重要参考价值:
1.数据隐私措施越早越好。在规划阶段就明确数据隐私保护策略,最好在将数据导入Hadoop之前完成,这可以防患未然。
2.明确你所在企业中哪些数据元素属于敏感数据。充分考虑企业的隐私政策,相关行业规定和政府法规。
3.审视分析环境和装配Hadoop系统的过程中是否藏有/夹带敏感数据。
4.收集足够信息来明确合规风险。
5.明确业务分析是否需要访问真实数据,或“脱敏”数据能否使用。然后选择合适的敏感信息遮挡和加密等矫正技术(masking or encryption)。遮挡(masking)技术提供最好的安全性能,而加密则更具灵活性,视将来的需要而定。
6.确保数据保护方案能够同时支持遮挡和加密两种数据矫正技术,尤其是当需要将经过遮挡处理和未经遮挡的两个版本的数据分别存放于不同的Hadoop目录下的时候。
7.确保数据保护技术对所有数据文件提供一致的masking方式,这样可以保证在各个数据汇聚维度上的分析的准确性。
8.确定特定数据集是否需要定制的保护方案,出于数据单元安全管理的需要,可以考虑将Hadoop目录划分成更小的群组。
9.确保你选择的加密方案与企业的访问控制技术能够互操作,这样特定级别和身份的用户只能访问Hadoop集群中特定的数据范围。
10.当需要使用加密技术的时候,确保部署合适的技术(Java、Pig等)实现无缝加密,同时确保对数据的无障碍访问。
通过及早启动并建立敏感数据预案,企业能尽早发现Hadoop环境中的敏感数据,分析合规风险并合理采用数据保护技术,这不但能大大降低数据泄漏和合规风险,还能提高大数据项目的投资回报。
我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。
我原创,你原创,我们的内容世界才会更加精彩!
【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】
微信公众号

TechTarget
官方微博

TechTarget中国
作者
相关推荐
-
Spark和Hadoop分析遇障碍?可以试试容器啊
将定制的Spark和Hadoop试点项目转移到生产中是一项艰巨的任务,但容器技术缓解了这种艰难的过渡。
-
Tableau预测:自助式大数据分析时代正在来临
对于大数据而言,2016年是具有里程碑意义的一年,更多企业和机构在该年度存储和处理各种形态和规模的数据,并从中提取有价值的信息。
-
预测分析工具VS情感驱动 谁能左右分析结果?
使用预测分析工具的企业用户有个普遍的共识,那就是数据始终驱动业务决策。 但在政治领域,这种说法并不是那么适用。
-
重视大数据分析有哪些好处?IT经理有话说
随着Hadoop,Spark和其他大数据技术作为更多组织中的关键IT组件,越来越重视寻找大数据分析应用程序的业务优势,