去年12月,融资一亿美元之后,Hadoop平台发布商Hortonworks近日宣布,与客户Aetna、Merck、Target和技术合作伙伴SAS展开合作,开展数据治理项目。最终的目的是提供更高标准的Hadoop数据管理,把Hadoop更深入地融入到企业计算中。
Hadoop要想走出POC(概念证明)阶段,数据治理是其缺乏的主要因素,数据治理对大数据,尤其是面临严格监管的金融公司来说,是至关重要的。
Hortonworks总监Andrew Ahn表示,公司和终端用户合作,创建灵活的规则引擎,使数据流能够符合规定。该项目开发的软件包括Apache Falcon生命周期管理、Apache Ranger安全框架和新的政策规则引擎,比如保存相关元数据的审计数据商店。
Ahn熟悉金融大数据的进出规则。他以前就职于纽约证券交易所和太平洋交易所,从事应用程序开发工作。他说,那里很多大数据工作都是由“监护”的。
他表示:“我们在治理和大数据之间有严重的问题。”他认为公司需要符合美国证券交易委员会的要求。大型企业在部署Hadoop时也面临类似的挑战。
美国证券交易委员会和其他管理机构一样,要求公司保存交易数据的历史记录。虽然Falcon可以设定一些系统的政策,到很多公司还是需要更高级的政策处理流程。因此,就有了此次新的项目。
Hortonworks预计,软件有望在本季度开始发行。该计划还需要提交正是的提案,以成为Apache软件基金会的正式项目。
我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。
我原创,你原创,我们的内容世界才会更加精彩!
【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】
微信公众号

TechTarget
官方微博

TechTarget中国
翻译
相关推荐
-
乘风破浪!拥抱数据洪流
全球产生的数据量达到惊人的地步,2013年生成的数据总量约为3.5 ZB。到2020年,保守估计,全球年数据量将达到44 ZB。企业该如何在大数据的时代取胜?
-
Dr. Elephant:Hadoop和Spark的优化“神器”
美国加州软件公司Pepperdata的应用程序分析软件建立在Dr. Elephant开源项目上。主要目的是让更多的Hadoop和Spark应用程序投入生产。
-
Spark和Hadoop分析遇障碍?可以试试容器啊
将定制的Spark和Hadoop试点项目转移到生产中是一项艰巨的任务,但容器技术缓解了这种艰难的过渡。
-
Teradata发布开源Kylo软件 实现数据管道快速搭建与管理
企业运用Teradata天睿公司推出的数据湖管理软件平台Kylo,能够更简单、更经济、更迅速地开发数据湖,并专注于实现显著业务成果。