Hadoop会不需认证导致数据泄漏

编辑:光环大数据 来源: 互联网 时间: 2017-11-09 13:44 阅读:

  最近,有报导指全球hadoop 服务器因配置不安全导致大量数据泄漏,涉及使用 Hadoop 分布式文件系统(HDFS)的近 4500 台服务器,数据量高达 5120 TB (5.12 PB),经分析,这批数据泄漏的近 4500 台 HDFS 服务器中以美国和中国为主。

  互联网上暴露的 Hadoop 服务器如果没有配置认证均可能受影响,攻击者针对 HDFS 的攻击删除了大多数目录,并会添加一个名为「NODATA 4U_SECUREYOURSHIT」的新目录和「PLEASE_README」的目录,攻击者可能备份业务数据后在服务器上删除这部分数据,然后直接发送勒索邮件并索要勒索赎金。

  该问题产生是由于管理员在配置失误所致,由于直接在云端上开放了 Hadoop 机器 HDFS 的 50070 web 端口及部分预设服务端口,骇客可以通过命令行操作多个目录下的数据,如进行删除操作,安全风险高。

  用户可以透过人手方式检测端口是否开放到了公网。

  假如真的发生问题,可以进行以下修復措施:

  安装完 Hadoop 集群后,进行安全加固:

  按照安全最小化原则,禁止公网对这部分端口存取,如果因业务需要必须对外开放,请使用 ECS 提供的安全组策略指定存取 IP 存取端口业务,如无必要,关闭 Hadoop Web 管理页面;

  开启服务级别身份验证,如 Kerberos 认证;

  部署 Knox、Nginx 之类的反向代理系统,防止未经授权用户存取;

  使用交换机或防火墙策略配置访问控制策略 (ACL),将 Hadoop 预设开放的多个端口对公网全部禁止或限制可信任的 IP 地址才能存取包括 50070 以及 WebUI 等相关端口。

 

  大数据时代Hadoop培训大数据培训培训班,就选光环大数据!


大数据培训、人工智能培训、Python培训、大数据培训机构、大数据培训班、数据分析培训、大数据可视化培训,就选光环大数据!光环大数据,聘请专业的大数据领域知名讲师,确保教学的整体质量与教学水准。讲师团及时掌握时代潮流技术,将前沿技能融入教学中,确保学生所学知识顺应时代所需。通过深入浅出、通俗易懂的教学方式,指导学生更快的掌握技能知识,成就上万个高薪就业学子。 更多问题咨询,欢迎点击------>>>>在线客服

你可能也喜欢这些

在线客服咨询

领取资料

X
立即免费领取

请准确填写您的信息

点击领取
#第三方统计代码(模版变量) '); })();
'); })();