大数据技术 最常见的7 种 Hadoop 和 Spark 项目案例
光环大数据(大数据培训的专业机构), 如果您的 Hadoop 项目将有新的突破,那么它必定与下边介绍的七种常见项目很相像。有一句古老的格言是这样说的,如果你向某人提供你的全部支持和金融支持去做一些不同的和创新的事情,他们最终却会做别人正在做的事情 ...
存储 Hadoop Spark Storm SAS
如果您的 Hadoop 项目将有新的突破,那么它必定与下边介绍的七种常见项目很相像。
有一句古老的格言是这样说的,如果你向某人提供你的全部支持和金融支持去做一些不同的和创新的事情,他们最终却会做别人正在做的事情。如比较火爆的 Hadoop、Spark 和 Storm,每个人都认为他们正在做一些与这些新的大数据技术相关的事情,但它不需要很长的时间遇到相同的模式。具体的实施可能有所不同,但根据我的经验,它们是最常见的七种项目。
项目一:数据整合称之为 “企业级数据中心” 或 “数据湖”,这个想法是你有不同的数据源,你想对它们进行数据分析。这类项目包括从所有来源获得数据源 (实时或批处理) 并且把它们存储在 hadoop 中。有时,这是成为一个 “数据驱动的公司” 的第一步; 有时,或许你仅仅需要一份漂亮的报告。“企业级数据中心” 通常由 HDFS 文件系统和 HIVE 或 IMPALA 中的表组成。未来,HBase 和 Phoenix 在大数据整合方面将大展拳脚,打开一个新的局面,创建出全新的数据美丽新世界。 销售人员喜欢说 “读模式”,但事实上,要取得成功,你必须清楚的了解自己的用例将是什么 (Hive 模式不会看起来与你在企业数据仓库中所做的不一样)。真实的原因是一个数据湖比 Teradata 和 Netezza 公司有更强的水平扩展性和低得多的成本。许多人在做前端分析时使用 Tabelu 和 Excel。许多复杂的公司以 “数据科学家” 用 Zeppelin 或 IPython 笔记本作为前端。
项目二:专业分析许多数据整合项目实际上是从你特殊的需求和某一数据集系统的分析开始的。这些往往是令人难以置信的特定领域,如在银行领域的流动性风险 / 蒙特卡罗模拟分析。在过去,这种专业的分析依赖于过时的,专有的软件包,无法扩大数据的规模经常遭受一个有限的功能集 (大部分是因为软件厂商不可能像专业机构那样了解的那么多)。 在 Hadoop 和 Spark 的世界,看看这些系统大致相同的数据整合系统,但往往有更多的 HBase,定制非 SQL 代码,和更少的数据来源 (如果不是的)。他们越来越多地以 Spark 为基础。 项目三:Hadoop 作为一种服务在 “专业分析” 项目的任何大型组织 (讽刺的是,一个或两个 “数据整理” 项目) 他们会不可避免地开始感觉 “快乐”(即,疼痛) 管理几个不同配置的 Hadoop 集群,有时从不同的供应商。接下来,他们会说,“也许我们应该整合这些资源池,” 而不是大部分时间让大部分节点处于资源闲置状态。它们应该组成云计算,但许多公司经常会因为安全的原因 (内部政治和工作保护) 不能或不会。这通常意味着很多 Docker 容器包。 我没有使用它,但最近 Bluedata(蓝色数据国际中心) 似乎有一个解决方案,这也会吸引小企业缺乏足够的资金来部署 Hadoop 作为一种服务。 项目四:流分析很多人会把这个 “流”,但流分析是不同的,从设备流。通常,流分析是一个组织在批处理中的实时版本。以反洗钱和欺诈检测:为什么不在交易的基础上,抓住它发生而不是在一个周期结束? 同样的库存管理或其他任何。 在某些情况下,这是一种新的类型的交易系统,分析数据位的位,因为你将它并联到一个分析系统中。这些系统证明自己如 Spark 或 Storm 与 Hbase 作为常用的数据存储。请注意,流分析并不能取代所有形式的分析,对某些你从未考虑过的事情而言,你仍然希望分析历史趋势或看过去的数据。 项目五:复杂事件处理在这里,我们谈论的是亚秒级的实时事件处理。虽然还没有足够快的超低延迟 (皮秒或纳秒) 的应用,如高端的交易系统,你可以期待毫秒响应时间。例子包括对事物或事件的互联网电信运营商处理的呼叫数据记录的实时评价。有时,你会看到这样的系统使用 Spark 和 HBase――但他们一般落在他们的脸上,必须转换成 Storm,这是基于由 LMAX 交易所开发的干扰模式。 在过去,这样的系统已经基于定制的消息或高性能,从货架上,客户端 - 服务器消息产品 - 但今天的数据量太多了。我还没有使用它,但 Apex 项目看起来很有前途,声称要比 Storm 快。 项目六:ETL 流有时你想捕捉流数据并把它们存储起来。这些项目通常与 1 号或 2 号重合,但增加了各自的范围和特点。(有些人认为他们是 4 号或 5 号,但他们实际上是在向磁盘倾倒和分析数据。),这些几乎都是 Kafka 和 Storm 项目。Spark 也使用,但没有理由,因为你不需要在内存分析。
项目七:更换或增加 SASSAS 是精细,是好的但 SAS 也很贵,我们不需要为你的数据科学家和分析师买存储你就可以 “玩” 数据。此外,除 SAS 可以做或产生漂亮的图形分析外,你还可以做一些不同的事情。这是你的 “数据湖”。这里是 IPython 笔记本 (现在) 和 Zeppelin(以后)。我们用 SAS 存储结果。 当我每天看到其他不同类型的 Hadoop,Spark,或 Storm 项目,这些都是正常的。如果你使用 Hadoop,你可能了解它们。几年前我已经实施了这些项目中的部分案例,使用的是其它技术。 如果你是一个老前辈太害怕 “大” 或 “做” 大数据 Hadoop,不要担心。事情越变越多,但本质保持不变。你会发现很多相似之处的东西你用来部署和时髦的技术都是围绕 Hadooposphere 旋转的。
大数据+时代,大数据培训机构,就选光环大数据!
原创文章,转载请注明出处:光环大数据官网。
大数据培训、人工智能培训、Python培训、大数据培训机构、大数据培训班、数据分析培训、大数据可视化培训,就选光环大数据!光环大数据,聘请专业的大数据领域知名讲师,确保教学的整体质量与教学水准。讲师团及时掌握时代潮流技术,将前沿技能融入教学中,确保学生所学知识顺应时代所需。通过深入浅出、通俗易懂的教学方式,指导学生更快的掌握技能知识,成就上万个高薪就业学子。 更多问题咨询,欢迎点击------>>>>在线客服!