怎么创建应用并部署代码

Emma 2024-05-30 23:09:59
最佳回答
“要建立一个大数据系统,我们需要从数据流的源头跟踪到最后有价值的输出,并在现有的hadoop和大数据生态圈内根据实际需求挑选并整合各部分合适的组件来构建一个能够支撑多种查询和分析功能的系统**。这其中既包括了对数据存储的选择,也涵盖了数据线上和线下处理分离等方面的思考和权衡。此外,没有任何一个引入大数据解决方案的商业应用在生产环境上承担的起安全隐患。1计算框架篇大数据的价值只有在能指导人们做出有价值的决定时,数据才能体现其自身的价值。因此,大数据技术要服务于实际的用途,才是有意义的。一般来说,大数据可以从以下三个方面指导人们做出有价值的决定:报表生成(比如根据用户历史点击行为的跟踪和综合分析、 应用程序活跃程度和用户粘性计算等);诊断分析(例如分析为何用户粘性下降、根据日志分析系统为何性能下降、垃圾邮件以及病毒的特征检测等);决策(例如个性化新闻阅读或歌曲推荐、预测增加哪些功能能增加用户粘性、帮助广告主进行广告精准投放、设定垃圾邮件和病毒拦截策略等)。图 1进一步来看,大数据技术从以下三个方面解决了传统技术难以达成的目标(如图1):在历史数据上的低延迟(...“要建立一个大数据系统,我们需要从数据流的源头跟踪到最后有价值的输出,并在现有的hadoop和大数据生态圈内根据实际需求挑选并整合各部分合适的组件来构建一个能够支撑多种查询和分析功能的系统**。这其中既包括了对数据存储的选择,也涵盖了数据线上和线下处理分离等方面的思考和权衡。此外,没有任何一个引入大数据解决方案的商业应用在生产环境上承担的起安全隐患。1计算框架篇大数据的价值只有在能指导人们做出有价值的决定时,数据才能体现其自身的价值。因此,大数据技术要服务于实际的用途,才是有意义的。一般来说,大数据可以从以下三个方面指导人们做出有价值的决定:报表生成(比如根据用户历史点击行为的跟踪和综合分析、 应用程序活跃程度和用户粘性计算等);诊断分析(例如分析为何用户粘性下降、根据日志分析系统为何性能下降、垃圾邮件以及病毒的特征检测等);决策(例如个性化新闻阅读或歌曲推荐、预测增加哪些功能能增加用户粘性、帮助广告主进行广告精准投放、设定垃圾邮件和病毒拦截策略等)。图 1进一步来看,大数据技术从以下三个方面解决了传统技术难以达成的目标(如图1):在历史数据上的低延迟(交互式)查询,目标是加快决策过程和时间, 例如分析一个站点为何变缓慢并尝试修复它; 在实时数据上的低延迟查询,目的是帮助用户和应用程序在实时数据上做出决策, 例如实时检测并阻拦病毒蠕虫(一个病毒蠕虫可以在1.3秒内攻击1百万台主机);更加精细高级的数据处理算法,这可以帮助用户做出“更好”的决策, 例如图数据处理、异常点检测、趋势分析及其他机器学习算法。蛋糕模式从将数据转换成价值的角度来说,在hadoop生态圈十年蓬勃成长的过程中,yarn和spark这二者可以算得上是里程碑事件。yarn的出现使得集群资源管理和数据处理流水线分离,大大革新并推动了大数据应用层面各种框架的发展(sql on hadoop框架, 流数据,图数据,机器学习)。它使得用户不再受到mapreduce开发模式的约束,而是可以创建种类更为丰富的分布式应用程序,并让各类应用程序运行在统一的架构上,消除了为其他框架维护独有资源的开销。就好比一个多层蛋糕,下面两层是hdfs和yarn, 而mapreduce就只是蛋糕上层的一根蜡烛而已,在蛋糕上还能插各式各样的蜡烛。在这一架构体系中,总体数据处理分析作业分三块(图2),在hbase上做交互式查询(apache phoenix, cloudera impala等), 在历史数据集上编写mapreduce程序抑或利用hive等做批处理业务, 另外对于实时流数据分析apache storm则会是一种标准选择方案。虽然yarn的出现极大地丰富了hadoop生态圈的应用场景,但仍存有两个显而易见的挑战:一是在一个**上需要维护三个开发堆栈;二是在不同框架内很难共享数据,比如很难在一个框架内对流数据做交互式查询。这也意味着我们需要一个更为统一和支持更好抽象的计算框架的出现。图 2一统江湖spark的出现使得批处理任务,交互式查询,实时流数据处理被整合到一个统一的框架内(图3),同时spark和现有的开源生态系统也能够很好地兼容(hadoop, hdfs, yarn, hive, flume)。 通过启用内存分布数据集,优化迭代工作负载, 用户能够更简单地操作数据,并在此基础上开发更为精细的算法,如机器学习和图算法等。有三个最主要的原因促使spark目前成为了时下最火的大数据开源社区(拥有超过来自200多个公司的800多个contributors):spark可以扩展部署到超过8000节点并处理pb级别的数据,同时也提供了很多不错的工具供应用开发者进行管理和部署;spark提供了一个交互式shell供开发者可以用scala或者python即时性试验不同的功能;spark提供了很多内置函数使得开发者能够比较容易地写出低耦合的并且能够并发执行的代码,这样开发人员就更能集中精力地为用户提供更多的业务功能而不是花费时间在优化并行化代码之上。当然spark也和当年的mapreduce一样不是万灵药,比如对实时性要求很高的流数据处理上apache storm还是被作为主流选择, 因为spark streaming实际上是microbatch(将一个流数据按时间片切成batch,每个batch提交一个job)而不是事件触发实时系统,所以虽然支持者们认为microbatch在系统延时性上贡献并不多,但在生产环境中和apache storm相比还不是特别能满足对低延时要求很高的应用场景。比如在实践过程中, 如果统计每条消息的平均处理时间,很容易达到毫秒级别,但一旦统计类似service assurance(确保某条消息在毫秒基本能被处理完成)的指标, 系统的瓶颈有时还是不能避免。但同时我们不能不注意到,在许多用例当中,与流数据的交互以及和静态数据集的结合是很有必要的, 例如我们需要在静态数据集上进行分类器的模型计算,并在已有分类器模型的基础上,对实时进入系统的流数据进行交互计算来判定类别。由于spark的系统设计对各类工作(批处理、流处理以及交互式工作)进行了一个共有抽象,并且生态圈内延伸出了许多丰富的库(mllib机器学习库、sql语言api、graphx), 使得用户可以在每一批流数据上进行灵活的spark相关操作,在开发上提供了许多便利。 spark的成熟使得hadoop生态圈在短短一年之间发生了翻天覆地的变化, cloudera和hortonworks纷纷加入了spark阵营,而hadoop项目群中除了yarn之外已经没有项目是必须的了(虽然mesos已在一些场合替代了yarn), 因为就连hdfs,spark都可以不依赖。但很多时候我们仍然需要像impala这样的依赖分布式文件系统的mpp解决方案并利用hive管理文件到表的映射,因此hadoop传统生态圈依然有很强的生命力。另外在这里简要对比一下交互式分析任务中各类sql on hadoop框架,因为这也是我们在实际项目实施中经常遇到的问题。我们主要将注意力集中在spark sql, impala和hive on tez上, 其中spark sql是三者之中历史最短的,论文发表在15年的sigmod会议上, 原文对比了数据仓库上不同类型的查询在shark(spark最早对sql接口提供的支持)、spark sql和impala上的性能比较。也就是说, 虽然spark sql在shark的基础上利用catalyst optimizer在代码生成上做了很多优化,但总体性能还是比不上impala, 尤其是当做join操作的时候, impala可以利用“predicate pushdown”更早对表进行选择操作从而提高性能。不过spark sql的catalyst optimizer一直在持续优化中,相信未来会有更多更好的进展。cloudera的benchmark评测中impala一直比其他sql on hadoop框架性能更加优越,但同时hortonworks评测则指出虽然单个数据仓库查询impala可以在很短的时间内完成,但是一旦并发多个查询hive on tez的优势就展示出来。另外hive on tez在sql表达能力也要比impala更强(主要是因为impala的嵌套存储模型导致的), 因此根据不同的场景选取不同的解决方案是很有必要的。图 3各领风骚抑或代有才人出?近一年比较吸引人眼球的apache flink(与spark一样已有5年历史,前身已经是柏林理工大学一个研究性项目,被其拥趸推崇为继mapreduce, yarn,spark之后**大数据分析处理框架)。 与spark相反,flink是一个真正的实时流数据处理系统,它将批处理看作是流数据的特例,同spark一样它也在尝试建立一个统一的**运行批量,流数据,交互式作业以及机器学习,图算法等应用。flink有一些设计思路是明显区别于spark的,一个典型的例子是内存管理,flink从一开始就坚持自己精确的控制内存使用并且直接操作二进制数据,而spark一直到1.5版本都还是试用j**a的内存管理来做数据缓存,这也导致了spark很容易遭受oom以及jvm gc带来的性能损失。但是从另外一个角度来说, spark中的rdd在运行时被存成j**a objects的设计模式也大大降低了用户编程设计门槛, 同时随着tungsten项目的引入,spark现在也逐渐转向自身的内存管理, 具体表现为spark生态圈内从传统的围绕rdd(分布式j**a对象集合)为核心的开发逐渐转向以dataframe(分布式行对象集合)为核心。总的来说,这两个生态圈目前都在互相学习,flink的设计基因更为超前一些,但spark社区活跃度大很多,发展到目前毫无疑问是更为成熟的选择,比如对数据源的支持(hbase, cassandra, parquet, json, orc)更为丰富以及更为统一简洁的计算表示。另一方面,apache flink作为一个由欧洲**发起的项目,目前已经拥有来自北美、欧洲以及亚洲的许多贡献者,这是否能够一改欧洲在开源世界中一贯的被动角色,我们将在未来拭目以待。2nosql数据库篇nosql数据库在主流选择上依旧集中在mongodb, hbase和cassandra这三者之间。在所有的nosql选择中,用c 编写的mongodb几乎应该是开发者最快也最易部署的选择。mongodb是一个面向文档的数据库,每个文档/记录/数据(包括爬取的网页数据及其他大型对象如视频等)是以一种bson(binary json)的二进制数据格式存储, 这使得mongodb并不需要事先定义任何模式, 也就是模式自由(可以把完全不同结构的记录放在同一个数据库里)。mongodb对于完全索引的支持在应用上是很方便的,同时也具备一般nosql分布式数据库中可扩展,支持复制和故障恢复等功能。 mongodb一般应用于高度伸缩性的缓存及大尺寸的json数据存储业务中,但不能执行“join”操作,而且数据占用空间也比较大,最被用户诟病的就是由于mongodb提供的是数据库级锁粒度导致在一些情况下建索引操作会引发整个数据库阻塞。一般来说,mongodb完全可以满足一些快速迭代的中小型项目的需求。下面来主要谈谈cassandra和hbase之间的比较选择。cassandra和hbase有着截然不同的基因血统。hbase和其底层依赖的系统架构源自于著名的google filesystem(发表于2003年)和google bigtable设计(发表于2006年), 其克服了hdfs注重吞吐量却牺牲i/o的缺点,提供了一个存储中间层使得用户或者应用程序可以随机读写数据。具体来说,hbase的更新和删除操作实际上是先发生在内存memstore中, 当memstore满了以后会flush到storefile, 之后当storefile文件数量增长到一定阈值后会触发compact合并操作,因此hbase的更新操作其实是不断追加的操作,而最终所有更新和删除数据的持久化操作都是在之后compact过程中进行的。这使得应用程序在向内存memstore写入数据后,所做的修改马上就能得到反映,用户读到的数据绝不会是陈旧的数据,保证了i/o高性能和数据完全一致性; 另一方面来说, hbase基于hadoop生态系统的基因就已经决定了他自身的高度可扩展性、容错性。 在数据模型上,cassandra和hbase类似实现了一个key-value提供面向列式存储服务,其系统设计参考了 amazon dynamo (发表于2007年) 分布式哈希(dht)的p2p结构(实际上大部分cassandra的初始工作都是由两位从amazon的dynamo组跳槽到**的工程师完成),同样具有很高的可扩展性和容错性等特点。除此之外, 相对hbase的主从结构,cassandra去中心化的p2p结构能够更简单地部署和维护,比如增加一台机器只需告知cassandra系统新节点在哪,剩下的交给系统完成就行了。同时,cassandra对多数据中心的支持也更好,如果需要在多个数据中心进行数据迁移cassandra会是一个更优的选择。eric brewer教授提出的经典cap理论认为任何基于网络的数据共享系统,最多只能满足数据一致性、可用性、分区容忍性三要素中的两个要素。实际分布式系统的设计过程往往都是在一致性与可用性上进行取舍,相比于hbase数据完全一致性的系统设计,cassandra选择了在优先考虑数据可用性的基础上让用户自己根据应用程序需求决定系统一致性级别。比如:用户可以配置quonum参数来决定系统需要几个节点返回数据才能向客户端做出响应,one指只要有一个节点返回数据就可以对客户端做出响应,all指等于数据复制份数的所有节点都返回结果才能向客户端做出响应,对于数据一致性要求不是特别高的可以选择one,它是最快的一种方式。从基因和发展历史上来说,hbase更适合用做数据仓库和大规模数据处理与分析(比如对网页数据建立索引), 而cassandra则更适合用作实时事务和交互式查询服务。cassandra在国外市场占有比例和发展要远比国内红火, 在不少权威测评网站上排名都已经超过了hbase。目前apache cassandra的商业化版本主要由软件公司datastax进行开发和销售推广。另外还有一些nosql分布式数据库如riak, couchdb也都在各自支持的厂商推动下取得了不错的发展。 虽然我们也考虑到了hbase在实际应用中的不便之处比如对二级索引的支持程度不够(只支持通过单个行键访问,通过行键的范围查询,全表扫描),不过在明略的大数据基础**上,目前整合的是依然是hbase。理由也很简单,hbase出身就与hadoop的生态系统紧密集成,其能够很容易与其他sql on hadoop框架(cloudera impala, apache phoenix, or hive on tez)进行整合,而不需要重新部署一套分布式数据库系统,而且可以很方便地将同样的数据内容在同一个生态系统中根据不同框架需要来变换存储格式(比如存储成hive表或者parquet格式)。我们在很多项目中都有需要用到多种sql on hadoop框架,来应对不同应用场景的情况,也体会到了在同一生态系统下部署多种框架的简便性。 但同时我们也遇到了一些问题, 因为hbase项目本身与hdfs和zookeeper系统分别是由不同开源团队进行维护的,所以在系统整合时我们需要先对hbase所依赖的其他模块进行设置再对hbase进行配置,在一定程度上降低了系统维护的友好性。目前我们也已经在考虑将cassandra应用到一些新的客户项目中,因为很多企业级的应用都需要将线上线下数据库进行分离,hbase更适合存储离线处理的结果和数据仓库,而更适合用作实时事务和并发交互性能更好的cassandra作为线上服务数据库会是一种很好的选择。3大数据安全篇随着越来越多各式各样的数据被存储在大数据系统中,任何对企业级数据的破坏都是灾难性的,从侵犯隐私到监管违规,甚至会造成公司品牌的破坏并最终影响到股东收益。给大数据系统提供全面且有效的安全解决方案的需求已经十分迫切:大数据系统存储着许多重要且敏感的数据,这些数据是企业长久以来的财富与大数据系统互动的外部系统是动态变化的,这会给系统引入新的安全隐患在一个企业的内部,不同business units会用不同的方式与大数据系统进行交互,比如线上的系统会实时给集群推送数据、数据科学家团队则需要分析存储在数据仓库内的历史数据、运维团队则会需要对大数据系统拥有管理权限。因此为了保护公司业务、客户、财务和名誉免于被侵害,大数据系统运维团队必须将系统安全高度提高到和其他遗留系统一样的级别。同时大数据系统并不意味着引入大的安全隐患,通过精细完整的设计,仍然能够把一些传统的系统安全解决方案对接到最新的大数据集群系统中。 一般来说,一个完整的企业级安全框架包括五个部分:admin**tration: 大数据集群系统的集中式管理,设定全局一致的安全策略authentication: 对用户和系统的认证authorization:授权个人用户和组对数据的访问权限audit:维护数据访问的日志记录data protection:数据脱敏和加密以达到保护数据的目的系统管理员要能够提供覆盖以上五个部分的企业级安全基础设施,否则任何一环的缺失都可能给整个系统引入安全性风险。在大数据系统安全集中式管理**这块,由hortonworks推出的开源项目apache ranger就可以十分全面地为用户提供hadoop生态圈的集中安全策略的管理,并解决授权(authorization)和审计(audit)。例如,运维管理员可以轻松地为个人用户和组对文件、数据等的访问策略,然后审计对数据源的访问。与ranger提供相似功能的还有cloudera推出的apache sentry项目,相比较而言ranger的功能会更全面一些。而在认证(authentication)方面, 一种普遍采用的解决方案是将基于kerberos的认证方案对接到企业内部的ldap环境中, kerberos也是唯一为hadoop全面实施的验证技术。另外值得一提的是apache knox gateway项目,与ranger提高集群内部组件以及用户互相访问的安全不同,knox提供的是hadoop集群与外界的唯一交互接口,也就是说所有与集**互的rest api都通过knox处理。这样,knox就给大数据系统提供了一个很好的基于边缘的安全(perimeter-based security)。基于以上提到的五个安全指标和hadoop生态圈安全相关的开源项目, 已经足已证明基于hadoop的大数据**我们是能够构建一个集中、一致、全面且有效的安全解决方案。我市再itjob管网上面找的 20210311
汇率兑换计算器

类似问答
  • 中科创达股票代码
    • 2024-05-30 13:28:19
    • 提问者: 未知
    中科创达(300496)股东越超有限公司于2017年4月11日-9月6日,合计减持公司股份499.9983万股,占总股本的1.2427%。越超有限公司计划自公告之日起十五个交易日至2017年12月31日,减持公司股份不超3,213,939股(占总股本比例0.80%)。
  • 什么代码是创业板块股票怎么买
    • 2024-05-30 05:13:43
    • 提问者: 未知
    创业板块股票代码都是300打头的;创业板是一个相对独立的板块,因为风险大,开户必须在入市满2年之后才能在营业部开通,必须通过风险测试之后才能开通,必须在开通创业板账户之后才可以买卖创业板股票。
  • 券商代码和营业部代码是多少
    • 2024-05-30 13:27:20
    • 提问者: 未知
    券商代码就商在交易大厅的座席,你在易券商时会要求你商代码主办券位代码表券商名称 席位代码申银万国 720100国泰君安 720200国信证券 720300大鹏证券 720400辽宁证券 720500闽发证券 720600长江证券 720700银河证券 720800中信证券 721800渤海证券 720900海通证券 721000广发证券 721100兴业证券 721200招商证券 721300天同...
  • ios 怎么创建自己的代码片段
    • 2024-05-30 02:04:29
    • 提问者: 未知
    在做ios开发的过程中,你会发现有些代码在项目中需要反复使用,在xcode里面我们可以通过code snippet将常用的代码创建成代码片段,并定义好快捷方式,我们在需要输入这块代码的时候,只需要输入几个字母,就能迅速生成这块常用的代码,这样会大大提高我们的编程效率。  xcode里面默认定义了一些比较常用的代码片段,比如我们想要写一个for in的循环,我们只需要输入forin这几个字母,然后按...
  • 港股怎么在代码上分别主板和创业?
    • 2024-05-30 17:10:33
    • 提问者: 未知
    因为目前看港股创业板数量并不多,不过200来只。多数价格2元之下。很少有业绩上爆发的。
  • airbnb 优惠券代码 怎么用
    • 2024-05-30 01:06:39
    • 提问者: 未知
    你好, 在下单的页面,会有填写promotion code的位置,是一个长方形的格子,粘贴上去价格就会发生变化。望采纳
  • 为什么在本地服务器上运行正常,将代码部署到百度的bae上就报这样的错
    • 2024-05-30 06:02:21
    • 提问者: 未知
    百度bae用起来比较麻烦,一些运行环境是需要自己手动配置的。比如空间、数据库、**箱等。
  • 建行**最后要营销机构代码怎么填写
    • 2024-05-30 08:47:47
    • 提问者: 未知
    如果是个人申请,这栏不用管,不需要填写;如果是在营销人员指导下申请,直接问营销人员...申请表只要填写银行指定的那些必填项,其他可填可不填,不确定的选填项千万别乱填。
  • 代码怎么用啊!
    • 2024-05-30 03:00:56
    • 提问者: 未知
    有两种可能性:1/你的代码内容错误,电脑不能...6/点击“显示源代码前面的方框”7/把需要的代码复制在面板里 8/再勾“显示源代码”9/点击下面“保存”10/点击下面的“选取”
  • 建行河北省分行营业部实现“创业贷”产品创新应用
    • 2024-05-30 09:00:13
    • 提问者: 未知
    面对当前的经济金融环境和激烈的市场竞争,建行河北省分行营业部坚持以资产带动的经营方略,实行一行一策,加大新产品...近日,该部所属铁道支行成功发放50万元创业贷贷款,实现了...
汇率兑换计算器

热门推荐
热门问答
最新问答
推荐问答
新手帮助
常见问题
房贷计算器-九子财经 | 备案号: 桂ICP备19010581号-1 商务联系 企鹅:2790-680461

特别声明:本网为公益网站,人人都可发布,所有内容为会员自行上传发布",本站不承担任何法律责任,如内容有该作者著作权或违规内容,请联系我们清空删除。