PRODUCTS

文章详情

联系方式 Contact

搜索 Search

行业新闻 Industry news

渝中区大坪/两路口/较场口/解放碑格力空调维修-移机安装-清洗加氟-渝中区格力中央空调维修

2018-04-08 21:26:04点击:

渝中区大坪/两路口/较场口/解放碑格力空调维修-移机安装-清洗加氟-渝中区格力中央空调维修


渝中区格力空调维修电话:023-89009939


  随着“互联网+制造业”等政策的出台,将新兴IT技术融入到企业的生产过程以改善企业的生产效率是一个必然的趋势。传统企业的转型离不开产品变革和业务创新。就此谭泽汉谈到,格力作为一家世界知名的制造企业,每天思考的是怎么在保证格力的产品质量坚如磐石的同时满足消费者权益的最大化。


  因此,今年以来为推动产品的差异化竞争,提升用户对于格力空调的使用体验,格力电器专门成立了大数据部门,尝试通过将大数据技术融入到格力多联机空调产品实现对所有销售的多联机空调设备的位置、运行状态、安装调试,以及故障数据的采集,以帮助格力对客户购买的产品适用状态和故障信息进行及时的处理与分析。


  截至2017年12月,格力已销售的风冷多联机空调系列已全部安装数据采集GPRS模块,销售工程数量超过百万项,分布于全国各个省市地区。多联机空调每天返回数据处理中心的机器运行数据增量超过1.5亿条记录,目前共采集数据超过100T,已建成庞大的数据收集规模。


  渝中区大坪/两路口/较场口/解放碑格力空调维修-移机安装-清洗加氟-渝中区格力中央空调维修通过为多联机空调安装数据采集模块,格力已经实现了在用户还没有发觉问题之前就能迅速的处理隐患。比如在空调安装过程中经常会出现因为人为操作不规范导致后续使用中出现问题,不但增加了公司售后服务成本,也降低了客户的产品使用体验。对格力空调的品牌造成难以挽回的信誉影响。


  再比如,在空调运行过程中,如果出现GPRS上报排气低温保护,后台会出现分析机组存在异常,分析结果可能是排查主机防尘膜未取;如果出现GPRS上报压力异常保护,分析结果可能为缺冷媒,需立即排查管路有泄漏。在安装GPRS数据采集模块后,格力能有效的避免空调安装人员在调试过程中的出错几率,在使用过程中能监控产品运行状态,在收到用户故障维修请求后能及时分析故障原因并进行处理。


  格力最新的统计显示,通过部署大数据分析平台,格力通过故障数据分析规范工程安装,提高工程安装质量,使欠氟和漏氟故障率下降22.5%。对电子膨胀阀控制逻辑进行优化,大大减小内机电子膨胀阀泄露的故障率,使电子膨胀阀故障率下降21.3%。


  截止目前,格力多联机组共开发了自动故障诊断56 个,涵盖系统故障 44个,电控故障22 个。格力的最终目标是通过整合数据,将空调产品从生产、销售、安装、调试、维护、运行等一系列数据同时呈现出来,使产品在每一环节都受控,实现对产品的全方位监控管理。


  截止目前,格力多联机组共开发了自动故障诊断56 个,涵盖系统故障 44个,电控故障22 个。格力的最终目标是通过整合数据,将空调产品从生产、销售、安装、调试、维护、运行等一系列数据同时呈现出来,使产品在每一环节都受控,实现对产品的全方位监控管理。


  渝中区大坪/两路口/较场口/解放碑格力空调维修-移机安装-清洗加氟-渝中区格力中央空调维修


  谭泽汉介绍,格力工业大数据平台主要包含三个部分:数据采集、大数据平台和数据应用。数据采集部分包含大数据管理客户端、服务器、GPRS模块,其中模块会将设备位置、运行、调试、故障数据主动上传,还可以按需获取多联机实时数据,实现数据的采集、存储、分析、利用。


  如图3所示,采集到的数据在被上传到后端的大数据平台后会进行及时的处理与分析,并通过客户端、移动应用端进行展现。格力大数据平台主要包括九个部分:


  (1) kafka——大数据平台的数据入口,作为采集数据的缓冲。Kafka是一种高吞吐量的分布式发布订阅消息系统,它可以处理消费者规模的网站中的所有动作流数据。 这些数据通常是由于吞吐量的要求而通过处理日志和日志聚合来解决。对于像Hadoop这样的日志数据和离线分析系统,但又要求实时处理的限制,Kafka是一个可行的解决方案。Kafka的目的是通过Hadoop的并行加载机制来统一线上和离线的消息处理,也是为了通过集群机来提供实时的消费。


  (2) Hadoop HDFS+MapReduce。Hadoop分布式文件系统(HDFS)被设计成适合运行在通用硬件上的分布式文件系统,HDFS是一个高度容错性的系统,适合部署在廉价的机器上,提供高吞吐量的数据访问,非常适合大规模数据集上的应用。MapReduce则是面向大数据并行处理的计算模型、框架和平台,它允许用市场上普通的商用服务器构成一个包含数十、数百至数千个节点的分布和并行计算集群,并提供了一个庞大但设计精良的并行计算软件框架,能自动完成计算任务的并行化处理,自动划分计算数据和计算任务,在集群节点上自动分配和执行任务以及收集计算结果,将数据分布存储、数据通信、容错处理等并行计算涉及到的很多系统底层的复杂细节交由系统负责处理,大大减少了软件开发人员的负担。


  (3) Spark——内存计算引擎。Spark 是一种与 Hadoop 相似的开源集群计算环境,但是两者不同之处在于Spark不需要读写HDFS,因此Spark能更好地适用于数据挖掘与机器学习等需要迭代的MapReduce的算法。换句话说,Spark 启用了内存分布数据集,除了能够提供交互式查询外,它还可以优化迭代工作负载。