本文共 1905 字,大约阅读时间需要 6 分钟。
近日,Progress公司发布了《2018 Data Connectivity Annual Report》,这已经是Progress第五年发布关于数据库技术的调查报告了。
据悉,这次调查报告共有1400多名调查者参与,其中包括CXO、数据科学家、BI专家、数据库管理员、开发者以及系统管理员等等,参与人数和2014年相比翻了两番。调查内容囊括了过去十年,企业数据在体量、种类和速度等多方面的变化。数据体量和类型的增加不仅推动了数据可视化和复杂分析的发展,同时也给企业挖掘数据价值带来了新的挑战。
虽然在过去的十年中,数据的存储和处理出现了很多新的方式,但是Oracle、SQL Server和MySQL仍是当前最流行的数据库。由于云迁移工具和产品的层出不穷,这三大流行数据库的本地部署在2018年下降了13%。
云的优势在于其廉价的基础设施和高可用性,但是潜在的安全和合规问题往往会让企业有所顾虑;大数据、NoSQL等技术也不适合所有的业务需求,因为这些现代数据库的分析工具还处于初级水平。所以,在可预见的未来,关系型数据库仍然会在企业中占据重要位置。
NoSQL数据库可以处理大量结构化、半结构化和非结构化数据,同时提供水平可伸缩性。这些特性使得NoSQL成为了实时和批量数据分析中处理中大型或不断变化的数据集的首选。据调查结果显示,近70%的受访者使用了NoSQL数据库,与2017年相比,增长了11%,其中MongoDB最受欢迎,采用率达27%。
NoSQL数据库的日渐流行开始动摇企业核心业务系统的集成。虽然NoSQL数据库具有查询语言和框架,也可以很好的支持类似SQL的操作,但是仍然与基于SQL的基础结构不兼容,不过这也推动了用于NoSQL数据库的第三方ODBC和JDBC驱动程序的发展。
过去的十年中数据集成发生了很大的变化,数据源体量的增加、混合环境、不断变化的API、新的数据类型……为了能够给实时分析和商业智能提供统一的数据视图,大多数企业都在尝试整合不同数据源的数据。
在这次的调查中,有47%的受访者表示整合不同的数据源是他们目前面临的最具挑战性的任务,还有44%的受访者认为目前面临的最大挑战是云数据库和本地数据库中不断增加的数据。随着社交媒体和物联网的快速发展,连接设备的不断增加,网络中的数据流通量激增,所以也有35%的受访者在担心他们要处理的数据量。
数据集成可以为企业提供真正360度视图,但是也有困难,例如现代的基础设施(云和大数据)、混合环境和数据多样性。传统的ETL方法在解决跨现代基础设施的连接问题时过于复杂和昂贵,而现代的ETL工具却提供了一整套的完整方法。
另外,因为SaaS和微服务的出现为企业引入了数百个新的数据仓库,这无疑加剧了数据集成的挑战。
云大物智等新技术的发展使得企业越来越重视数据,IT团队也在引入越来越复杂的安全机制来加密数据的访问。同时,由于企业存在安全威胁,用户滥用数据等多种原因,我们需要更多更规范的法律法规来约束。
在调查中,超过65%的受访者表示他们需要遵守一个或多个标准,例如行业特定的法规,Sarbanes-Oxley、PCI DSS和HIPAA等,政府法规,GDPR。由于各国的隐私保护法都还处于摸索阶段,未来需要数据保护可能会变得更加复杂。
安全性是一个大而复杂的话题,并且随着数据的不断增加,这种复杂性也会加剧。
企业的不断发展,在企业内部产生、使用和存储了各种各样的数据,所以如何有效地管理和利用数据的数量、多样性和速度就成为了挑战。该报告强调了对所有数据源(云端、遗留系统或两者都存在)的标准数据连接的需求,以及投资基于标准的驱动程序以实现更好的API集成的重要性。
从调查结果看,关系型数据库正在发展壮大,整个行业都可以看到该类型数据库的恢复趋势,而随着ISV向云应用的发展,对混合连接的需求也在增加。
转载地址:http://dtjtx.baihongyu.com/