用最前沿的技术为用户创造最大化价值
这次我们的主要精力花在了重构整个数据架构上。
过去7年的智能客服实践。我们积累了很多“痛点”,最大的痛点莫过于数据本身。客服是个刚需的企业端产品。数据查询和通讯稳定性是客户最关注的点。而由此衍生出的“数据分析”,则是智能客服要主动承担的客户需求,在大多数时候,我们要创造性实现客户需求,而非被动的等客户提出需求,或者等架构支撑不住。

誓死不愿爆照的程序猿
数据分析是用户视角的东西。我们的系统上每个月产生7亿次的对话。然而其中的语料数据、行为轨迹数据并没有被充分使用。如何实时使用这些数据,且使用模式又不仅限于“查询”,而是引入更多计算层的内容?这就使得我们选取了hadoop生态的工具链来完成新产品的数据架构。数据的存储、索引、数据流的组织和处理方式、数据写入、计算层等,我们都选择了最前沿、稳定的技术框架。未来,客服生态作为用户的第一入口,其产生的数据将会在我们系统上得到最大程度的应用

数据分析是产品运营利器。基于 Hadoop 体系的大数据架构,我们的数据库底层采用了列式存储文件格式 Parquet 以支持高性能的数据扫描能力,辅以支持实时写入的数据存储引擎 KUDU,上层搭建了类似商用并行关系数据库中类似的分布式查询引擎 Impala,可以有效的满足大数据的查询统计分析需求。

很多人都不知道,其实极致的产品背后都是极大的投入,都是千锤百炼改出来的。牛逼的背后都是苦逼!