开发服务及工具 / 大数据能力 / 云搜索服务CSS / 开发指南 /

使用DIS导入本地数据到Elasticsearch

更新时间: 6-12-2024, 2:36:05 AM

通过DIS可以将本地windows系统上的日志数据上传到DIS队列中,然后通过CDM可以将DIS队列中的数据迁移到云搜索服务的Elasticsearch中,从而方便用户使用Elasticsearch搜索引擎高效管理和获取日志。数据文件支持JSON、CSV等格式。

数据传输流程如图1所示。

图1 使用DIS导入本地数据到Elasticsearch时的数据传输流程

操作步骤

  1. 登录DIS管理控制台。
  2. 购买接入通道。

    具体操作请参见《数据接入服务用户指南》中的开通DIS通道开通DIS通道。

  3. 安装并配置DIS Agent。

    具体操作请参见《数据接入服务用户指南》中的安装DIS Agent安装DIS Agent和配置DIS Agent配置DIS Agent。

  4. 启动DIS Agent,将采集的本地数据上传到DIS队列中。

    具体操作请参见《数据接入服务用户指南》中的启动DIS Agent启动DIS Agent。

    例如:将如下数据通过DIS Agent上传到DIS队列中。

    已复制
    1. {"logName":"aaa","date":"bbb"}
    2. {"logName":"ccc","date":"ddd"}
    3. {"logName":"eee","date":"fff"}
    4. {"logName":"ggg","date":"hhh"}
    5. {"logName":"mmm","date":"nnn"}
  5. 登录云搜索服务管理控制台。
  6. 在左侧导航栏中,选择“集群管理 > Elasticsearch”,进入集群管理列表页面。
  7. 在集群列表页面中,单击待导入数据的集群操作列的Kibana
  8. 在Kibana的左侧导航中选择“Dev Tools”,进入Console界面。
  9. 在Console界面,执行命令创建待存储数据的索引,并指定自定义映射来定义数据类型。

    如果待导入数据的集群已存在可用的索引,则不需要再创建索引;如果待导入数据的集群不存在可用的索引,则需要参考如下示例创建索引。

    例如:在Console界面,执行如下命令,创建索引apache,并指定自定义映射来定义数据类型。

    7.x之前版本

    已复制
    1. PUT /apache
    2. {
    3. "settings": {
    4. "number_of_shards": 1
    5. },
    6. "mappings": {
    7. "logs": {
    8. "properties": {
    9. "logName": {
    10. "type": "text",
    11. "analyzer": "ik_smart"
    12. },
    13. "date": {
    14. "type": "keyword"
    15. }
    16. }
    17. }
    18. }
    19. }

    7.x之后版本

    已复制
    1. PUT /apache
    2. {
    3. "settings": {
    4. "number_of_shards": 1
    5. },
    6. "mappings": {
    7. "properties": {
    8. "logName": {
    9. "type": "text",
    10. "analyzer": "ik_smart"
    11. },
    12. "date": {
    13. "type": "keyword"
    14. }
    15. }
    16. }
    17. }

    执行成功后显示如下:

    已复制
    1. {
    2. "acknowledged" : true,
    3. "shards_acknowledged" : true,
    4. "index" : "apache"
    5. }
  10. 登录CDM管理控制台。
  11. 购买云数据迁移集群。

    具体操作请参见《云数据迁移用户指南》中的创建集群创建集群。

  12. 新建CDM和云搜索服务的连接。

    具体操作请参见《云数据迁移用户指南》中的新建连接新建连接。

  13. 新建CDM和DIS的连接。

    具体操作请参见《云数据迁移用户指南》中的新建连接新建连接。

  14. 在已购买的云数据迁移集群上新建作业,将DIS队列中的数据迁移到云搜索服务的待导入数据的集群中。

    具体操作请参见《云数据迁移用户指南》中的表/文件迁移表/文件迁移。

  15. 在已打开的Kibana的Console界面,通过搜索获取已导入的数据。

    在Kibana控制台,输入如下命令,搜索数据。查看搜索结果,如果数据与导入数据一致,表示数据文件的数据已导入成功。

    已复制
    1. GET apache/_search

    执行成功后显示如下:

    已复制
    1. {
    2. "took": 81,
    3. "timed_out": false,
    4. "_shards": {
    5. "total": 1,
    6. "successful": 1,
    7. "skipped": 0,
    8. "failed": 0
    9. },
    10. "hits": {
    11. "total": 5,
    12. "max_score": 1,
    13. "hits": [
    14. {
    15. "_index": "apache",
    16. "_type": "logs",
    17. "_id": "txfbqnEBPuwwWJWL-qvP",
    18. "_score": 1,
    19. "_source": {
    20. "date": """{"logName":"aaa"""",
    21. "logName": """"date":"bbb"}"""
    22. }
    23. },
    24. {
    25. "_index": "apache",
    26. "_type": "logs",
    27. "_id": "uBfbqnEBPuwwWJWL-qvP",
    28. "_score": 1,
    29. "_source": {
    30. "date": """{"logName":"ccc"""",
    31. "logName": """"date":"ddd"}"""
    32. }
    33. },
    34. {
    35. "_index": "apache",
    36. "_type": "logs",
    37. "_id": "uRfbqnEBPuwwWJWL-qvP",
    38. "_score": 1,
    39. "_source": {
    40. "date": """{"logName":"eee"""",
    41. "logName": """"date":"fff"}"""
    42. }
    43. },
    44. {
    45. "_index": "apache",
    46. "_type": "logs",
    47. "_id": "uhfbqnEBPuwwWJWL-qvP",
    48. "_score": 1,
    49. "_source": {
    50. "date": """{"logName":"ggg"""",
    51. "logName": """"date":"hhh"}"""
    52. }
    53. },
    54. {
    55. "_index": "apache",
    56. "_type": "logs",
    57. "_id": "uxfbqnEBPuwwWJWL-qvP",
    58. "_score": 1,
    59. "_source": {
    60. "date": """{"logName":"mmm"""",
    61. "logName": """"date":"nnn"}"""
    62. }
    63. }
    64. ]
    65. }
    66. }
    说明

    apache为创建的索引名称,需根据实际情况填写。

文档反馈