如何使用Datastax批量加载程序(Ubuntu)将数据加载到Apache Cassandra中?

如何使用Datastax批量加载程序(Ubuntu)将数据加载到Apache Cassandra中?,ubuntu,cassandra,datastax,bulkloader,Ubuntu,Cassandra,Datastax,Bulkloader,当我想将数据上传到我的测试集群到Apache Cassandra时,我打开终端,然后: export PATH=/home/mypc/dsbulk-1.7.0/bin:$PATH source ~/.bashrc dsbulk load -url /home/mypc/Desktop/test/file.csv -k keyspace_test -t table_test 但是 At least 1 record does not match the provided schema.map

当我想将数据上传到我的测试集群到Apache Cassandra时,我打开终端,然后:

export PATH=/home/mypc/dsbulk-1.7.0/bin:$PATH

source ~/.bashrc

dsbulk load -url /home/mypc/Desktop/test/file.csv -k keyspace_test -t table_test
但是

At least 1 record does not match the provided schema.mapping or schema.query. Please check that the connector configuration and the schema configuration are correct.
Operation LOAD_20201105-103000-577734 aborted: Too many errors, the maximum allowed is 100.

total | failed | rows/s | p50ms | p99ms | p999ms | batches
  104 |    104 |      0 |  0,00 |  0,00 |   0,00 |    0,00

Rejected records can be found in the following file(s): mapping.bad
Errors are detailed in the following file(s): mapping-errors.log
Last processed positions can be found in positions.txt
这意味着什么?为什么我不能加载


谢谢大家!

错误在于您没有提供CSV数据和表之间的映射。可以通过两种方式实现:

如果CSV文件的标题的列名与Cassandra中的列名匹配,则使用-header true 使用-m选项显式提供映射请参见-您需要将CSV列映射到Cassandra列。 关于DSBulk使用的不同方面,有一系列非常好的博客文章:


前两种方法非常详细地介绍了数据加载

错误在于没有提供CSV数据和表之间的映射。可以通过两种方式实现:

如果CSV文件的标题的列名与Cassandra中的列名匹配,则使用-header true 使用-m选项显式提供映射请参见-您需要将CSV列映射到Cassandra列。 关于DSBulk使用的不同方面,有一系列非常好的博客文章:


前两种方法非常详细地介绍了数据加载

这意味着CSV输入文件中的列与测试表中的列不匹配。您可以在mapping-errors.log中获得架构不匹配的详细信息,以便知道哪些列有问题

由于CSV列与表架构不匹配,因此需要通过指定-schema.mapping标志手动映射它们


有关详细信息,请参见页面。您还可以在中查看模式映射示例。干杯

这意味着CSV输入文件中的列与表\u测试表中的列不匹配。您可以在mapping-errors.log中获得架构不匹配的详细信息,以便知道哪些列有问题

由于CSV列与表架构不匹配,因此需要通过指定-schema.mapping标志手动映射它们


有关详细信息,请参见页面。您还可以在中查看模式映射示例。干杯

我添加了-delim,-header true-m'0=col1,1=col2'如果您有-header,那么您可能不需要-mI added-delim,-header true-m'0=col1,1=col2'如果您有-header,那么您可能不需要-m