Warning: file_get_contents(/data/phpspider/zhask/data//catemap/1/cassandra/3.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181

Warning: file_get_contents(/data/phpspider/zhask/data//catemap/6/entity-framework/4.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Cassandra Copy命令连接检测信号故障_Cassandra_Ubuntu 14.04_Cqlsh - Fatal编程技术网

Cassandra Copy命令连接检测信号故障

Cassandra Copy命令连接检测信号故障,cassandra,ubuntu-14.04,cqlsh,Cassandra,Ubuntu 14.04,Cqlsh,我在Cqlsh中遇到以下错误。复制命令运行几秒钟,然后停止 期待你的帮助 谢谢 Connected to DRM at 127.0.0.1:9042. [cqlsh 5.0.1 | Cassandra 2.1.8 | CQL spec 3.2.0 | Native protocol v3] Use HELP for help. cqlsh> use myworld; cqlsh:myworld> copy citizens (id, first_name, last_name, ho

我在Cqlsh中遇到以下错误。复制命令运行几秒钟,然后停止

期待你的帮助

谢谢

Connected to DRM at 127.0.0.1:9042.
[cqlsh 5.0.1 | Cassandra 2.1.8 | CQL spec 3.2.0 | Native protocol v3]
Use HELP for help.
cqlsh> use myworld;
cqlsh:myworld> copy citizens (id, first_name, last_name, house_no, street, city, country,ssn,phone,bank_name,account_no) from '/home/rashmi/Documents/MyData/Road/PeopleData-18-Jun-1.txt';
Processed 110000 rows; Write: 47913.28 rows/s
Connection heartbeat failure
Aborting import at record #1196. Previously inserted records are still present, and some records after that may be present as well.
我有三个节点设置。192.168.1.10、11和12。11是种子

CREATE KEYSPACE myworld WITH REPLICATION =  { 'class' : 'SimpleStrategy', 'replication_factor' : 1}

create ColumnFamily citizens (id uuid,
first_name varchar,
last_Name varchar, 
house_no varchar,
street varchar,
city varchar,
country varchar,
ssn varchar,
phone varchar,
bank_Name varchar,
account_no varchar,
PRIMARY KEY ((Country,city),ssn));
下面是卡桑德拉·亚马尔

cluster_name: 'DRM'

(##)initial_token: 0
seeds: "192.168.1.11"
listen_address: 192.168.1.11
endpoint_snitch: GossipingPropertyFileSnitch

如果对任何人都有帮助的话,请更新我自己的问题

环境 我的设置是基于卡桑德拉2.2和三台笔记本电脑上的Ubuntu 14

  • I7 MQ 4700/16gigs/1TB驱动器
  • I7 MQ 4710/16 gigs/1TB驱动器
  • I7 670/4 Gig/500GB驱动器(旧机器)
  • 复制因子为3的键空间。 前两台机器上的Java堆为8GB,最大堆容量为400兆

    通过我的互联网路由器使用无线网络

    客观的 导入多个包含3.3亿虚拟金融交易的70 Gig CSV文件

    问题 介于两者之间的心跳失败。在导入几百万行之后的某个时候,有些在2.3亿行之后

    调查结果
  • 通过无线,ping到路由器和其他节点的频率为200+毫秒。使用Cat 5e和Cat 6电缆连接节点。将ping减小到<.3毫秒

  • 停止执行其他面向磁盘的繁重任务,如同时复制70多个gig文件,以及查询繁重的CQLSH命令,如select、查询磁盘空间和10K数据文件

  • 数据摄取被控制为每秒约9K行,可能使用了大部分磁盘

  • 第三个节点出现了磁盘问题,在这两者之间也出现了问题。大量提示
  • 目前 每天使用一台机器导入7亿多行。第二个同步导入过程将出现心跳错误

    下一个 正在寻找在不改变硬件的情况下将摄入速度提高两倍的方法


    谢谢,

    谢谢您的更新和调查结果。我确认了完全相同的问题:运行一个导入即可。启动第二次导入会以完全相同的错误中断流程。