Warning: file_get_contents(/data/phpspider/zhask/data//catemap/1/php/246.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
PHP MySQL“;选择";然后";插入“;大数据_Php_Mysql_Pdo_Innodb - Fatal编程技术网

PHP MySQL“;选择";然后";插入“;大数据

PHP MySQL“;选择";然后";插入“;大数据,php,mysql,pdo,innodb,Php,Mysql,Pdo,Innodb,选择然后将大数据插入数据库(InnoDB引擎)的最佳方法是什么 我有60000多行需要从另一个表中插入,没有限制结果 有没有办法防止我的服务器内存消耗过多或加快查询速度?我可以用LIMIT 5000拆分查询,直到复制完所有数据吗 这是一个示例查询: $query = 'SELECT * FROM orig_table WHERE user_id = 1 AND sent = 0'; // more than 60000 rows if ( $query ) { foreach ( $que

选择然后将大数据插入数据库(InnoDB引擎)的最佳方法是什么

我有60000多行需要从另一个表中插入,没有
限制
结果

有没有办法防止我的服务器内存消耗过多或加快查询速度?我可以用
LIMIT 5000
拆分查询,直到复制完所有数据吗

这是一个示例查询:

$query = 'SELECT * FROM orig_table WHERE user_id = 1 AND sent = 0'; // more than 60000 rows

if ( $query ) {
  foreach ( $query as $row ) {
     'INSERT INTO copy_table VALUE()';    
  }   
}

可能只是在一个查询中执行

insert into copytable (column1,column2)
SELECT column1,column2 FROM orig_table WHERE user_id = 1 AND sent = 0
可能重复的