Php 将大型数据从一台服务器发送到另一台服务器
我使用CURL在服务器之间发送大量数据,我使用POST,这可以吗,或者有没有更好的/标准的方法使用CURL发送大型序列化数据 问题在于php设置中的最大帖子大小,我必须更改它(默认为2MB)。我还没有遇到任何问题,但当系统上线时,每次都可能发送大于50MB的数据 有什么想法吗? 多谢各位 编辑: 我发送的是数据,而不是文件,数据一旦收到,应该由第二台服务器处理并保存到数据库/file/do-some-action,并且可能需要在处理数据后发送响应 我只是想知道,除了最大邮件大小,我还会面临其他问题吗?(忘记curl和php的超时),是否有任何方法可以让服务器不看max_post_大小?也许用推?还是放?这种贴子大小会影响推送或推送吗??如何通过卷曲来使用它? 这么多问题 这条路还可以 您还有两个想法:Php 将大型数据从一台服务器发送到另一台服务器,php,curl,http-post,Php,Curl,Http Post,我使用CURL在服务器之间发送大量数据,我使用POST,这可以吗,或者有没有更好的/标准的方法使用CURL发送大型序列化数据 问题在于php设置中的最大帖子大小,我必须更改它(默认为2MB)。我还没有遇到任何问题,但当系统上线时,每次都可能发送大于50MB的数据 有什么想法吗? 多谢各位 编辑: 我发送的是数据,而不是文件,数据一旦收到,应该由第二台服务器处理并保存到数据库/file/do-some-action,并且可能需要在处理数据后发送响应 我只是想知道,除了最大邮件大小,我还会面临其他问
使用cURL非常好 就我个人而言,我更希望不必通过web服务器(如Apache)来完成这项工作,因为在这一过程中可能会有太多的潜在故障,如PHP超时、web服务器超时、内存限制、无写权限、仅限于web根目录等 我更愿意通过为文件传输设计的机制来实现:
- FTP
(通常通过SSH使用FTP)scp
- Dropbox(有API)
- AmazonS3(简单的API)
- 等等
jsonp
,而不是CURL。CURL非常慢,而AJAX几乎是即时的。@Austin:我打赌这里不是这样。没错,这取决于他的目标和他计划如何使用数据。@Austin我在两台服务器之间发送数据,没有浏览器,没有使用ajax的javascript。甚至json也需要某种连接,那会是什么呢?我建议不要使用MySQL。它不是为t设计的传输文件(尤其是大文件)。FTP会很慢,因为我发送的是要处理的数据,而不是文件。FTP会很慢,我不会发送文件,我发送的是要处理的数据,我肯定不会使用第三方!!