我正在使用CURL在服务器之间发送大量数据,正在使用POST,这可以吗?或者有什么更好/标准的方法可以用CURL发送大型序列化数据吗?
问题是php设置中的最大帖子大小,我必须更改它(默认为2MB)。我还没有遇到任何问题,但当系统联机时,每次可能会发送大于50MB的数据!
有什么想法吗?非常感谢。
编辑:
我发送的是DATA,而不是FILES,一旦接收到数据,第二台服务器就应该对其进行处理,并将其保存到数据库/file/执行一些操作,并且可能需要在处理数据后发送响应。
我只是想知道,除了最大帖子大小,我还会面临其他问题吗?(忘记curl和php的超时),有没有办法让服务器不看max_postrongize?也许通过使用PUSH?还是PUT?postrongize会影响PUSH或PUT吗??以及如何通过curl使用它?这么多问题!
使用cURL是非常好的。
就我个人而言,我宁愿不必通过web服务器(例如Apache)来完成,因为在这一过程中可能会有太多潜在的故障,例如PHP超时、web服务器超时、内存限制、没有写入权限、仅限于web根等。
我更喜欢通过为文件传输设计的机制来实现:
- FTP
scp
(通常是SSH上的FTP)- Dropbox(有API)
- Amazon S3(带有PHP库的简单API)
- 等等
方法还可以。
还有两个想法:
- 使用FTP(您可以将大型序列化文件上载到可从服务器访问的FTP服务器
- 使用mysql(可以将大型序列化内容存储在mysql服务器上)