我有服务器A和服务器B交换一些数据。服务器A在用户请求时使用简单的file_get_content和一些参数从服务器B提取数据,因此服务器B可以执行所有任务(数据库等)并将结果返回给A格式化并显示给用户。
现在我感兴趣的是什么是最快的方法?我对服务器B的平均响应做了一些测试和平均传输时间(~0.2秒)。在那0.2秒,0.1秒,大约。是服务器B的操作时间(提取数据调用几个数据库等),这意味着50kb的平均传输时间为0.1秒(服务器不在同一网络中)
我应该试试:
- cURL代替file_get_content
- 或者尝试用套接字做整个事情(我从来没有在PHP中使用套接字,但我想这很容易做到,这样就可以跳过web服务器)
- 还是第三个?
我认为时间可以在缩短连接建立上"找到",因为现在,每个请求都是新连接启动(我的意思是单独的file_get_content调用,或者我错了?)
请给我你的建议,在哪些方向尝试,或者如果你有一些更好的解决方案,我听。
:
function curl($url)
{
$ch = curl_init();
curl_setopt ($ch, CURLOPT_URL,$url);
curl_setopt ($ch, CURLOPT_USERAGENT, "Mozilla/5.0 (Windows; U; Windows NT 5.1; en-US; rv:1.8.1.6) Gecko/20070725 Firefox/2.0.0.6");
curl_setopt ($ch, CURLOPT_TIMEOUT, 60);
curl_setopt ($ch, CURLOPT_FOLLOWLOCATION, 1);
curl_setopt($ch, CURLOPT_HEADER, 0);
curl_setopt ($ch, CURLOPT_RETURNTRANSFER, 1);
$result = curl_exec ($ch);
curl_close($ch);
return $result;
}
套接字:
function sockets($host) {
$fp = fsockopen("www.".$host, 80, $errno, $errstr, 30);
$out = "GET / HTTP/1.1'r'n";
$out .= "Host: www.".$host."'r'n";
$out .= "Connection: Close'r'n'r'n";
fwrite($fp, $out);
$f='';
while (!feof($fp)) {
$f .= fgets($fp, 1024);
}
return $f;
}
函数 function fgc($url){
return file_get_contents($url);
}
Multicurl
function multiRequest($data,$nobody=false,$options = array(), $oneoptions = array())
{
$curls = array();
$result = array();
$mh = curl_multi_init();
foreach ($data as $id => $d)
{
$curls[$id] = curl_init();
$url = (is_array($d) && !empty($d['url'])) ? $d['url'] : $d;
curl_setopt($curls[$id], CURLOPT_URL, $url);
curl_setopt($curls[$id], CURLOPT_HEADER, 0);
curl_setopt($curls[$id], CURLOPT_RETURNTRANSFER, true);
curl_setopt($curls[$id], CURLOPT_FOLLOWLOCATION,1);
curl_setopt($curls[$id], CURLOPT_USERAGENT,"Mozilla/5.0(Windows;U;WindowsNT5.1;ru;rv:1.9.0.4)Gecko/2008102920AdCentriaIM/1.7Firefox/3.0.4");
//curl_setopt($curls[$id], CURLOPT_COOKIEJAR,'cookies.txt');
//curl_setopt($curls[$id], CURLOPT_COOKIEFILE,'cookies.txt');
//curl_setopt($curls[$id], CURLOPT_NOBODY, $nobody);
if (!empty($options))
{
curl_setopt_array($curls[$id], $options);
}
if (!empty($oneoptions[$id]))
{
curl_setopt_array($curls[$id], $oneoptions[$id]);
}
if (is_array($d))
{
if (!empty($d['post']))
{
curl_setopt($curls[$id], CURLOPT_POST, 1);
curl_setopt($curls[$id], CURLOPT_POSTFIELDS, $d['post']);
}
}
curl_multi_add_handle($mh, $curls[$id]);
}
$running = null;
do
{
curl_multi_exec($mh, $running);
}
while($running > 0);
foreach($curls as $id => $content)
{
$result[$id] = curl_multi_getcontent($content);
//echo curl_multi_getcontent($content);
curl_multi_remove_handle($mh, $content);
}
curl_multi_close($mh);
return $result;
}
测试:
$url = 'example.com';
$start = microtime(1);
for($i=0;$i<100;$i++)
curl($url);
$end = microtime(1);
echo "Curl:".($end-$start)."'n";
$start = microtime(1);
for($i=0;$i<100;$i++)
fgc("http://$url/");
$end = microtime(1);
echo "file_get_contents:".($end-$start)."'n";
$start = microtime(1);
for($i=0;$i<100;$i++)
sockets($url);
$end = microtime(1);
echo "Sockets:".($end-$start)."'n";
$start = microtime(1);
for($i=0;$i<100;$i++)
$arr[]=$url;
multiRequest($arr);
$end = microtime(1);
echo "MultiCurl:".($end-$start)."'n";
?>
结果:
- Curl: 5.39667105675
file_get_contents: 7.99799394608
Sockets:2.99629592896
MultiCurl: 0.736907958984
最快的方法是什么?
把你的数据放在闪存盘上。
现在严重。
拜托,是网络慢了。你不能让它更快。
为了使服务器A响应更快,不要从服务器b请求数据,这是唯一的方法。
你可以复制你的数据或缓存它,或者干脆放弃这样一个笨拙的设置。
但是,只要您必须对每个用户的请求进行网络查找,它就会很慢。不管你用的是什么方法。问题不在于方法,而在于媒介。这不是很明显吗?
您可以尝试另一种不同的方法:在本地机器上挂载远程文件系统。您可以使用sshfs这样做,因此您将获得加密连接的额外安全性。