并发读取php文件的次数太多


High number of concurrent read of a php file

我有一个php文件,动态地从各种来源读取信息,如

search.php?q=keyword&category=cat-number

假设我们有10,000个并发访问者。是否最好将流量分割到不同的文件(只要可能),例如

1,000 on cat1.php?q=keyword
1,000 on cat2.php?q=keyword
1,000 on cat3.php?q=keyword
....

我的意思是为每个类别创建一个搜索php文件,以便将搜索拆分到几个php文件。

当增加对单个php文件的并发访问数量时,理论上和实际上是否存在性能缺陷?

No。事实上,您的服务器反复使用相同的文件应该更容易。当使用APC时,只需要缓存该文件,操作系统文件系统也会缓存文件。甚至磁盘也可以更容易地访问文件,因为它的磁头总是在相同的位置。当然都是理论上的,实际上我想你不会注意到的。

不行,那样分割交通没有用。

您要做的事情是负载平衡,但毫无意义。拥有不同的文件除了增加开销之外不会做任何事情。此外,如果您的数据源是远程位置(另一个网站)或数据库,则执行搜索时PHP不会成为瓶颈。