拍摄一张巨大的网页截图(大小超过1350x13500px)


Take a huge screenshot of a webpage (over 13500x13500px size)

我有大约3000张256x256px大小的图像(但有些是50x256,有些是256x100左右),我希望将它们合并成一张大图。图像显示在网页中,因此最简单的方法是对所述网页进行截屏。网页的图片大约为1350x13500px!理论上,我可以下载所有的图像并将它们合并在一起(使用类似位图()或CopyImage()之类的东西,但我真的希望使用更简单的解决方案)。哦,这个3000->1是我总共要做的120个案例之一。

我尝试了几种方法,但都没有成功:

  • phantomJS(.exe在一段时间后崩溃)
  • CutyCaps(.exe在一段时间后崩溃)
  • Firefox的"屏幕截图--完整页面bla.png"(异常崩溃,自firefox诞生以来,已知的大页面问题)
  • SeleniumSDK(FirefoxDriver,一段时间后崩溃)
  • html2canvas(崩溃或无法启动)
  • javascript和canvas的基础工作(失败得很惨)
  • firefox的十几个顶级扩展(那么需要很长时间崩溃或产生损坏的图像)
  • Chrome的十几个顶级扩展崩溃或产生损坏的图像)

唯一运行良好的服务是http://web-capture.net但我真的希望有一个离线/本地的方法来生成图像,因为我必须访问任何第三方网站的次数太多了。

如果有人能为我提供更好的离线服务或解决方案,我将不胜感激。任何工作代码片段(最好是php/javascript/java/selement/c#)都将受到高度赞赏。

关于项目本身的更多信息:

源数据是一张细胞的照片,用传单JS(类似于谷歌地图)显示。我制作了一个网络抓取器,它从查看器页面中提取所有数据,并将它们显示为一张巨大的图片,由数千张其他较小的图像(有时大小不同)组成。组织学课程有大约120张不同的图像,我希望将它们存储在本地,因此完成了整个练习。此外,为了让东西变得有趣,每个图像都有不同的大小,但假设它有大约55-60列和50-80行256x256的小图像,形成了大画面。

以下是我所说内容的预览:

http://89.215.196.209/Anatomy%20%28Histology%29%20data%20parser.htm

很抱歉发了这么长的帖子,吃块饼干吧

实际上我刚刚安装并检查了64倍版本的wkhtmltoimage,它运行得很好。