SiteSucker

SiteSucker

macOS应用程序,可从Internet自动下载网站。它通过将站点的网页,图像,PDF,样式表和其他文件异步复制到本地硬盘驱动器,从而复制站点的目录结构来实现此目的。
SiteSucker是Macintosh应用程序,可以从Internet自动下载网站。它通过将站点的网页,图像,PDF,样式表和其他文件异步复制到本地硬盘驱动器,从而复制站点的目录结构来实现此目的。只需输入一个URL(统一资源定位符),按回车键,SiteSucker就可以下载整个网站。SiteSucker可用于制作网站的本地副本。默认情况下,SiteSucker将下载的文件“本地化”,使您可以脱机浏览站点,但是它也可以下载站点而无需修改。
sitesucker

分类目录

Mac版SiteSucker的替代品

Wget

Wget

GNU Wget是一个免费软件包,可使用HTTP(S)和FTP(最广泛使用的Internet协议)检索文件。
HTTrack

HTTrack

网站复制服务,可下载整个网站并在本地递归地构建它们。
ScrapBook

ScrapBook

ScrapBook是Firefox扩展,可帮助您保存网页和管理馆藏。主要功能包括轻巧,速度,准确性和多语言支持。
Mozilla Archive Format

Mozilla Archive Format

使用以下格式之一将完整的网页保存为单个文件:MAFF(Mozilla存档格式文件)或MHTML(Internet Explorers MHT)。
PageArchiver

PageArchiver

PageArchiver(以前称为“ SingleFile剪贴簿”)是一个Chrome扩展程序,可帮助您存档网页以供离线阅读。主要功能包括:
ScrapBook X

ScrapBook X

ScrapBook X是基于ScrapBook Plus的Firefox插件,还集成了最新版本ScrapBook中的一些功能。
grab-site

grab-site

抓取站点是用于将网站归档到WARC文件的爬网程序。它包括一个用于监视多个爬网的仪表板,并支持在爬网期间更改URL忽略模式。
wpull

wpull

Wpull是与wget兼容的Web下载器和搜寻器,具有WARC和Python / Lua脚本支持
WebScrapBook

WebScrapBook

浏览器扩展程序,可高度自定义地忠实捕获网页。
WebCopier

WebCopier

WebCopier是一个易于使用的网站镜像实用程序。它允许下载整个网站,将其存储在本地,然后在用户方便时查看它们。
Maria

Maria

您想离线阅读自己喜欢的网站吗?
  • 免费应用
  • Mac
Fossilo

Fossilo

Fossilo.com持续将完整的网站存档为pdf和其他多种格式,以便将来轻松打开和查看而无需任何依赖。您可以浏览平台内的档案,也可以将其作为独立的软件包下载。
Offline Pages Pro

Offline Pages Pro

Offline Pages Pro可能是世界上最先进的离线浏览器。下载具有所有格式,文档,视频和客户端交互性的整个网站,以便您可以脱机浏览-无需任何Internet连接。
Web Dumper

Web Dumper

从Internet上下载整个网站,然后将其保存在硬盘上...
Blue Crab

Blue Crab

Blue Crab是一款多功能应用程序,可用于将网站内容全部或部分下载到Mac,然后进行搜索。
  • 付费应用
  • Mac