Если вы не знаете на каком сайте из веб архива проверить нашу систему - скачайте тестовое восстановление.
Чтобы посмотреть восстановление локально без использования хостинга, рекомендуем установить XAMPP сервер на ваш компьютер. Во время установки вам достаточно выбрать только Apache и PHP.
Цены восстановления
Сайт содержит
до 200 файлов
Сайты, которые содержат до 200 файлов, стоят всего $0.25.
Сайт содержит
201-1200 файлов
Большинство сайтов, которые восстанавливают наши пользователи, содержат до 1000 файлов и стоят менее $4.
Сайт содержит
более 1200 файлов
Если нужный вам сайт содержит более 1200 файлов, то каждая последующая тысяча файлов будет стоить всего один доллар.
Онлайн сервис скачивания сайтов и конвертации на CMS.
Скачайте полностью работоспособную копию сайта! Возможность скачивать .onion сайты!
Если вы не знаете на каком сайте из веб архива проверить нашу систему - скачайте тестовое восстановление.
Чтобы посмотреть восстановление локально без использования хостинга, рекомендуем установить XAMPP сервер на ваш компьютер. Во время установки вам достаточно выбрать только Apache и PHP.
Цены скачивания
Сайт содержит
до 200 файлов
Сайты, которые содержат до 200 файлов, стоят всего $0.25.
Сайт содержит
201-1200 файлов
Большинство сайтов, которые скачивают наши пользователи, содержат до 1000 файлов и стоят менее $4.
Сайт содержит
более 1200 файлов
Если нужный вам сайт содержит более 1200 файлов, то каждая последующая тысяча файлов будет стоить всего один доллар.
Со временем внешние ссылки в записях Wordpress неизбежно ломаются, страницы удаляются, домены истекают, видео становятся недоступными. Проверять сотни или тысячи ссылок вручную непрактично. Archivarix Broken Links Recovery автоматизирует этот процесс: плагин сканирует контент, находит битые ссылки и заменяет их рабочими копиями из Wayback Machine.
Триллион сохранённых страниц. Более 99 петабайт данных. Сотни краулов, работающих каждый день одновременно. За этими цифрами стоит вопрос, который задаёт себе каждый, кто профессионально работает с веб-архивами: как именно Wayback Machine решает, какие сайты сканировать, как часто возвращаться к ним, и почему одни домены представлены в архиве тысячами снэпшотов, а другие имеют всего несколько записей за десять лет?
Понимание этих механизмов критически важно для всех, кто занимается восстановлением сайтов. Если вы знаете, как работает система изнутри, вы можете предсказать, что найдёте в архиве, а чего там не будет. И можете повлиять на архивирование собственных сайтов, пока они ещё живы.
Покупка истёкшего домена с историей это один из самых эффективных способов запустить новый проект с уже существующим ссылочным профилем, трастом и даже трафиком. Вместо того чтобы продвигать голый домен с нуля, вы получаете площадку, которую поисковые системы уже знают и которой в какой-то степени доверяют.
Когда речь заходит о восстановлении сайтов из архивов, почти все думают только о Wayback Machine. Это понятно: archive.org на слуху, у него удобный интерфейс, триллион сохранённых страниц. Но Wayback Machine не единственный крупный веб-архив в мире. Существует проект, который по объёму собранных данных сопоставим с Internet Archive, а в некоторых аспектах даже превосходит его. Этот проект называется Common Crawl, и о нём удивительно мало знают даже люди, профессионально работающие с веб-архивами.
Мы выпустили браузерное расширение Archivarix Cache Viewer. Оно доступно сразу для трёх браузеров: Chrome, Edge и Firefox. Расширение бесплатное и без какой-либо рекламы.
Суть простая: быстрый доступ к кешированным и архивным версиям любой веб-страницы из контекстного меню браузера. Не надо больше вручную копировать URL, открывать Wayback Machine и вставлять туда адрес. Кликнул правой кнопкой, выбрал нужный архив, готово.