Когда не оплачивают домен, сайт становится недоступным для пользователей. Но ведь он мог содержать массу полезного уникального контента, десятки-сотни-тысячи качественных внешних ссылок. Что происходит с ними? С контентом все сложно — чаще всего сам хостинг тоже отключен или удален, а вот вся полезная внешняя ссылочная масса как была, так и осталась. Только пропадает она зря.
А что происходит с сайтом с позиции поисковых систем? Был заиндексирован сайт, потом он стал недоступен, и страницы постепенно удалятся из индекса. А если этот же сайт вновь станет доступен? Тогда они быстро вернутся, а с ним и прежние позиции — адреса страниц остались на прежнем месте, контент остался прежним, все внешние ссылки на своих местах.
Возникает задача, как можно купить освободившийся домен и вернуть прежний сайт? Причем необходимо вернуть его качественно, чтобы все прежние доступные адреса страниц, статические и динамические, были доступны с тем же контентом. Для решения этой задачи и создан Archivarix.
Archivarix делает полную реструктуризацию и систематизацию контента веб-сайтов, находящихся в общем доступе Архива Интернета. Archivarix обрабатывает и подготавливает данные таким образом, что все адреса веб-страниц становятся доступными по прежним адресам, включая и динамические. Код страниц может пройти полную переработку с приведением его с соответствие со всеми принятыми стандартами; будут исправлены недостающие или незакрытые теги. Вычищаются счетчики, трекеры, подозрительные внешние фреймы и сторонняя реклама; css-стили и java-скрипты при необходимости сжимаются. Графика без потери качества оптимизируется и становится легче по размеру, вычищаются внешние ссылки, исключаются 404-ошибки за счет подстановки необходимых файлов. Все это и многое другое вы получаете в едином zip-архиве, содержимое которого совместимо с самыми минимальными требованиями хостинга.
Систематизация и оптимизация контента происходит таким образом, что средний балл в Google Pagespeed у нового сайта будет составлять порядка 90 баллов, против изначальных 40 50. Это значит, что сайт станет фактически идеальным по критериям поисковых систем с технической точки зрения, при этом тематика, контент и адреса страниц остаются прежними.
Для тех, кто стремится к полному совершенству, предусмотрена возможность перевода сайта на HTTPS-версию, где все внутренние ссылки в коде также будут переведены на HTTPS, а прежние адреса посредством 301–перенаправления плавно переведут ссылки в индексе поисковых систем на новую версию.
Систематизированный контент находится в понятной и четкой структуре, где все текстовые файлы, такие как html, css, js, xml и т. д., находятся в одной папке, а все двоичные файлы, такие как графика, видео, архивы, pdf-документы и другие, находятся в другой. Связь между этими файлами и тем, что должен показывать сайт, доступна сразу в нескольких понятных форматах — json-файле, файловой sql-базе и правилах htaccess. Вы можете использовать наши инструменты для отображения и управления сайтом либо написать свои собственные. Все сделано максимально удобно для дальнейшего использования веб-мастерами или прежними владельцами сайта.
Вариантов использования несколько. Наиболее популярный – построение собственных PBN (Private Blog Network). Это так называемые частные сети веб-сайтов или блогов, цель которых сводится к обеспечиванию ссылочной массы для продвижения основного ресурса или ресурсов. Если вы покупаете ссылки на биржах вроде Sape, то вы прекрасно знаете, что этот процесс покупки нужно сначала наращивать, а затем удерживать. Это подразумевает постоянные расходы на внешние ссылки. При этом у вас нет контроля над страницами, где эти ссылки ставятся. Случается, что сайты, продающие ссылки, злоупотребляют продажей, и они могут попасть под спам-фильтры, тем самым негативно повлияв и на ваш сайт.
Рынок истекших доменов, так называемых «дропов», очень большой. Ведь купив домен и потратив на это лишь несколько долларов, вы можете получить сразу домен, уже вышедший из-под фильтров поисковых систем, с качественными внешними ссылками. Прежние хозяева этого домена потратили немалый бюджет на продвижение своего сайта, за годы своей работы он оброс естественными ссылками с социальных сетей, форумов, блогов, информационных сайтов. И эти ссылки никуда не делись. Нужно ли объяснять, что качество этих ссылок вам не набрать ни прогонами по каталогам, ни хрумером, ни даже покупными вечными ссылками. У этого домена есть своя история, как и у его ссылок. И поисковые системы это ценят.
Купив такой домен и просто создав на нем свой сайт, вы уже получаете некоторые преимущества по сравнению с новым доменом без истории. Но эти преимущества быстро выветрятся – поисковые системы увидят, что тематика сайта резко поменялась, старого контента больше нет, и, что самое главное, все те внутренние адреса страниц, на которых до сих пор стоят внешние ссылки, больше не существуют. Очень быстро такой домен растеряет свою силу и опять может попасть под фильтр. Вот почему важно после покупки дропов показать поисковой системе, что «все в порядке, это снова я, просто, по техническим причинам временно был недоступен». С такого сайта уже можно ставить или продавать новые ссылки. Со временем плавным размещением новых страниц и заменой старых его можно безболезненно сконвертировать под новый сайт.
Вручную собрать по крупицам содержимое прежнего сайта в качественном рабочем виде практически невозможно, поверьте. Даже «сайт-визитка» из пары десятков страниц может отнять у вас несколько часов работы, ведь важны не только html-страницы, но и все java-скрипты, css-файлы, графика с элементами дизайна. Archivarix и родился именно по этой причине. Структурирование происходит таким способом, чтобы воссоздать точную структуру, которую знают поисковые системы, и улучшить то, что не повлияет на само содержимое, но повысит техническое качество самого сайта.
Но вернемся к вариантам применения: создание собственных PBN для ссылочного продвижения своих сайтов; заработок на продаже ссылок через биржи; нишевой трафик, который очень хорошо можно конвертировать; перепродажа готовых рабочих сайтов с отличными пузомерками. Ваши вложения в такой сайт могут быть лишь парой долларов.
Есть бесплатный лимит. На данный момент он составляет 1 файлов. Сайт, где файлов по предварительной оценке Archivarix меньше или точно 1, мы позволяем восстанавливать бесплатно. Без ограничений на количество сайтов.
Все, что свыше этого лимита, стоит $10 за первую тысячу файлов (1 цента за файл). Каждая последующая тысяча стоит $1. Цена рассчитывается по точному количеству файлов к скачиванию.
Пример первый: полный сайт состоял из 385 файлов. В них входят все страницы, картинки, скрипты и файлы стилей. Из этого количества 1 вам полагаются бесплатно по нашему актуальному разрешенному лимиту. Значит, платными являются лишь 384 файлов. Умножаем на цену за файл $0.01 и получаем $3.84. Цена восстановления составила $3.84!!!
Пример второй: полный сайт состоял из 25,520 файлов. Из этого количества 1 вам полагаются бесплатно по нашему актуальному разрешенному лимиту. Значит, платными являются лишь 25,519 файлов. Из них первая тысяча будет стоить $10, а остаток 24,519 расчитывается по цене $1 за каждую тысячу файлов, значит $24.519. Полная цена восстановления составила $34.52!!!
Всё! Никаких регулярных подписок, никаких дополнительных оплат за выбранную вами оптимизацию или подготовку нового архива с новыми улучшениями и функциями, введенными в будущем.
Сразу оговоримся, что в данный момент вы со стадии альфа-тестирования и, возможно, ценообразование поменяется в большую сторону, т. к. в меньшую уже некуда, вы сами видите цифры. Но все, что вы восстановите сейчас, остается навсегда у вас.
Оплата в данный момент возможна через криптовалюту Bitcoin, WebMoney и PayPal и ЮMoney. Если вы хотите оплатить картой, то используйте варианты PayPal или ЮMoney. И там и там есть возможность просто ввести данные карты без необходимости регистрации. Зачисление средств моментальное, у Bitcoin может занимать около получаса, в зависимости от скорости попадания вашего перевода в очередной блок. По причине низких цен и микроплатежей – минимальная сумма пополнения баланса составляет $10. Неиспользуемый остаток несгораемый и используется на ваши дальнейшие восстановления.
На форме восстановления есть только два обязательных поля это название домена и ваша электронная почта. Остальные параметры не обязательны. Чтобы избежать ошибок, мы подробнее опишем сначала три важных поля, которые влияют на процесс первоначального скачивания. Они важны, потому что в будущем их поменять будет нельзя. Все остальные параметры можно будет менять и бесплатно перевосстанавливать сайт заново, тестируя, какие из них вам подходят.
Итак, уделите максимум внимания этим полям:
Домен – вводите только название домена. Никаких http:// или путей страниц на сайте. Мы не рекомендуем указывать домен с www. Если сайт изначально находился на домене третьего уровня, например, domain.com.ua или вы точно знаете, что вам нужен лишь blog.domain.com, тогда можете указать с поддоменом. Но и в последнем случае с блогом мы все-таки рекомендуем указать лишь domain.com, т. к. есть вероятность, что некоторые важные файлы со скриптами или графикой находились на основном домене или на его другом поддомене. Если вы указываете только domain.com, то мы выжимаем максимум доступной информации, и вам не придется делать повторное платное восстановление с новыми параметрами.
До временной отметки – иногда этот параметр очень важен. Если домен освободился, но полгода до этого на нем висела заглушка хостинга или домен провайдера, то такая страница могла сохраниться веб-архивом, а значит в таком виде и будет восстановлена. Посмотрите, как сайт выглядел по самому последнему состоянию через Архив Интернета на адресе web.archive.org. Если там была подобная заглушка или версия сайта, которая вам не нужна, то отмотайте назад, до момента, когда увидите нужную вам версию сайта. У этой страницы в URL Архива Интернета будут цифры вида ГГГГММДДЧЧММСС. Пример: web.archive.org/web/20160314052311/… Эти цифры вам ориентировочно уже дают представление о том, когда сайт еще работал. Но не спешите копировать и вводить эти цифры в поле До. Посмотрите наше видео ниже, о том, что означают эти цифры и как правильно выбирать ограничение До. Запомните, что точные цифры ГГГГММДДЧЧММСС в урле у главной страницы, это не версия сайта и даже не версия главной страницы. Это всего-лишь точное время, когда был сохранен html код этой страницы. Все остальные элементы, такие как картинки, скрипты, стили, будут иметь свои даты и свои календари. Обязательно смотрите видео:
Иногда последние версии сохраненных страниц были 301-перенаправлением на другой сайт. Мы игнорируем такие перенаправления и скачиваем только те адреса страниц, которые без ошибок и перенаправлений отдавали содержимое (код 200 OK).
Начиная с временной отметки – по нашему опыту, этот параметр лучше не указывать вовсе, т. к. некоторые важные для работоспособности сайта файлы (файлы стилей, скрипты) могут не войти в вами ограниченный диапазон, и вы долго будете искать и гадать, почему сайт хорошо отображался в Архиве Интернета, но ваша версия восстановилась криво. Используйте только с хорошим понимаем и уверенностью. Пример случаев, когда этот параметр нужно использовать: вы восстанавливаете сайт, но до определенного времени на этом же домене был совершенно иной сайт, совершенно иной тематики и вы не хотите, чтобы его содержимое вошло в восстановление.
Еще обратите внимание, что правильно написали адрес электронной почты. Используйте только рабочую почту, т. к. дальнейшие ссылки на восстановление, изменения параметров и доступ к своему кабинету вам будут приходить на нее.
Коротко о самой схеме процесса: Вы отправляете данные через форму. Archivarix несколько минут делает точную оценку доступных данных и присылает вам детали на электронную почту. Перейдя по ссылке, вы можете подтвердить или запустить восстановление, если сайт входит в наш бесплатный лимит, либо пополнить баланс на сумму, необходимую для запуска процесса, и начать восстановление. Далее в порядке очереди сервера Archivarix выполняют трудоемкие процессы извлечения, обработки и структурирования. Когда все готово, вы получите на почту уведомление и ссылку на скачивание готового zip-архива.
Для проверки работы нашей системы мы специально для Вас приготовили тестовое восстановление. Тут содержится страница которую выдает архиварикс при завершении восстановления сайта из веб архива, для примера мы выбрали сайт fire.com за 2005 год.
Вы можете настроить новые параметры восстановления нажатием меню "Дополнительно" - "Новые параметры" и скачать zip файл с архивом сайта. Для просмотра сайта на localhost или на другом сервере обязательно измените параметры ARCHIVARIX_CUSTOM_DOMAIN в файле index.php указав в поле 'ORIGINAL' => 'fire.com' и 'CUSTOM' => 'ваш домен для теста восстановления или localhost'
Эти параметры мы рекомендуем использовать, чтобы улучшить техническое качество сайта. Именно первые четыре пункта из этого списка позволяют сделать огромный рывок вперед в Google Pagespeed и понравится поисковым системам гораздо больше, чем был сайт за лучшие времена своего существования.
Оптимизировать HTML-код – приведет html-код в соответствие с его стандартами, устранит неправильное использование тегов, добавит необходимые отсутствующие теги. Само текстовое содержимое страниц остается неизменным. Поисковые системы обожают валидный код без ошибок. С технической точки зрения, сайт код станет правильным. Но на сложных сайтах, где используется много скриптов и нестандартных атрибутов у тегов, такая оптимизация может повлиять на отображение сайта или работу элементов вроде слайдеров и меню.
Оптимизировать картинки – вычистит EXIF, IPTC и лишнюю информацию из картинок, выставит правильную цветовую субдискретизацию на 4:2:0, сменит кодировку на прогрессивное представление данных, ужмет возможное без потери качества. Слишком много умных слов. Данный параметр позволяет уменьшить графический файлы в разы без потери качества изображений. Размеры в пикселях остаются неизменны.
Сжать JS – позволяет уменьшить файлы с java-скриптами в разы за счет минификации кода. Если вы планируете редактировать скрипты на сайте, то рекомендуем отключить данную опцию и использовать сжатие gzip на стороне сервера. В редких случаях невалидного кода файл может испортиться, хотя обычно в таких случаях файл являлся битым изначально.
Сжать CSS – как и с JS, выполняет минификацию файлов с CSS-стилями. Не используйте, если планируете самостоятельно править код и внешний дизайн под себя. Сжатия можно добиться на стороне сервера.
Вычистить счетчики и аналитику – позволяет вычистить порядка 14 тысяч известных внешних счетчиков, трекеров, аналитики, подсаживаний cookie и прочей нечисти, которая вам однозначно не нужна. Это очень сложный и трудоемкий процесс, который вручную сделать невозможно. Google Analytics? Да, конечно вычищает ;) Мета-теги верификации различных сервисов и поисковых систем? Да, и это вычищает, чтобы бывший владелец не мог навредить вашему сайту через Webmaster Tools или Яндекс.Вебмастер.
Вычистить рекламу – как и вычищение счетчиков/трекеров, но нацелено на многие рекламные, баннерные сети, контекстную рекламу итд. Умеет вычищать более 17 тысыч внешних рекламных площадок.
Удалить внешние ссылки, сохранив анкоры – удаляется сам тег <a> с его параметрами, но то что было внутри тега остается. Если вы планируете продавать ссылки через биржи, то вам однозначно нужно вычистить лишнее, используя эту опцию, т. к. это ваши будущие деньги.
Удалить внешние ссылки вместе с анкорами – все, что было в теге <a> и вело на другие домены, удаляется из кода вместе с внутренним содержимым этого тега. Полезно, когда на сайте было много платных ссылок, которые не имели никакого отношения к самом сайту
Удалить кликабельные контакты – tel:, sms:, skype:, mailto:
Удалить внешние iframe выбирайте, если действительно необходимо. Дело в том, что карты гугл или видео с ютуба, это тоже <iframe>.
Сделать внутренние ссылки относительными – все используемые адреса в рамках своего домена переведет на версию без использования домена. Ссылки между доменом и субдоменом не переводятся в относительные, чтобы не нарушить работу сайта. Рекомендуем всегда использовать этот параметр.
Сделать сайт без www. – Настоятельно рекомендуем использовать этот параметр. Часто сайты не делают правильное перенаправление между версиями с www и без www, в результате чего возникают дубли страниц в индексах поисковых систем. Данный параметр позволяет избавиться от этой проблемы, т. к. дубли будут правильно склеены, но, что самое важное, вся внутренняя перелинковка, где были ссылки с www, сменится на единую версию сайта без www. Разумеется, все старые адреса с www отработают 301-перенаправление, чтобы поисковые системы правильно увидели и применили такое изменение. На остальные не www поддомены эта опция не влияет.
Сделать сайт с www. – склеивает разбросанные дубли в одну версию с www. Но все-таки рекомендуем использовать предыдущий параметр "Сделать сайт без www.". Даже если в сторонних сервисах вы видите, что на сайт стоят беклинки с www, то предыдущий параметр правильно отработает 301-перенаправление и передаст вес. Да и сама тенденция ПС и работы браузеров ведет к тому, что архаичный www желательно не использовать.
Сохранить перенаправления – если какие-то страницы внутри сайта никогда не имели контента, а служили только для перенаправлений на другую страницу в рамках этого же сайта, то эта опция воссоздаст работу таких перенаправлений. Ярким примером, могут служить сайты, созданные на Drupal. Ссылки на статьи могут в общем листинге иметь вид /node/123, которые делают редирект на /articles/Something-something. Данная опция позволяет снизить количество orphan-страниц, если доступ к таковым был только через перенаправления.
Эти параметры требуют хорошего понимания последствий такой оптимизации, т. к. будет необходима дополнительная работы в настройке сайта на хостинге.
Сделать сайт HTTPS – здесь нужно быть осторожней. Этот параметр делает сайт качественнее, т. к. он и все его внутренние ссылки (не только в html, но в css-стилях, java-скриптах, xml-фидах) будут исправлены на https, где было http. Сайт пойдет в ногу со временем, но вам будет необходимо купить к домену SSL-сертификат. Его, кстати, можно получать бесплатно через Let’s encrypt, который встроен в некоторые популярные хостинг-панели. Но если ваш сайт работал на разных поддоменах, например, был рабочий магазин на eshop.domain.com, блог на blog.domain.com и сам сайт на основном домене, то Let’s encrypt бесплатный wildcard домен не дает, и его придется купить. В первом случае мы рекомендуем слегка «заморочиться» и перевести сайт на https с бесплатным сертификатом от Let’s encrypt, т. к. это займет лишь пару кликов.
Если вы создали сайт с этим параметром и размещаете его за CloudFlare, то в настройках CF у SSL выберите режим Full. Дело в том, что по-умолчанию, CF делает все запросы к вашему серверу исключительно по HTTP. Восстановленный же сайт, получив такой запрос, перенаправит его на HTTPS версию. После этого CF опять сделает запрос по HTTP и все зациклится. Режим Full для SSL в CF позволяет делать запросы к вашему серверу такими, какими их запрашивают. При этом на вашем сервере достаточно саподподписанного сертификата.
Извлечь структурированный контент – Данный параметр является экспериментальным. Помимо самого восстановления, наша система подготовит дополнительный архив, где в разных форматах (csv, json, ndjson, xml, wxr) где будут только статьи с сайта, без лишнего кода, меню, дизайна сайта итд. Файл .wxr создан для импорта в WP. Все картинки из статей остаются в коде на своих оригинальным местах. В ближайшее время, мы выпустим плагин для Wordpress, который позволит докачать внешние картинки, в том числе напрямую из Веб-архива.
Процесс извлечения структурированного контента очень затратен по ресурсам, т.к. мы используем собственные разработки нейронных сетей с глубоким обучением. И несмотря на это, качество автоматического извлечения контента не всегда бывает приелемым.
Эти параметры достаточно хорошо описывают себя сами, и отключить их в процессе подготовки сайта вы не можете. Тем не менее, их можно переделать вручную позже, отредактировав настройки нашего лоадера (index.php):
Все отсутствующие страницы с 301-перенаправлением на главную – в доступном индексе могут оказаться не все файлы, которые когда-то были на оригинальном сайте. Так как подобные «недостающие» страницы могут иметь ценные внешние ссылки, то лучше эту ссылочную массу передать главной странице сайта, чем 404-странице с ошибкой. Поведение этого параметра можно настроить опцией ARCHIVARIX_CMS_MODE внутри файла index.php
Исключаем 404 ошибки для отсутствующих картинок – чтобы поисковая система не видела 404-ошибки и в дизайне тоже не было видно отсутствующих картинок, мы показываем 1 пиксельный прозрачный png. Поведение этого параметра можно настроить опцией ARCHIVARIX_FIX_MISSING_IMAGES внутри файла index.php
Исключаем 404 ошибки для отсутствующих js и стилей – то же самое, что и в пункте выше. Лучше выдать пустой текстовой файл, чем страницу с 404-ошибкой. Поведение этого параметра можно настроить опциями ARCHIVARIX_FIX_MISSING_JS и ARCHIVARIX_FIX_MISSING_CSS внутри файла index.php
Дата и время создания файла в точности соответствует оригиналу с Archive.org – не доказано, влияет ли на что-либо или нет, но мы решили реализовать. Ваш веб-сервер может возвращать эти данные в Last-Modified заголовке.
Сгенерировать дополнительный. json файл с полным списком всех урлов/файлов/параметров – дополнительный файл, от которого будет только польза, если вы любите json-формат и планируете создавать собственные инструменты для работы с восстановлениями от Archivarix. Вместе с этим файлом прилагается и .db файл в формате файловой базы данных Sqlite3.
Помимо восстановлений из Веб-Архива, наш сервис может скачивать живые, рабочие сайты. В форме для скачивания, есть дополнительные параметры, объяснение которых приведено ниже.
Количество файлов – Движком вы можете выставить максимальное количество файлов, которые наш паук сохранит, прежде чем остановится. Если вы не залогинены или ваш баланс составляет $0, то движок вы можете менять только в промежутке от 1 до 200 файлов. Если же на вашем балансе есть средства, то вы можете выставить значение до размера вашего баланса. Ценообразование точно такое же как и у восстановлений: первые 200 файлов бесплатны, первая 1000 файлов стоит $5, каждая последующая 1000 файлов стоит $0.5.
Частый вопрос - как узнать, какое количество файлов мне следует выставить для полного скачинвания сайта X? Ответ: К сожалению, технически это узнать заранее без скачивания всего сайта никак нельзя. Поэтому руководствуйтесь тем, сколько вы готовы потратить на скачиваие сайта и при необходимости пополните баланс, чтобы была возможность выбрать необходимое количество. При запуске скачивания, сумма блокируется с вашего баланса и в случае, если весь сайт скачается и файлов окажется меньше, разница зачисляется обратно на ваш баланс. В случае, если скачивание остановилось по лимиту, а сайт сохранен не полностью - нет возможности продолжить скачивание. Возможно только запустить новое скачивание с новым лимитом. Поэтому рекомендуем изначально поставить лимит выше того, который вы ожидаете от сайта.
Глубина ссылок – количество кликов с главной страницы, куда пойдет наш паук. Если сайт изначально был сделан качественно, с хорошей перелинковкой, то достаточно уровня 6. Максимальный уровень глубины можно поставить равным 10. Мы не даем возможности выставлять этот параметр слишком большим или снять ограничение, т.к. в случае, если на каком-то сайте паук будет хостить по страницам, где новые ссылки с контентом генерируются на лету, то такой сайт можно качать до бесконечности и вряд ли он будет иметь какую-то ценность для вас.
Другой IP сервера – если вы хотите скачать сайт, у которого домен уже освободился, но сам сайт все еще хостируется на прежнем сервере и вы знаете его ip адрес. Сайт и все его субдомены будут запрашиваться только с выставленного вами ipv4 адреса.
Восстановить с субдоменами – Обязательно включайте этот параметр. www - это тоже субдомен.
Реферер для обхода клоакинга – Некоторые дорвеи выдают рабочий сайт только если переход идет с поисковой системы. Здесь вы можете написать URL, к примеру https://google.com/, чтобы наш паук эмулировал переходы на сайт с ПС или другого сайта.
Скачать сайт через сеть Tor – Позволяет выкачивать сайты .onion. Если же эту опцию включить для сохранения обычного сайта, то заходы нашего паука будут происходить с разных ip адресов Tor, но это не всегда хорошо, т.к. многие хостеры или, к примеру, CloudFlare могут ограничивать доступ к сайту или включать проверку капчей для ip адресов Tor.
Скачать веб-сайт как – позволяет указать User-agent из возможных вариантов. Может пригодится на случай, если вам нужна мобильная версия сайта, либо сайт полноценно отдает контент только поисковым паукам.
Когда обновление завершится, вы получите уведомление об этом на электронную почту и ссылку на страницу восстановления, где можно скачать готовый zip-архив. На этой странице есть оригинал с параметрами, которые вы выбрали для восстановления. Оригинал нельзя удалить, т. к. он содержит данные, необходимые для создания своих «клонов». Оригиналы и клоны можно отличить по иконкам. Это клон, а это оригинал.
Клон – это копия вашего восстановления со своими отдельными параметрами. Для создания клона используются оригинальные скачанные данные, но все параметры, кроме названия домена и временных отметок от/до, можно задать новые. Генерация копий бесплатна и занимает меньше времени, чем начальное восстановление.
Вам нужно поменять какие-то настройки, например, не использовать минификацию css и java-скриптов, то вы можете раскрыть меню «Дополнительно» у карточки восстановления и нажать кнопку «Новые параметры». Когда zip-архив нового клона будет готов, вы получите уведомление и ссылку на электронную почту.
Клоны, которые не подошли вам по каким-либо причинам, мы рекомендуем удалить, чтобы не возникло путаницы и не был исчерпан лимит в три клона на восстановление. Если вы создали три клона и хотите создать новые, то сначала удалите неиспользуемые клоны. Обратите внимание, что клоны, находящиеся в процессе восстановления или очереди, удалить нельзя.
Для работы сайта достаточно обычного хостинга с PHP версией не ниже 5.6 и включенным расширением PDO_SQLITE. Под эти требования подходят практически все стандартные современные хостинги. В корень вашего домена на хостинге нужно загрузить содержимое папки с названием домена внутри полученного zip архива.
Мы создали собственную CMS, в которой возможно полноценно редактировать восстановленные сайты. Скачать последнюю версию можно здесь. Посмотрите видео, где показаны основные возможности нашей CMS.
Если вам нужно интегрировать восстановленный сайт с Wordpress (или другой CMS), то возможно запустить восстановленный сайт и Wordpress параллельно. Инструкция находится в README.txt файле, который идет вместо с каждым восстановлением. Восстановленный сайт будет работать на старых адресах, а все новые адреса будут передаваться в управление Wordpress.
С появлением новых параметров или улучшений/исправлений старых вам не нужно оплачивать новое восстановление. Просто создайте новый клон с нужными параметрами, и к нему будут применены все изменения, как если бы создали все с нуля. Создание клонов бесплатное.
С появлением очень важных изменений, как к примеру работа восстановленных сайтов с нашей Archivarix CMS, мы автоматически пересобираем все существующие восстановления за вас.
А мы с удовольствием расскажем, обсудим и выслушаем ваши вопросы и идеи. Обратная связь очень важна для развития Archivarix. Написать нам и получить ответ на электронную почту вы всегда можете через форму связи в разделе «Контакты» в верхнем меню сайта.
Если вы хотите что-то большее, чем задать вопрос, то приглашаем на Slack-канал Archivarix. Доступ на канал мы предоставляем через инвайты и хотим, чтобы там могли общаться люди, хорошо понимающие, что такое PBN, готовые внести активный вклад в разработку и улучшение Archivarix. Если вы уверены, что хотите стать частью истории Archivarix, то напишите нам через контактную форму и укажите, на какую электронную почту вам нужно выслать инвайт.
Еще мы создали группу Archivarix в Telegram. Практика покажет, насколько она будет нужна для общения между разработчиками и веб-мастерами. Вступить в нее просто – в разделе «Задать вопрос» выберите вкладку Telegram для просмотра инструкции и адреса.
Ну и если что-то пошло не так, вы обнаружили ошибку, есть вопросы по вашему восстановлению, хотите нас подбодрить или раскритиковать, то вы всегда можете ответить на любое электронное письмо, которое система отправляет вам в виде уведомлений. Мы ежедневно читаем почту и постараемся помочь.