WebArchiveMaster - парсер Вебархива2

Webfrilanser

Новичок
Регистрация
07.12.2017
Сообщения
23
Благодарностей
0
Баллы
1
Отправил, но в базе вы есть. Только что проверил - всё скачивается и распаковывается. Используется новый архиватор, старый распаковать не сможет.
Какой новый Архиватор нужно использовать скажите пожалуйста???? а то я Винраром пытаюсь распаковать и вот что мне пишет http://prntscr.com/k2k7ir
 

footashes

Client
Регистрация
20.02.2015
Сообщения
1 051
Благодарностей
440
Баллы
83

Webfrilanser

Новичок
Регистрация
07.12.2017
Сообщения
23
Благодарностей
0
Баллы
1
Спасибо скачал архив с ParserDomens распаковал нашёл в выдаче под нужную мне тему Рабалка несколько доноров с ТОП 10, закинул их в файл Domens и Запустил - Зенку, добавил задание выбрав файл ParserDomens и пошла проверка доменов, пишет что Нужных данных в Вебархиве НЕТ оставляем типа для ручной проверки и переходим к другому домену потом так с несколькими доменами прошло и только из 6 сайтов 1 нашёлся в Вебархиве и начилась проверка страниц и нашлось 1045 страниц и на этих страницах потихоньку находились дропы, но Дропы в файле Спаршенные домены повторяются и много раз повторяются и так как страниц много я в файле Чистая карта удалил много страниц оставил 145 штук, они проверялись, дропы находились, ну все одинаковые восновном несколько попалось разных, потом как парсинг был завершён и домены закончились в файле Domens, я зашёл в файл Спаршенные домены и там куча одинаковых доменов, ну я поудалял дубли и закинул файл Спаршенные домены в папку 200ОК, там какое то Приложение httpanswer, запустил его и где написано: ЗАДАЙТЕ ИСХОДНЫЙ ФАЙЛ я там выбрал место тоесть папку 200ОК и выбрал файл Спаршенные домены и нажал на кнопку СТАРТ, после чего увидел какие то подсчеты цифры побежали и вообщем когда всё приостановилось и не чего больше не происходило я посмотрел появились какие то файлы в папке 200ОК, файлы имеют названия: 2xx, 3xx, 4xx, 5xx, noanswer, other, что это за папки я так и не понял если честно, но зайдя в каждый из файлов увидел тоже самое почти что и в файле Спаршенные домены, тоесть по несколько раз повторяются одни и теже домены, причём в каждом файле, я кароче вручную УДАЛИЛ ДУБЛИ ДОМЕНОВ и НАЧАЛ ИХ ПРОВЕРЯТЬ И ВСЕ ОНИ ОКАЗАЛИСЬ ДОСТУПНЫ ТОЕСТЬ НА НИХ РАБОЧИЕ САЙТЫ В ИТОГЕ НЕ ОДНОГО ДРОПА Я ТАК И НЕ ДОБЫЛ!!! footashes - Скажите пожалуйста может я что то сделал не правильно???? и что значат эти файлы в папке 200ОК ??? Хочу по рыбалке Дропов найти и не получается!!!
 

footashes

Client
Регистрация
20.02.2015
Сообщения
1 051
Благодарностей
440
Баллы
83
Спасибо скачал архив с ParserDomens распаковал нашёл в выдаче под нужную мне тему Рабалка несколько доноров с ТОП 10, закинул их в файл Domens и Запустил - Зенку, добавил задание выбрав файл ParserDomens и пошла проверка доменов, пишет что Нужных данных в Вебархиве НЕТ оставляем типа для ручной проверки и переходим к другому домену потом так с несколькими доменами прошло и только из 6 сайтов 1 нашёлся в Вебархиве и начилась проверка страниц и нашлось 1045 страниц и на этих страницах потихоньку находились дропы, но Дропы в файле Спаршенные домены повторяются и много раз повторяются и так как страниц много я в файле Чистая карта удалил много страниц оставил 145 штук, они проверялись, дропы находились, ну все одинаковые восновном несколько попалось разных, потом как парсинг был завершён и домены закончились в файле Domens, я зашёл в файл Спаршенные домены и там куча одинаковых доменов, ну я поудалял дубли и закинул файл Спаршенные домены в папку 200ОК, там какое то Приложение httpanswer, запустил его и где написано: ЗАДАЙТЕ ИСХОДНЫЙ ФАЙЛ я там выбрал место тоесть папку 200ОК и выбрал файл Спаршенные домены и нажал на кнопку СТАРТ, после чего увидел какие то подсчеты цифры побежали и вообщем когда всё приостановилось и не чего больше не происходило я посмотрел появились какие то файлы в папке 200ОК, файлы имеют названия: 2xx, 3xx, 4xx, 5xx, noanswer, other, что это за папки я так и не понял если честно, но зайдя в каждый из файлов увидел тоже самое почти что и в файле Спаршенные домены, тоесть по несколько раз повторяются одни и теже домены, причём в каждом файле, я кароче вручную УДАЛИЛ ДУБЛИ ДОМЕНОВ и НАЧАЛ ИХ ПРОВЕРЯТЬ И ВСЕ ОНИ ОКАЗАЛИСЬ ДОСТУПНЫ ТОЕСТЬ НА НИХ РАБОЧИЕ САЙТЫ В ИТОГЕ НЕ ОДНОГО ДРОПА Я ТАК И НЕ ДОБЫЛ!!! footashes - Скажите пожалуйста может я что то сделал не правильно???? и что значат эти файлы в папке 200ОК ??? Хочу по рыбалке Дропов найти и не получается!!!
Всё, что можно было неправильно сделать, было сделано на 99%. До футбола сделаю видео, перепишу помощь и разошлю. Насчет поисков дропов по рыбалке, попугаям и другим узким тематикам - ParserDomens работает по методике вероятностей - чем уже тематика, тем меньше шансов. Если у вас сайт по дрессировке жирафов - какая вероятность, что найдется ещё один такой брошенный сайт.

Это работает так - вы находите сайт по, например, здоровому образу жизни. Очень большая вероятность, что комментарии (со своей ссылкой) оставляют люди с такой же или близкой тематикой (как правило, так и есть). И очень большая вероятность, что многие эти сайты уже брошены. Парсер работает по методике - собирает ссылки и пишет в файл.
 
Последнее редактирование:

Webfrilanser

Новичок
Регистрация
07.12.2017
Сообщения
23
Благодарностей
0
Баллы
1
Всё, что можно было неправильно сделать, было сделано на 99%. До футбола сделаю видео, перепишу помощь и разошлю. Насчет поисков дропов по рыбалке, попугаям и другим узким тематикам - ParserDomens работает по методике вероятностеАй - чем уже тематика, тем меньше шансов. Если у вас сайт по дрессировке жирафов - какая вероятность, что найдется ещё один такой брошенный сайт.

Это работает так - вы находите сайт по, например, здоровому образу жизни. Очень большая вероятность, что комментарии (со своей ссылкой) оставляют люди с такой же или близкой тематикой (как правило, так и есть). И очень большая вероятность, что многие эти сайты уже брошены. Парсер работает по методике - собирает ссылки и пишет в файл.
а что конкретно я сделал не правильно почему я не говорю про Узкую тематику я назвал тематика Рыбалка а это не узная тематика я не сказал что мне нужны статьи по теме Зимняя рыбалка на Окуня или Зимняя рыбалка на Щуку и так далее что относится к Зимней рыбалке! Просто нету конретного видео по работе ParserDomens чтобы можно было наглядно смотреть и настраивать всё так же а ещё было бы лучше если голосом комментировать думаю всем кто покупал парсер у вас было бы Очень полезное данное видео!
 

deonisii

Client
Регистрация
23.03.2012
Сообщения
96
Благодарностей
14
Баллы
8
Добрый день. Оплатил на Яндекс, за комплект WebArchiveMaster
 
Последнее редактирование:

deonisii

Client
Регистрация
23.03.2012
Сообщения
96
Благодарностей
14
Баллы
8
Что делать если archive.org заблочен провайдером? Пробовал так же покупные прокси (РФ), тоже самое ничего не работает.

Или дело в браузере.
В файрфоксе страница вообще не загружается.
В хроме очень хуёво.
В опере замечательно загружается.
 
Последнее редактирование:

Medvedoc

Client
Регистрация
01.04.2017
Сообщения
164
Благодарностей
10
Баллы
18
Доброе утро =) написал вам на почту по поводу шаблона под вебархив. А где я могу посмотреть информацию по остальным вашим шаблонам?
 

dimkinpark

Client
Регистрация
05.04.2015
Сообщения
27
Благодарностей
6
Баллы
3
Оплатил) Ждемс.
 

footashes

Client
Регистрация
20.02.2015
Сообщения
1 051
Благодарностей
440
Баллы
83
Небольшой обзор, как работать с комплексом программ по Вебархиву (читайте помощь - 99.9% ответов на нестандартные ситуации находятся там). Покажу примеры работы парсера Вебархива - WebArchiveMasters V2.4 с примерами, разберем принцип работы ParserDomens - как он работает и за что отвечает, рассмотрим принцип восстановления сайта (с видео), вскользь затронем проверку через Text.ru и Content-watch, затронем и Дзен v2.2.

WebArchiveMasters - принцип работы (вкратце):

Забираем только текст, формируем данные для проверки на уникальность. Это основная задача Мастера Вебархива - забрать текст и подготовить его к проверке. Как это происходит:

Формирование данных.jpg


Скачиваем все текста и формируем данные для проверки на уникальность.

Домены по названию.jpg


Файлы складываем в домены, чтобы не путаться.


Тайтлы.jpg


Формируем названия файлов

Готовый текст.jpg


В готовом тексте находятся тайтлы (если они есть). Они нам нужны, чтобы было от чего отталкиваться при названии статьи. (продажа или использование для своих сайтов)

Есть много интересных решений по парсеру WebArchiveMasters. Например - дать выбор для парсинга определенного промежутка времени. Например, брать только текст с 2010 до 2013 годов (еще раз - парсер вебархива забирает весь текст, который может забрать на полном автомате. Именно для этого он и предназначен. Излишняя гибкость, чтобы дать пользователю управлять данными может сыграть злую шутку. Всегда можно сделать что-то не так).

Также можно вынести настройки проверки доменов, которые вы скачиваете списком с регистраторов просроченных доменов. Можно дать управление, что, если при проверке этого домена парсер нашел мало ссылок, занести этот домен в "черный список" и игнорировать его (эти проверки сделаны изначально, но они жестко "вшиты" и гласят - если в домене менее семи ссылок, игнорировать его, но не заносить в "черный список", а проверить, записать текст в домен и дать пользователю самому делать выбор - удалять эти файлы или нет.

Именно поэтому у вас в некоторых доменах по 5-6 текстов - это "мусорные" домены со списка регистраторов (даже по ключам). Тем не менее, они обрабатываются и вам решать - нужны они вам или нет. Для этих случаев вам нужно использовать методику на вероятностях, иначе у вас не хватит мощностей и времени для обработки.

Поэтому можно вынести ключевые настройки, чтобы дать выбор самим решать, нужно вам это или нет. Но это усложнит технику работы, так-как Мастер Вебархива предназначен просто запустить и забыть - он сам всё сделает.

Пример готовых текстов с дропа arsvita.net - скачать и посмотреть

ParserDomens - за что отвечает и что делает

Принцип работы ParserDomens - автоматизированная работа по методике. Здесь я покажу основные принципы работы:

attachFull30805

Принцип работы - вставляете домен и он забирает ссылки. Здесь много тонкостей - какой домен, какие ссылки (есть много разных конструкций, типа GOTO или SPF, и многие другие, которые вычисляются только на практике, сложные сниппеты здесь не помогут. Именно поэтому я прошу прислать логи Зеннопостера или нестандартный домен, так как я не могу объять необъятное (никто ничего не присылал).

Парсер доменов настройки.jpg


Программа забирает домены со страницы (а их может быть и десятки и сотни). При работе программы не нужно ничего трогать.

Парсер доменов поиск.jpg



Реализованна проверка на дубли, и, самое главное, "черный список" стандартных доменов - реклама, скрипты, cdn и т.д.

Парсер доменов блеклист.jpg


После получения доменов можно выбрать технические и скопировать в блеклист.

Пример поиска доменов в сайте arsvita.net - скачать и посмотреть

Восстановление готового сайта

Принцип работы - получить структуированный сайт в формате HTML. Его нужно забросить на хостинг, со временем перенести на CMS. Либо сразу продать. Нужно заметить, что восстанавливать имеет смысл, если сайт действительно интересен и имеет смысл тратить на него время. В других случаях лучше просто забирать текст.

Небольшой видеообзор готового сайта:



Принцип работы Textru и Content-watch - автоматическая проверка текста на уникальность с помощю прокси.

Проверка на уникальность:



Как я применяю применяю текста из Вебархива. Ищется тематика, набираются текста и проверяются на уникальность. Как только наберется достаточно статей, идем на Телдери и за копейки покупаем трастовый домен вашей тематики. Такой домен имеет вес в глазах ПС, также его можно добавить во все биржи.

Уникальный (оригинальный) текст имеет огромное значение для интернета. Такой текст вы всегда можете продать, использовать для своих сайтов, использовать для рекламодателей (ГГЛ, Ротапост, Миралинкс, Вебартекс), бирж покупки текстов (Етекст, ТекстСале и т.д.).

WebArchiveMastersV2.3 - парсер Вебархива + Дзен v2.2 + Антиплагиат + Мануал + Content Watch + ParserDomens. Восстановление всего сайта из Вебархива. Полностью готовый сайт, остается только залить на сервер. Пригодится для своих сайтов.

Цена - 500 рублей. Шаблон полностью открытый и без привязок.

Вебмани: Z251978534905, R282711380496
Яндекс-Деньги: 410011187505134
Киви - +7 961 999‑51‑37
PayPal - [email protected]
 

Вложения

Последнее редактирование:
  • Спасибо
Реакции: one

Webfrilanser

Новичок
Регистрация
07.12.2017
Сообщения
23
Благодарностей
0
Баллы
1
Отправляю. Сегодня ночью будет описание принципов работы по всей ветке Вебархива. От Мастера Вебархива до проверки текстов и откровений работы с биржами и сайтами. Ну и много интересного. С примерами парсинга и жизненных примеров, что и как работает. Не пропустите.
Хорошая новость Ждёмс!!!:-)
 

footashes

Client
Регистрация
20.02.2015
Сообщения
1 051
Благодарностей
440
Баллы
83
Хорошая новость Ждёмс!!!:-)
Слишком много информации, форум такие данные распределяет по частям, поэтому, во избежание потери данных, перепишу в pdf.
П.С.
Небольшой срыв по срокам, приехали друзья - лето, жара, шашлыки, пляж - постараюсь сделать сегодня к вечеру в формате форума. Всё уже было подготовлено - видео, как я пришел к Вебархиву - и вот так.
 
Последнее редактирование:
  • Спасибо
Реакции: one

Webfrilanser

Новичок
Регистрация
07.12.2017
Сообщения
23
Благодарностей
0
Баллы
1
Слишком много информации, форум такие данные распределяет по частям, поэтому, во избежание потери данных, перепишу в pdf.
П.С.
Небольшой срыв по срокам, приехали друзья - лето, жара, шашлыки, пляж - постараюсь сделать сегодня к вечеру в формате форума. Всё уже было подготовлено - видео, как я пришел к Вебархиву - и вот так.
Хорошо Ждёмс!
 

deonisii

Client
Регистрация
23.03.2012
Сообщения
96
Благодарностей
14
Баллы
8
Подскажите по Дзен. Проект работал нормально, после перезагрузки пишет "Ошибка свитча".
 
Последнее редактирование:

footashes

Client
Регистрация
20.02.2015
Сообщения
1 051
Благодарностей
440
Баллы
83
Подскажите по Дзен. Проект работал нормально, после перезагрузки пишет "Ошибка свитча".
Нужно больше информации - код ошибки или скриншот (на почту). Но так, навскидку - если используется постинг своих статей, у фото должно быть расширение .jpg, а не jpeg, JPG, bmp и т.д.
 
Последнее редактирование:

footashes

Client
Регистрация
20.02.2015
Сообщения
1 051
Благодарностей
440
Баллы
83
Нужно больше информации - код ошибки или скриншот (на почту). Но так, навскидку - если используется постинг своих статей, у фото должно быть расширение .jpg, а не jpeg, JPG, bmp и т.д.
Так, отправил, но на всякий продублирую. После этой правки регистр перестанет иметь значение. Вот так можно сделать - открыть Проджект Мекер, изменить свитч и сохранить проект. После этого будут правильно вставлятся картинки с расширением jpg и JPG (для Зеннопостера они считаются разными). Разумеется, самостоятельно руками расширение у файлов менять нельзя, иначе можно doc поменять на jpg и попробовать загрузить. Сразу возникнет надпись, что формат не поддерживается.
Switsh.gif
 

Vita1980

Client
Регистрация
14.02.2017
Сообщения
12
Благодарностей
4
Баллы
3
Здравствуйте. в краулере, веб архив не отдает данные, в чем может быть причина?
 

Skandar

Новичок
Регистрация
09.11.2016
Сообщения
1
Благодарностей
0
Баллы
1

footashes

Client
Регистрация
20.02.2015
Сообщения
1 051
Благодарностей
440
Баллы
83
Столкнулся с такой же проблемой.
Возможно, у них было обновление серверов и данных. У меня сейчас все работает. Если вы используете домены по ключам, возможно, что в 90% там действительно нет данных, попробуйте посмотреть вручную. Как правило, это выглядит так:

Screenshot_1.jpg
 

Vita1980

Client
Регистрация
14.02.2017
Сообщения
12
Благодарностей
4
Баллы
3
в том то и дело что вручную все ок.
Да, все заработало).
 
Последнее редактирование:

footashes

Client
Регистрация
20.02.2015
Сообщения
1 051
Благодарностей
440
Баллы
83

footashes

Client
Регистрация
20.02.2015
Сообщения
1 051
Благодарностей
440
Баллы
83
Сегодня доделаю постер по фри блогам. Идея такая - вы публикуете статьи на своем сайте и их сразу нужно загнать в индекс. Загнать бота можно с трастовых блогов. Я раньше работал по такой схеме, это давало хорошие результаты. Работает по принципу плагина SNAP.

Пока подключил пять блогов, хочу сделать комбайн - минимум 20 фриблогов, все соцсети и чтобы всё отправлялось одним нажатием. Если есть интересные фриблоги, присылайте, я их попытаюсь подключить.

Тестовую версию разошлю через пару дней для тестирования. Если будет иметь смысл, то продолжу работу над шаблоном.
Screenshot_1.jpg
 
  • Спасибо
Реакции: Vita1980

player_kid

Client
Регистрация
05.07.2017
Сообщения
5
Благодарностей
0
Баллы
1
Добрый день, оплатил на киви
 

footashes

Client
Регистрация
20.02.2015
Сообщения
1 051
Благодарностей
440
Баллы
83

Vadim321

Client
Регистрация
06.01.2017
Сообщения
10
Благодарностей
1
Баллы
3
@footashes
Приветствую. Сегодня купил твой парсер по этой ссылке: https://primearea.biz/product/134651/

Что-то я немного не понял, как правильно прописать ссылку (т.е. как должна выглядеть ссылка) в Create full-text feed from feed or webpage URL - Enter URL

Вид самой ссылки какой-должен быть?

Если можно пример
 

footashes

Client
Регистрация
20.02.2015
Сообщения
1 051
Благодарностей
440
Баллы
83
@footashes
Приветствую. Сегодня купил твой парсер по этой ссылке: https://primearea.biz/product/134651/

Что-то я немного не понял, как правильно прописать ссылку (т.е. как должна выглядеть ссылка) в Create full-text feed from feed or webpage URL - Enter URL

Вид самой ссылки какой-должен быть?

Если можно пример
Смотрите WebArchiveMasters.pdf, там всё есть.
Screenshot_1.jpg
 

footashes

Client
Регистрация
20.02.2015
Сообщения
1 051
Благодарностей
440
Баллы
83
Всем отправил.
Несколько дней не смотрел почту, так-как нашел очень интересный сайт в Вебархиве (по методике), который имело смысл не просто восстановить или забрать с него тексты, но перенести на Вордпресс со всей структурой. Этим и был занят все это время.

WebArchiveMastersV2.4 - парсер Вебархива + Дзен v2.2 + Антиплагиат + Мануал + Content Watch + ParserDomens. Восстановление всего сайта из Вебархива. Полностью готовый сайт, остается только залить на сервер. Пригодится для своих сайтов.

Последнюю версию WebArchiveMasters можно купить здесь: - https://primearea.biz/product/142100/

Или так:

Цена - 500 рублей. Шаблон полностью открытый и без привязок.

Вебмани: Z251978534905, R282711380496
Яндекс-Деньги: 410011187505134
Киви - +7 961 999‑51‑37
PayPal - [email protected]

Если вы хотите создать сайт или он у вас уже есть, рано или поздно вы столкнетесь с проблемой, где взять текста для сайта. Писать самому или платить на биржах (где очень много статей из Вебархива) не вариант - лучше научиться их добывать самому. Мне это сэкономило громадное количество денег, а по качеству многие статьи на порядок выше доморощенных писателей с бирж. Вообще, лично мое мнение, что поведенческие факторы интересных оригинальных статей из Вебархива гораздо важнее технической уникальности с бирж текста.
 

sergey_l

Client
Регистрация
06.12.2016
Сообщения
18
Благодарностей
5
Баллы
3
@footashes Здравствуй, меня наверное пропустили я не получил обновление.
 

footashes

Client
Регистрация
20.02.2015
Сообщения
1 051
Благодарностей
440
Баллы
83
  • Спасибо
Реакции: Nike59

footashes

Client
Регистрация
20.02.2015
Сообщения
1 051
Благодарностей
440
Баллы
83
Добрый день, оплатил на киви
Сейчас делаю новую фичу по рассылке емейл - делаю для своего сайта, примерно 5000 входящих - тонкости работы опишу, но для пкупателей парсера Вебархива.
Работаю по серой схеме и правильной базе рассылок. Объясню покупателям, если будет интересно. По белому ничего не заработаешь.
 
Последнее редактирование:
  • Спасибо
Реакции: Vadim321 и Nike59

Кто просматривает тему: (Всего: 3, Пользователи: 0, Гости: 3)