Активно WebArchiveMaster - программа парсинга контента из ВебАрхива [ZennoPoster]

footashes

Складчик

WebArchiveMaster - программа парсинга контента из ВебАрхива. Программа полностью автоматизирована и позволяет разгрузить своё время на 90%. Программа работает в связке с PHP скриптом, который можно поставить на любой хостинг или использовать Open Server (рекомендуется).

Принцип работы очень прост - нужно только вставить домены в текстовый файл и запустить программу - все остальное она сделает сама. Никаких настроек нет, так-как все настроено на максимальную производительность.
 

footashes

Складчик
Не знаю, можно здесь давать ссылку на топик Зеннолаб, где обсуждается программа? Вот небольшой видео-ролик, показывающий принцип работы, чтобы было немного понятнее.
 

footashes

Складчик
Вот один из отзывов:
понятно, спасибо, ну в принципе наши разработчики так и говорили...а так, вы золотой человек, сделали намного лучше и эффективней, что наши разработчики не сделали за годы) Спасибо вам огромное)

Программы постоянно обновляются и дорабатываются.
 

footashes

Складчик
Программу покупают и с Серча, и Ботмастера, а это очень авторитетные ресурсы - если серьезно хотите заниматься Вебархивом, предоставлю ресурсы - . Очень много человек работает, скорость понижена, тем не менее, кто хочет работать, тот работает.
 

footashes

Складчик
Поясню, как работать и как зарабатывать с Вебархивом. Предоставлю файл WebArchiveMasters.pdf и Readme.pdf, где показано, как работать и зарабатывать. Покупают люди, которые выдают заказчикам 1500 текстов в сутки, и считают, что этого мало. Напомню, что программа работает со всеми языками, и вы можете выбрать себе нишу- например, чешский или якутский язык. Торопитесь, пока ваше место не заняли.

Файлы вы можете скачать ниже:

И вы всегда можете задать мне свои вопросы, я вам обязательно разъясню -
[email protected]
 

Вложения

footashes

Складчик
Spider.jpg
Спайдер сбора ссылок комментариев для создания своей тематической базы дропов под названием Black Widow Spider. Сбор своей базы дропов по своей тематике. Существует обмен комментариями сайтов по своей тематике, например, на сайте с рецептами комментируют люди, имеющие близкую тематику и оставляют ссылку, ведущую на сайт, это практически сообщество, довольно узкий круг, без залетных.

Для чего это нужно?

Многие сайты уходят в небытие - люди забрасывают сайты, переезжают, меняют работы - и это, как правило, очень хорошие сайты с авторскими текстами - я работаю именно так, только отбираю вручную, отдаю программе и работаю с этими забытыми доменами, руки не доходят автоматизировать, позже приведу пример, если не ясно. А просто скаченный список доменов по ключевым словам - это 80% мусора, который программа перелопачивает, прежде чем наткнутся на что-то стоящее.

Что он делает?

Паук ходит по тематическим сайтам (например, строительной, женской или сайтам другой тематики) и собирает ссылки, находящиеся в никах пользователей, ведущей на их сайт.

Как работает?

1. БОТ берет ссылки с любых сайтов на любой платформе и на любых языках
2. БОТ самообучается - во время поиска ссылок пишет данные всех сайтов, на которые заходил. Если он зашел на Фейсбук или Твиттер и ему там не понравилось, при следующем случайном заходе он сравнит список и на них не пойдет.
3. Примерный принцип работы БОТА (алгоритм очень сложный) - Бот берет данные из файла (начальные URL, которые вы ему скормите, смотрите видео), создает карту сайта из данного урл и начинает ходить по страницам в поисках ссылок, берет ссылки из комментариев и начинает их проверять на ответ сервера, если ответа нет, бот идет в Вебархив и проверяет, есть ли там сайт. Если ответ положительный, смотрит количество ссылок, и если считает, что сайт перспективный, заносит его в список дропов.

Эта программа идет в связке с WebArchiveMasters - спайдер собирает тематические дропы, а парсер берет с них текста. Теперь не нужны списки доменов, программа найдет всё сама.
 
Сверху
... ...