Перейти к содержимому


A-Parser 1.1 - Продвинутый Парсер Пс, Кейвордов, Контента, Показателей, 70+ Парсеров


  • Авторизуйтесь для ответа в теме
Сообщений в теме: 74

#61 A-Parser Support

A-Parser Support

    Продвинутый пользователь

  • Пользователи
  • PipPipPip
  • 75 сообщений

Отправлено 30 Май 2019 - 18:28

Видео урок: Получение уведомлений в Telegram об окончании срока регистрации доменов

В этом видеоуроке будет показано, как настроить периодическую проверку окончания срока регистрации доменов, и получать уведомления в телеграм, если он меньше заданного количества дней.
Изображениеhttps://www.youtube....h?v=6zACZH_1QWk
В уроке рассмотрено:
  • использование tools.js для написания собственных функций
  • работа с шаблонизатором Template Toolkit
  • проверка доменов через WHOIS
  • цепочки заданий
  • отправка сообщений в Telegram с помощью бота
Полезные ссылки:
Оставляйте комментарии и подписывайтесь на наш канал на YouTube!

Изображение

#62 A-Parser Support

A-Parser Support

    Продвинутый пользователь

  • Пользователи
  • PipPipPip
  • 75 сообщений

Отправлено 10 Июнь 2019 - 20:28

1.2.503 - обновление JavaScript движка и множество улучшений
Изображение
Улучшения
  • Движок v8 обновлен до версии 7.5, помимо увеличения скорости есть множество улучшений в поддержке новых возможностей языка JavaScript
  • В SE::Yandex в массив $ads добавлена переменная $visiblelink, в которой содержится видимая ссылка
  • В Rank::Bukvarix:: Domain добавлена переменная $totalcount которая содержит количество результатов
  • В SE::Yahoo добавлена опция Not found is error, указывающая, считать ли отсутствие результатов ошибкой
Исправления в связи с изменениями в выдаче
Исправления
  • Исправлена редкая проблема с ошибками в JS парсерах на Windows
  • В ИзображениеSE::Baiduисправлена работа функции Get full links для результатов без ссылок
  • Исправлена проблема с Decode JSON error в парсерах WordStat
  • Исправлен баг с перезагрузкой кода JS парсера при редактировании в сторонних приложениях, проблема возникла в одной из предыдущих версий
Изображение

#63 A-Parser Support

A-Parser Support

    Продвинутый пользователь

  • Пользователи
  • PipPipPip
  • 75 сообщений

Отправлено 20 Июнь 2019 - 15:25

Сборник рецептов #33: парсинг Google карт, сбор вопросов из поиска, перевод текстов целиком
33-й сборник рецептов, в котором мы будем собирать данные из Google maps в указанной местности, спарсим блок вопросов и ответов в поиске Гугла и научимся использовать файлы целиком в качестве запросов. Поехали!

Сбор всех организаций в определенной местности
Начиная с версии 1.2.482 в A-Parser появились парсеры карт Google и Яндекс. Принцип работы обоих одинаков - в настройках указываются координаты точки и зум, парсер собирает результаты поиска по ключевым словам в этой точке и области вокруг нее, ограниченной зумом. Но если стоит задача собрать данные, например, со всего города, то для ее решения нужно указывать диапазон координат и "заставить" парсер пройтись по ним. Как это сделать, а также пример пресета - все это показано по ссылке выше.
Изображение

Парсер собирающий вопросы и ответы из выдачи Google
Google по некоторым запросам показывает в поисковой выдаче блок вопросов и ответов People also ask (Похожие запросы). Наши пользователи периодически интересуются, как можно парсить этот блок, получая отдельно вопросы и ответы на них. Поэтому мы публикуем в нашем каталоге пример такого парсера, а забрать его можно по ссылке выше.
Изображение

Использование файлов целиком в качестве запросов
Общеизвестно, что в А-Парсере каждая строка в исходном файле - это отдельный запрос. Но существуют задачи, когда необходимо использовать все содержимое файла как один запрос, игнорируя разбивку на строки. Благодаря JavaScript парсерам такая возможность есть и по ссылке выше опубликован пример парсера, который получает все содержимое файла, переводит его на заданный язык и сохраняет в новый файл.
Изображение

Еще больше различных рецептов в нашем Каталоге!
Предлагайте ваши идеи для новых парсеров здесь, лучшие будут реализованы и опубликованы.
Подписывайтесь на наш канал на Youtube - там регулярно выкладываются видео с примерами использования A-Parser, а также следите за новостями в Twitter.

Изображение

#64 A-Parser Support

A-Parser Support

    Продвинутый пользователь

  • Пользователи
  • PipPipPip
  • 75 сообщений

Отправлено 02 Июль 2019 - 16:12

Видео урок: Макросы подстановок
В этом видеоуроке мы изучим один из инструментов для работы с запросами - макросы подстановок. С их помощью можно значительно увеличивать количество запросов, листать страницы и многое другое.
Изображение
В уроке рассмотрено:
  • макрос {num} на примерах прохода по страницам и перебора координат в парсере Google maps
  • макрос {az} на примере парсинга по доркам для увеличения кол-ва запросов и соответственно результатов
  • макрос {each} на примере парсинга подсказок для генерации словосочетаний
Полезные ссылки:
Оставляйте комментарии и подписывайтесь на наш канал на YouTube!

Изображение

#65 A-Parser Support

A-Parser Support

    Продвинутый пользователь

  • Пользователи
  • PipPipPip
  • 75 сообщений

Отправлено 11 Июль 2019 - 17:20

1.2.534 - 6 новых парсеров, поддержка Node.js в tools.js, множество исправлений в парсерах
Изображение
Улучшения
  • Добавлено 4 новых парсера Instagram
  • Добавлено 2 новых парсера SerpStat
  • Добавлена поддержка дробных чисел в макросе подстановок {num}
  • Добавлена поддержка Node.js в tools.js, теперь можно использовать возможности Node.js (включая модули) в обычных пресетах во всех полях кроме Parse custom results, фильтров и Конструкторов результатов
  • Шаблоны Template Toolkit в настройках парсеров теперь работают для всех запросов
  • Стабилизирована работа SE::Google::Modern после изменений со стороны Google, благодаря чему несколько уменьшилось количество рекаптч
  • Улучшена проверка ответа в Maps::Yandex, улучшен сбор картинок, а также добавлена возможность собирать ссылки на страницу организации
  • API: для oneRequest/bulkRequest добавлен параметр needData, указывающий, передавать ли в ответе data/pages, используется для экономии памяти, по умолчанию отключен
  • Обновлены apps.json и user-agents.txt, при установке обновления также рекомендуется обновить эти файлы
Исправления в связи с изменениями в выдаче
  • Исправлена ситуация, при которой в SE::Google::Modern выдавался 597 код ответа
  • В SE::Yandex исправлена ситуация, при которой в результатах появлялись "пустые" ссылки, а также исправлен парсинг сниппетов в мобильной выдаче
  • Исправлена редко встречающаяся проблема с SE::Google::Translate, когда парсер получал в ответ 403 статус
  • Исправлено определение языка запроса в SE::Google::Translate
  • Исправлена работа SE::YouTube, а также исправлен сбор $title
  • В Rank::Social::Signal удалена переменная $linkedin_share в связи с прекращением поддержки со стороны LinkedIn
  • В Shop::Yandex::Market исправлен парсинг $features для некоторых видов запросов
  • Исправлен урл запроса в SE:: DuckDuckGo
Исправления
  • Исправлен баг в Rank::Bukvarix:: Domain, из-за которого в некоторых случая парсинг завершался с ошибкой
  • В парсерах Maps::* исправлена работа с отрицательными координатами
  • В Rank::SEMrush исправлена ошибка определения "удачности" запроса
  • Исправлен баг в tools.js, возникший после обновления V8
  • API: исправлена работа метода getAccountsCount
  • JS парсеры: исправлен баг со слэшем в check_content
Изображение

#66 A-Parser Support

A-Parser Support

    Продвинутый пользователь

  • Пользователи
  • PipPipPip
  • 75 сообщений

Отправлено 22 Июль 2019 - 16:45

Сборник статей #8: ссылки с GET параметрами, скачивание Google документов, очистка очереди через API
8-й сборник статей. В нем мы научимся парсить ссылки с GET параметрами, искать в поиске Google и скачивать документы, а также узнаем как очищать очередь заданий через API. Поехали!

Сбор ссылок с GET параметрами
В техническую поддержку часто задают вопрос, как собирать ссылки с GET параметрами для поиска SQL уязвимостей. Поэтому, по ссылке выше мы расскажем как это сделать, используя стандартный парсер Google.
Изображение

Поиск и скачивание Google документов
За последнее время уже несколько раз появлялись новости о том, что Google индексирует пользовательские документы, размещенные в их одноименном сервисе и открытые для доступа по ссылке. Соответственно все эти файлы становятся доступны в поиске. И пока Google разбирается с этим, по ссылке выше мы рассказываем как можно искать и скачивать такие документы.
Изображение

Работаем с API, часть 3
Третья и заключительная часть из цикла статей по работе с A-Parser через API. В ней на примере очистки очереди задач будет рассмотрена работа со вспомогательными запросами, которые позволяют работать с очередью заданий. Все детали - по ссылке выше.

Если вы хотите, чтобы мы более подробно раскрыли какой-то функционал парсера, у вас есть идеи для новых статей или вы желаете поделиться собственным опытом использования A-Parser (за небольшие плюшки :) ) - отписывайтесь здесь.

Подписывайтесь на наш канал на Youtube - там регулярно выкладываются видео с примерами использования A-Parser, а также следите за новостями в Twitter.

Изображение

#67 A-Parser Support

A-Parser Support

    Продвинутый пользователь

  • Пользователи
  • PipPipPip
  • 75 сообщений

Отправлено 01 Август 2019 - 15:58

Сборник рецептов #34: оценка трафика, парсинг Ahrefs и информация об IP адресах

34-й сборник рецептов, в котором опубликован пресет для оценки количества трафика на сайтах, парсер Ahrefs через API и пресет для парсинга информации об IP адресах. Поехали!

Чек трафика сайта
Пресет для проверка трафика сайта через сервис siteworthtraffic.com. Собираются данные о количестве уникальных постетителей и просмотров, а также о доходе с рекламы. Оценка трафика на сайтах может быть полезна для фильтрации списка сайтов по критерию прибыльности и популярности. Пресет доступен по ссылке выше.
Изображение

Парсер Ahrefs на основе Ahrefs API
Парсер для сбора данных из популярного сервиса Ahrefs через их официальное API. Собирается множество данных, которые позволяют оценивать домены по различным характеристикам. Для использования нужен API ключ, который приобретается отдельно.
Изображение

Парсинг подсети и организации по IP
Небольшой пресет для сбора информации об IP адресе, а именно: подсеть, организация, страна и город. Данные собираются из сервиса whoer.net.
Изображение

Еще больше различных рецептов в нашем Каталоге!
Предлагайте ваши идеи для новых парсеров здесь, лучшие будут реализованы и опубликованы.

Подписывайтесь на наш канал на Youtube - там регулярно выкладываются видео с примерами использования A-Parser, а также следите за новостями в Twitter.

Все сборники рецептов

Изображение

#68 A-Parser Support

A-Parser Support

    Продвинутый пользователь

  • Пользователи
  • PipPipPip
  • 75 сообщений

Отправлено 20 Август 2019 - 19:56

1.2.570 - новые парсеры API::Server::Redis и SE::Startpage, улучшения в существующих парсерах
Изображение
Улучшения
  • Добавлен новый парсер API::Server::Redis (только для лицензий Enterprise)
  • В SE::Google::Modern добавлена возможность определять наличие расширенных сниппетов (rich snippets) в выдаче
  • В связи с изменениями на сервисе-источнике парсер SE::IxQuick был удален, а вместо него добавлен SE::Startpage с почти аналогичным функционалом
  • Улучшена логика работы функции Get full links в SE::Baidu SE::Baidu
  • В SE::Google::Modern  реализована возможность указывать дополнительные заголовки для запросов
  • Улучшен парсинг меток сайтов в SE::Yandex, а также добавлена поддержка новых типов меток
  • Улучшена логика работы функции Get full links в SE::Baidu
  • Оптимизирован алгоритм обработки подзапросов
Исправления в связи с изменениями в выдаче
  • Улучшена работа SE::YouTube, в связи с тестированием новой верстки
  • В ИзображениеSE::Google::Translate переработан механизм повторных попыток, добавлена поддержка сессий
  • Исправлен парсинг сниппетов в ИзображениеSE::Google::Images
  • Поностью переработан ИзображениеGooglePlay::Apps- теперь он парсит только первую страницу результатов
  • Исправлен парсинг мобильной выдачи в SE::Google::Modern
  • Исправлена работа ИзображениеSE::Seznam при отсутствии результатов
  • Исправлена работа ИзображениеRank::Linkpad, парсер полностью переписан
  • SE::Bing::Translator, SE:: DuckDuckGo::Images, SE::Bing::Images
Исправления
  • Исправлена проблема, из-за которой в некоторых случаях при запросе через API возвращался пустой массив страниц
  • Исправлено падение скорости в ИзображениеNet::Whois
  • Исправлен баг в оптимизации парсеров
  • Исправлено сохранение параметра Report period в ИзображениеSE::Yandex:: Direct::Frequency
  • В ИзображениеHTML::LinkExtractorисправлен сбор ссылок, если в них есть перенос строки
Изображение

#69 A-Parser Support

A-Parser Support

    Продвинутый пользователь

  • Пользователи
  • PipPipPip
  • 75 сообщений

Отправлено 30 Август 2019 - 15:44

Видео урок: Поиск страниц контактов
В этом видео уроке рассмотрен пример решения задачи по поиску страниц контактов у заданного списка сайтов. Также парсится тайтл и все это сохраняется в CSV файл.
https://www.youtube....h?v=1ZjbFj1x6IQ
В уроке рассмотрено:
  • парсинг поиска Google для получения ссылки на страницу контактов
  • парсинг главной страницы сайта для получения title
  • использование инструмента $tools.CSVline для форматирования файла результата
  • пример правильного импорта в Excel
Оставляйте комментарии и подписывайтесь на наш канал на YouTube!

Изображение

#70 A-Parser Support

A-Parser Support

    Продвинутый пользователь

  • Пользователи
  • PipPipPip
  • 75 сообщений

Отправлено 09 Сентябрь 2019 - 17:05

Сборник рецептов #35: комментарии на Youtube, контакты на сайтах и японский Yahoo
35-й сборник результатов, где мы будем собирать комментарии из Youtube, искать контакты (телефоны и почты) на сайтах, а также парсить японскую выдачу Yahoo. Поехали!
Парсинг комментариев из Youtube
Представляем вашему вниманию JS парсер комментариев для видео на Youtube. С его помощью можно собирать тексты комментариев, а также информацию об авторах комментариев индивидуально для каждого видео. Также реализована возможность указывать количество страниц с комментарими, что позволяет при необходимости ограничить их сбор и тем самым увеличить скорость работы.
Изображение

Извлекаем телефоны, начинающиеся на 3 с помощью HTML::EmailExtractor
Пресет, в котором показано, как с помощью HTML::EmailExtractor HTML::EmailExtractor собирать контакты со страниц сайтов. Данный пресет предназначен для сбора e-mail и телефонов, начинающихся с 3 (Украина), но при необходимости можно немного изменить регулярные выражения и собирать телефоны других стран.
Изображение

SE::Yahoo::JP
JS парсер для парсинга японской выдачи Yahoo. Используется домен search.yahoo.co.jp. Собираются ссылки, анкоры и сниппеты, а также есть возможность задать количество страниц для парсинга.
Изображение

Еще больше различных рецептов в нашем Каталоге!

Предлагайте ваши идеи для новых парсеров здесь, лучшие будут реализованы и опубликованы.

Подписывайтесь на наш канал на Youtube - там регулярно выкладываются видео с примерами использования A-Parser, а также следите за новостями в Twitter.

Изображение

#71 A-Parser Support

A-Parser Support

    Продвинутый пользователь

  • Пользователи
  • PipPipPip
  • 75 сообщений

Отправлено 21 Сентябрь 2019 - 15:17

1.2.595 - новый парсер Ahrefs, инструмент для создания CSV и много других улучшений

Изображение

Улучшения
  • Добавлен новый парсер Изображение Rank::Ahrefs
  • Добавлен инструмент $tools.CSVline для простого создания CSV файлов
  • В связи с тестированием Гуглом новой верстки в поисковике, добавлена ее поддержка в Изображение SE::Google::Modern
  • В Изображение SE::Google::Modern в массив $serp добавлена переменная $amp, которая показывает, поддерживает ли страница AMP
  • В Изображение SE::Yandex в $serp.$i.label добавлена поддержка Турбо страниц, а также добавлен сбор типов меток сайтов
  • В Изображение Net::HTTP улучшена работа с редиректами, добавлена опция Follow common redirects
  • Теперь в Изображение Util::ReCaptcha2 можно указать хост для используемого сервиса разгадывания, а также в Provider url можно указывать адреса через запятую (актуально для XEvil и CapMonster), парсер будет использовать каждый из них в случайном порядке
  • Увеличено количество результатов в парсерах Изображение Rank::Bukvarix::*
  • Добавлена опция ограничения числа логов, с целью оптимизации использования дискового пространства
  • JS парсеры: улучшена пакетная обработка запросов
Исправления в связи с изменениями в выдаче
  • В Maps::Yandex исправлена ситуация, при которой для части результатов не собирались данные
  • Исправлен SE::Rambler
Исправления
  • Исправлена проблема с рядом парсеров, из-за которой они не работали, появилась в одной из предыдущих версий
  • Исправлена ошибка в Rank::Alexa, из-за которой при отсутствующих значениях запрос завершался с ошибкой
  • Исправлен баг в Rank::MajesticSEO, из-за которого в некоторых случаях запросы завершались с ошибкой
  • Для парсеров Social::Instagram::Profile и Social::Instagram::Tag изменен перечень доступных переменных в связи с не совсем корректной работой в некоторых случаях
Изображение

#72 A-Parser Support

A-Parser Support

    Продвинутый пользователь

  • Пользователи
  • PipPipPip
  • 75 сообщений

Отправлено 30 Октябрь 2019 - 20:06

Сборник статей #9: анализ страниц сайта, парсинг всех страниц сайта из индекса и проверка запросов

9-й сборник статей. В нем мы разберемся, как делать пресеты для анализа всех страниц сайта, научимся парсить все ссылки сайта из индекса ПС и будем проверять существование запросов. Поехали!

Создание пресета для анализа страниц сайта

Анализ страниц на сайте - это один из самых популярных кейсов использования А-Парсера. При этом можно собирать очень много различных параметров, начиная от проверки доступности и заканчивая поиском определенных слов на странице.
О том, как сделать простой анализатор сайта и пойдет речь в этой статье.

Изображение


Парсинг разными способами максимум результатов из индекса поисковых систем

Парсинг из индекса поисковых систем всех страниц сайта - это еще один популярный кейс для A-Parser. ПС ограничивают кол-во результатов по одному запросу, поэтому нужно как-то обходить это ограничение. Как это сделать - описано в нашей статье.

Изображение


Проверка существования запросов

Пресет из этого примера позволяет проверить базу ключевых слов и определить, был ли запрос одноразовым без постоянного спроса или нет. Тем самым появляется возможность отфильтровать семантику и оставить только "хорошие" запросы. Больше деталей, а также готовый пресет - по ссылке выше.

Изображение


Если вы хотите, чтобы мы более подробно раскрыли какой-то функционал парсера, у вас есть идеи для новых статей или вы желаете поделиться собственным опытом использования A-Parser (за небольшие плюшки :) ) - пишите здесь.

Подписывайтесь на наш канал на Youtube - там регулярно выкладываются видео с примерами использования A-Parser, а также следите за новостями в Twitter.

Предыдущие сборники статей Изображение

#73 A-Parser Support

A-Parser Support

    Продвинутый пользователь

  • Пользователи
  • PipPipPip
  • 75 сообщений

Отправлено 11 Ноябрь 2019 - 14:38

1.2.678 - оптимизация работы с прокси, улучшения во встроенных парсерах, исправления ошибок

Изображение

Улучшения
  • В Изображение SE::Google::ByImage добавлена поддержка рекаптч, а также улучшена работа в целом
  • В Изображение SE::Yandex добавлена возможность одновременной работы авторазгадывания каптч и антигейта
  • В Изображение Rank::Ahrefs добавлена возможность выбора типа домена
  • Полностью переписан Изображение  SE::Yandex::SQI, изменен набор собираемых данных
  • Реализован бан прокси в Изображение SE::DuckDuckGo::Images
  • В Изображение Net::Whois добавлен парсинг даты освобождения домена
  • Оптимизирована работа с прокси при использовании большого числа попыток
  • Улучшена работа функции Bypass Cloudflare
  • Добавлен tools.aparser.version(), позволяющий получить информацию о версии A-Parser
Исправления в связи с изменениями в выдаче
  • В мобильной верстке Изображение SE::Google::Modern исправлен парсинг новостей, а также исправлен парсинг ссылок и анкоров в desktop выдаче
  • В Изображение SE::Yandex исправлено определение каптчи, а также исправлен сбор ссылок на кеш
  • Исправлен парсинг цен и количества комментариев в  Shop::Amazon
  • Исправлена работа SE::DuckDuckGo::Images с запросами, содержащими более 1 слова
  • GooglePlay::Apps,  SE::Youtube , Rank::Ahrefs
Исправления
  • Исправлена проблема с рандомизацией прокси на Windows 10
  • Исправлено зависание при использовании Check::BackLink
  • Исправлена проблема, при которой не применялся Content-Type в  Net::HTTP
  • Исправлена редкая проблема с выбором файла запросов
  • Исправлена обработка редиректов при нестандартном порте
  • Исправлен вывод многострочных данных в tools.CSVline
  • JS парсеры: исправлена проблема с интерфейсом при отсутствии необходимых Node.js модулей
  • JS парсеры: исправлена проблема с подключением модуля jimp
Изображение

#74 A-Parser Support

A-Parser Support

    Продвинутый пользователь

  • Пользователи
  • PipPipPip
  • 75 сообщений

Отправлено 21 Ноябрь 2019 - 20:24

Видео урок: Парсинг сайта в глубину на основе парсера HTML::LinkExtractor

В этом видео уроке рассмотрен способ создания пресета для анализа сайта в глубину.

Изображение

В уроке рассмотрено:
  • Парсинг в глубину (уровень) сайта относительно страницы запроса при помощи функции "Парсить до уровня"
  • Получение title (с очисткой от HTML сущностей)
  • Получение таких параметров как:
    • кол-во предыдущих редиректов
    • код ответа сервера
    • кол-во внешних ссылок
Полезные ссылки:
Оставляйте комментарии и подписывайтесь на наш канал на YouTube!

Изображение

#75 A-Parser Support

A-Parser Support

    Продвинутый пользователь

  • Пользователи
  • PipPipPip
  • 75 сообщений

Отправлено 04 Декабрь 2019 - 18:32

Сборник рецептов #36: уникальность текста, парсер GitHub, посещаемость сайтов, результаты розыгрыша

36-й сборник рецептов, в котором опубликованы парсер для проверки текстов на уникальность, парсер GitHub и парсер для получения информации о посещаемости сайтов. А также список обновленных пресетов из нашего Каталога.

Но, в первую очередь хотим поделиться результатами розыгрыша, который был проведен в связи с Черной пятницей. Мы разыграли 5 лицензий на А-Парсер среди всех новых участников нашего telegram чата, которые присоединились к нему в период проведения акции. Результаты розыгрыша в видео:

Изображение


А теперь перейдем непосредственно к сборнику.

Проверка текста на уникальность
Задача проверки текстов на уникальность является одной из самых частых для копирайтеров. Возможность осуществлять такую проверку предоставляют много ресурсов. И парсер для одного из таких сервисов опубликован по ссылке выше.
Изображение

Парсер Github
Согласно Википедии, GitHub - это крупнейший веб-сервис для хостинга IT-проектов и их совместной разработки. Поэтому мы не могли обойти его стороной и публикуем парсер данных о репозиториях при поиске по ключевому слову на данном ресурсе.
Изображение

Парсинг количества трафика на сайтах
Этот парсер позволяет получать информацию о просмотрах и посещениях страниц за день, месяц и год. В качестве источника данных используется один из известных сервисов.
Изображение

Кроме этого были обновлены: Еще больше различных рецептов в нашем Каталоге!
Предлагайте ваши идеи для новых парсеров здесь, лучшие будут реализованы и опубликованы.

Подписывайтесь на наш канал на Youtube - там регулярно выкладываются видео с примерами использования A-Parser, а также следите за новостями в Twitter.

Все сборники рецептов

Изображение  




Количество пользователей, читающих эту тему: 0

0 пользователей, 0 гостей, 0 анонимных