hey
im interested lmk
discord : Zikola#4248
telegram : zikola_cto
Ищем опытного специалиста по парсингу данных для работы на полный рабочий день. Основная задача – сбор и структурирование данных с различных веб-сайтов.
Обязанности:
Разработка и настройка скриптов для автоматического парсинга данных.
Сбор данных с различных веб-сайтов и преобразование их в структурированный формат (JSON, CSV, Excel и т.д.).
Обход капч, систем защиты и других ограничений.
Регулярный мониторинг источников данных для актуализации информации.
Поддержка и доработка существующих парсеров.
Условия работы:
Удалённая работа.
Заработная плата $1000 в месяц.
Гибкий график, но с выполнением поставленных задач в срок.
Возможности для профессионального развития и роста.
Если вы любите разбираться в сложных задачах, работать с большими объемами данных и готовы расти вместе с нами, будем рады видеть вас в нашей команде!
@mikivin said in Специалист по парсингу данных:
а существующие парсеры на чем написаны?
Можно поиграть в угадайку, например, https://scrapy.org, если не нужен браузер.
Собирать данные можно с помощью чего угодно, и тем не менее обычно(в моем опыте) используются все таки более привычные инструменты.
Пример:
https://github.com/sergerdn/ozon-search-queries-collector
Можно, конечно, написать такое только используя BAS, вот только вопрос - а зачем?

Собранные данные:
[
{
"_keyword": "дозатор для жидкого мыла",
"_scraped_at": "2024-12-16T09:39:08.157158",
"avgCaRub": 1050.92,
"avgCountItems": 6592.7656,
"ca": 0.2962,
"count": 2907,
"itemsViews": 60.26694,
"query": "сенсорный дозатор для жидкого мыла",
"uniqQueriesWCa": 861,
"uniqSellers": 35.900585
},
{
"_keyword": "дозатор для жидкого мыла",
"_scraped_at": "2024-12-16T09:39:08.158146",
"avgCaRub": 436.66,
"avgCountItems": 21091.857,
"ca": 0.3251,
"count": 1261,
"itemsViews": 43.363205,
"query": "жидкое мыло для дозатора",
"uniqQueriesWCa": 410,
"uniqSellers": 18.18874
}
]