Я для этого подключался через MassTunneler к куче вируальныx машин на Lunix
на которых был запущен написанный мною web server на nodejs который ждал от потока запрос и потом изменял подключение на той виртуальной машине куда пришел запрос, сначала я менял подключение через нативные приложение этих vpn сервисов, но потом понял, что для каждого сервиса там свои команды и свой синтаксис запросов нужно использовать для смены ip, и перешел на использование OpenVPN.
Но потом я понял что ip адреса всех этих VPN сервисов знают все нормальные базы проверки ip адресов
И сейчас сижу на проксях, которые не нужно как то геморно подымать, просто заплатил и не паришься.
Но если тебе просто для регистрации почт например, то VPN прокси подходят, так как скорости которые получаются там лучше всех проксей которые я использовал.
Парсить новую строку в новом потоке, без удаления предыдущей строки
-
Приветствую. Есть скрипт который запускается каждый час в один пототок, в ресурс добавлено 5 ссылок, в настройках ресурса стоит "мешать строки", но по факту скрипт очень часто парсит одну и туже ссылку.
Как можно реализовать, чтобы при каждом новом потоке парсились ссылки по порядку
1
2
3
4
5
И после того как спарсится ссылка 5, в следующем потоке парсинг начался заново с ссылки 1.Я делал через запись, т.е бас спарсил ссылку, после ее удалил, и так по порядку, но это очень неудобно
-
@brut71 said in Парсить новую строку в новом потоке, без удаления предыдущей строки:
1
2
3
4
5Парсим 1 ссылку , при парсинге второй проверяем есть ли эта ссылка что спарсена ранее, если есть добавляем +1 к парсингу и парсим следующую.
Реализация парсим в список, и далее проверяем наличие.
-
@iabot Благодарю за ответ. Как я понял, простыми словами я создаю чс. Хорошо, это я сделал, но остается вторая часть вопроса. Как сделать, когда все ссылки из файла окажутся в файле чс, бас чистил этот файл(чс) и все начиналось по новой.
Мне по сути надо зациклить, чтобы ссылки гонялись по кругу и по порядку. Внутри потока у меня получается все это реализовать, но у меня работает все через планировщик и поэтому каждый час создается новый поток