@DuckDuck said in Прокси для решения recaptcha2:
@sergerdn said in [Прокси для решения recaptcha2]
60 центов.
это за серверные ?
Да.
Проблемы:
Вам знакомо, что когда для своих задач Вы развертываете много дедиков со скриптом БАСа, очень не удобно задавать параметры для работы программы на каждом сервере, особенно, если произошли какие-то изменения в методе работы накрутки/реггера и вам нужно протестировать, какая комбинация параметров настроек будет Валидной и за нее вы не получете Бан?
Не менее гемморная тема сбор Логов, если вы сохраняете их локально, например, лог накрутки, какой отпечаток, и кукис после работы. Все везде разбросанно по серверах и нужно ручками собирать все и объединять единый лог CTRL+C;V куча раз, и так раз за разом с каждым запуском скрипта и днем за днем? Особенно может быть не приятно, если где-то с какого-то деда не собрали логи, так как было впадлу снова все это делать и ценные данные по прокруту/то что делает Ваш скрипт потерялись, а потом оказывается, что те настройки программы были Валидные, но вы уже не можете узнать, что и как вы делали и воспроизвести это.
И так Вы теряете ОГРОМНУЮ кучу-кучу драгоценного времени и НЕРВЫ!
Еще более душу убивающая ситуация, когда, например, сервис не требует подтверждение e-mail, и можно хоть рандом почту делать, но вы как грамотный человек знаете, что письмо не будет доставлено и по этому можно детектить, берете большую базу просто существующих почт, без паролей, и как-же не удобно частями разбивать этот файл с почтами на разные дедики, чтобы везде были разные почти без reuse, иначе реги не будет.
Решения:
Все реализовано на AWS. Аккаунты AWS можно абузить(бесплатно), если на нем будет исполняться только мое решение жить будет долго (месяцы). Если впадлу абузить, то стоить все это будет недорого.
Параметры для работы софта мы получаем с сервера с http запроса в JSON, парсим все настройки и воуа-ля софт по ним работает. Вам не нужно теперь руками сидеть свои 100 дедиков перенастраивать целый час, просто вбиваем ссылку с сервером, а параметры подтягиваются автоматически. Можно настроить несколько вариантов конфигураций и удобно тречить, какой варик катит, какой нет).
Все логи СО ВСЕХ ДЕДОВ будут сохраняться на в облаке AWS по удобным для вас каталогах(папки, пути, названия папок), мы также отправляем запрос на сервер с нашими логами, например:
POSThttps://server.com?{sessionid}/{insessionid} postdata=[[SESSIONID]]:[[INSESSIONDID]]:[[CONFIGTYPE]]:[[EMAIL]]:[[PASS]]:[[WASPROXY]]:[[PROXYTYPE]]:[[WASFINGER]]
POSThttps://server.com?{sessionid}/{insessionid} postdata=[[COOKIES]]
Скачиваем все наши логи со всех серверов буквально одной cmd командой, причем быстро(AWS все же)
EMAIL, ЧТО УГОДНО мы каждый раз получаем уникальный также с запроса.* Больше не нужно разбивать частями и кидать их на разные деды.
Гарант приветствуется, за ваш счет.
P.S. Это же решение подойдет вам для смежных задач, если логики сохранена!
Связь: TG @adfraud (ник продается)))) либо тут в лс
оказывается, если отредактировать свое сообщение, то реакции пропадают)
Я перечитал твое сообщение множество раз и так не понял зачем оно нужно и кому оно нужно, несмотря на обильное выделение в тексте.
Тут варианта три:
Есть еще 4-й вариант, у меня тугая соображалка - но я его не рассматриваю 😃
Как делаю я:
Terraform (https://www.terraform.io/) для автоматического создания и удаления серверов в облаках. Один запуск может очень быстро создать или уничтожить тонны серверов в облаках, будь то DigitalOcean, Hetzner, AWS, Vultr, Yandex и так далее.
Установку я делаю из предварительного образа, где моя "лицензия" Windows. Такое возможно даже на AWS, несмотря на то, что Интернет говорит что нельзя. Бабла экономит знатно, особенно на дорогих инстансах.
Логика работы такая:
При необходимости повторил. Поднимал и 50 серверов за раз, думаю и 500 тоже будет работать.
Что касается логов, то есть Elastic Logstash (https://www.elastic.co/logstash). Также использовал https://www.loggly.com/, последнее мне показалось проще и настраивается сильно быстрее во множестве случаев.
Когда есть множество предварительно настроенных виртуальных машин, все логи автоматически направляются туда, куда мне нужно сразу после создания виртуалки. Hа логи я в итоге забил, нет там ничего интересного.
Данные для каждого инстанса скрипты получают из общей БД. На уровне БД решается выдача каждому инстансу нужных данных. Туда же в БД скрипты сохраняют результат работы. Если использовать БД для скриптов, не будет никаких проблем с дублированными данными, так как на уровне БД все давно уже решено, нужно только правильно написать запрос.
Можно работать с БД как напрямую, так и через прокладки - https://supabase.com/, https://firebase.google.com/, https://nhost.io/ и так далее. Через прокладки иногда проще делать, чем лезть напрямую в БД, особенно если не сильно шаришь как оно работает.