понял, спасибо!
Здесь же задам еще один вопрос, чтобы не открывать новый топик.
Я на своем домашнем компе 8 ГБ RAM, 4 ядра создаю архив из профилей размером до 10 ГБ считанные минуты - 5 - 15 минут. А когда я закачиваю БАС в облако с такими же параметрами и SSD диском, то там на то, чтобы распаковать или запаковать zip из профилей размером до 10 ГБ уходит более часа.
Перепробовал и WinRAR и 7zip все то же самое.
Почему так происходит?
Посоветуйте, кто имел дело с большими архивами такой способ создания архива и распаковки, который самый быстрый! (размер архива не имеет значения, приоритет - скорость)
Как лучше всего работать с данными, база, AWS
-
В общем, проге нужны emails из листа(их много)( сейчас в .txt). Еще нужно сейвить логи и куки. Очевидно, что на каждую машину файлик кидать не удобно, с учетом того, что везде нужно в ручную будет по чуть-чуть дать email'ов, ибо будут совпадения(дурка)
Дальше тут пишу как я думаю сделать, но если знаете сразу ответ, можете не читать:
Думаю как его сделать, первое на ум бросается AWS Lambda(azure functions), HTTP-запрос, брать из листа либо первую строку, потом сразу же удалять, но боюсь, что могут быть ситуации, что строка не успела удалится, как в новом запросе строка, которая должна была быть удаленной. Первый костыль на ум это рандомный индекс брать и потом удалять по совпадению строку, думаю, что затратно.Вообще, думал, сделать как дополнительный диск, прикрепить к разным машинам, но везде буду разные зоны доступности, регионы, по этому я хз в общем.