Или это зависит исключительно от прокси?
Как обрабатывать большой объем данных
-
@artihorror Это секретный экшен
:D

Проект и файл. -
Явно ощущается нехватка экшенов в разделе "файловая система". Таких как "прочитать первую строку файла" и "добавить строку в файл".
-
@Antonio said in Как обрабатывать большой объем данных:
@Fox, и что это должно сделать? Прочитать файл в ресурс, но не сразу, а по шагам?
По факту да, без вкладки ресурсы для работы в многопотоке, это я отвечал возможным вариантом на это:
@Denis_krsk said in Как обрабатывать большой объем данных:
@Fox ...Тем более, если вдруг надо в каждом потоке свой экземпляр иметь то 60mb на 100 потоков это уже дофига.
@Antonio В самом скрипте экшен Читать файл в список записан таким кодом:
var d = native("filesystem", "readfile", JSON.stringify({value: "C:\u005canswer_databse.txt",base64:false,from:0,to:0})) VAR_LIST_WITH_FILE_CONTENT = (d.length == 0) ? [] : d.split(/\r?\n/)То есть обычное разделение строки в массив по переносу строку \r\n, но для этого читается полностью весь файл.
-
-
@GamiD В вашем файле ресурсе текст вида:
Нет\Это твое заднее слово? Давай, лучше, купи ежа, не отказывайся. Нет\Сколько тебе лет? Нет\Учишься? :) Нет\Продолжайте, продолжайте. Я люблю когда невоспитанные сердятся. Нет\часто повторяешь слова "нет" и "да"? Нет\Дома тоже прикольно. Можно развалиться на диване под одеялом. Нет\О, я читаю мысли! Я так и знал, что вы это скажете! Шучу,шучу!Возможно использование Spintax уменьшит размер файла.
-
@zeor думаю лучше делать SQL запросами всё, а не блокировками. В свое время делал софт блокировками - заметный проигрыш в скорости получается, особенно когда записей будет несколько тысяч. 6 пользователей каждый обращался напрямую к таблице, 20000 записей и мертвая скорость работы :)
