@yooriko Такое иногда нужно. Вот нужно было вставить кучу КОДА и там имеенно конкретная задача стояла,перенести на другой сервис. При переносе через Ввод т-то да упускал каждый раз. Но если берём функцию через копировать и вставить самого буфера обмена. То переносит правильно. Толи бас,какие-то символы упустил толи ещё чего. Ну это не серьёздная проблема как мне кажется. т
Как обрабатывать большой объем данных
-
@Fox said in Как обрабатывать большой объем данных:
Читать файл в ресурс >> цикл >> добавить элемент (в ресурс).
может в список?)
-
@artihorror Выше я уже писал, что в список у меня за 2 секунды обрабатывает файл, но у @GamiD зависает. В экшене читать файл в список нету побайтовой настройки места чтения. А в ресурс добавлять я предложил для работы в многопотоке.
-
@Fox said in Как обрабатывать большой объем данных:
@artihorror Выше я уже писал, что в список у меня за 2 секунды обрабатывает файл, но у @GamiD зависает. В экшене читать файл в список нету побайтовой настройки места чтения. А в ресурс добавлять я предложил для работы в многопотоке.
оказывается как у тебя у меня тоже не зависает а когда читаешь этот список зависает у меня так же быстро читает этот список я сделал получить первый элемент и вывел в лог и завис сама страница у меня отдельно где конструктор а где лог отдельно изза этого конструктор работал а страница где лог завис
-
@artihorror Это секретный экшен
:D

Проект и файл. -
Явно ощущается нехватка экшенов в разделе "файловая система". Таких как "прочитать первую строку файла" и "добавить строку в файл".
-
@Antonio said in Как обрабатывать большой объем данных:
@Fox, и что это должно сделать? Прочитать файл в ресурс, но не сразу, а по шагам?
По факту да, без вкладки ресурсы для работы в многопотоке, это я отвечал возможным вариантом на это:
@Denis_krsk said in Как обрабатывать большой объем данных:
@Fox ...Тем более, если вдруг надо в каждом потоке свой экземпляр иметь то 60mb на 100 потоков это уже дофига.
@Antonio В самом скрипте экшен Читать файл в список записан таким кодом:
var d = native("filesystem", "readfile", JSON.stringify({value: "C:\u005canswer_databse.txt",base64:false,from:0,to:0})) VAR_LIST_WITH_FILE_CONTENT = (d.length == 0) ? [] : d.split(/\r?\n/)То есть обычное разделение строки в массив по переносу строку \r\n, но для этого читается полностью весь файл.
-
-
@GamiD В вашем файле ресурсе текст вида:
Нет\Это твое заднее слово? Давай, лучше, купи ежа, не отказывайся. Нет\Сколько тебе лет? Нет\Учишься? :) Нет\Продолжайте, продолжайте. Я люблю когда невоспитанные сердятся. Нет\часто повторяешь слова "нет" и "да"? Нет\Дома тоже прикольно. Можно развалиться на диване под одеялом. Нет\О, я читаю мысли! Я так и знал, что вы это скажете! Шучу,шучу!Возможно использование Spintax уменьшит размер файла.
-
@zeor думаю лучше делать SQL запросами всё, а не блокировками. В свое время делал софт блокировками - заметный проигрыш в скорости получается, особенно когда записей будет несколько тысяч. 6 пользователей каждый обращался напрямую к таблице, 20000 записей и мертвая скорость работы :)
