@DreamTeam в данном модуле, отсутствует функция "Удалить текущий элемент".
Элемент можно удалить получив либо его индекс, либо по значению.
@maksimiron13 В первом сообщении темы описание какие значения для чего нужны.
"code": "invalid_size",
"message": "The size is not supported by this model.",
Можете сказать тут баг или есть какой то нюанс? хотел згенерировать з розмером 1792*1024, хотяв условях пишет что должно быть хотяб одно из: one of ['256x256', '512x512', '1024x1024', '1024x1792', '1792x1024'] - 'size'",
ище 2 интересных параметра: style (‘natural’ or ‘vivid’): The style of the generated images. Must be one of vivid or natural. Vivid causes the model to lean towards generating hyper-real and dramatic images. Natural causes the model to produce more natural, less hyper-real looking images. Defaults to ‘vivid’.
quality (‘standard’ or ‘hd’): The quality of the image that will be generated. ‘hd’ creates images with finer details and greater consistency across the image. Defaults to ‘standard’.
Ку, в многопотоке такая ошибка вылетает, не знаешь как ее пофиксить?
"ReferenceError: Can't find variable: JPath"
@maksimiron13 Использовать модуль json в скрипте с любым действием.
@Ressive said in Модуль для ИИ:
ChatGPT модуль не хочет считывать переменные в промте.
Он вроде как работает только с той инфой, которую руками нужно вбить в промт, как работать с переменными?
Все норм, не работал на gpt-4-32k, на gpt-4 работает, если есть подписка.
Кто то нагружать запросами GPT пробовал ?
Если к примеру 30 потоков за 1 минуту обратятся с разными вопросами на одном api, он дуба не даст ?
Проверил многопоток, такая схема, работает но ставит в некую очередь, и отдает по частям.
Отправил в 1 секунду на 1 api сразу 30 запросов.
3 ответа пришло почти сразу.
И далее каждые 5-6 сек оставшиеся ответы так же пачками по 3 штуки.
Последние не хватило времени, и пришлось по ошибке заново спрашивать. Пока не забанило, если уйдет ключ в бан, буду использовать 3-4 чтоб не нагружать.
Добавил ИИ от anthropic.
Схема работы такая же как и с gpt. При работе с историей переписки, в случае если ответы больше 15 токенов, уходит на ошибку. Не разобрался почему, может у вас идеи есть по этому поводу.
Инструкцию по работе обновил в первом посте.
Видео по обновлению с Antropic