Было бы супер чтоб модуль мог получать 2 видео, одно условно берет из папки (оно допустим 16:9 длинной 4 часа), софт его режет на указанные тайминги и на каждый отрезок накладывает другое видео перед этим конвертируя отрезок в формат 9:16 (ют шортс), а наложенное видео будет с прозрачностью, так же функции уникализации видео, допустим чтоб заднее видео было разделено на 4 куска по углам (тоесть 4 одинаковых видео в 4 угла)
Модуль для ИИ / Anthropic/ ChatGPT / StableDiffusion / DALLE / Llama локально
-
@daniel007 Привет, сейчас нет. Вот документация есть, https://platform.openai.com/docs/guides/vision/introduction можешь дополнить модуль новой функцией.
-
Классный модуль, у меня все работает - надо просто использовать платный ключ
настроил модуль чтобы чат анализировал название ролика на ютюбе и решал целесообразно ли ботам его смотреть или нет, так же оценивает популярность ролика по просмотрам и дате публикации- в итоге несколько кубиков заменили десятки и экономят кучу времени!
спасибо разработчику- крутой модуль!
-
Добавил использование локальной ИИ через LM Studio Видео работа с локальной ИИ Обновление версии в шапке.
-
@moonsoon Привет, подскажи плиз, а какая версия DALL-E от OpenAI используется в кубике?
Вроде у OpenAI самая последняя выпущенная версия DALL·E -> версия DALL·E 3
У тебя в кубике не указана версия DALLE, и когда генеришь картинку через апи твоим кубиков, то получается как будто масляными красками нарисовано, создается впечатление что через твой кубик идет запрос к старой версиии DALL-E от OpenAI
А так в принципе оч удобно и классно работает. Спасибо большое за модуль. Всех благ тебе!

-
@moonsoon
вобщем путем тестов понял что в модуле даже в версии 1.0 стоит запрос на DALLE явно версию ниже чем их последняя нормальная у них версия dalle3@moonsoon Плиз добавьте в модуль в кубик для генерации юзая DALEE выбор версии.
Для этого просто PostData нужно указать вот что (по крайней мере в пост запросе так это делается):"model": "dall-e-3",Вот результаты моих тестов:
Это еще ничего получился котик на кресле юзая версию из модуля, а например когда про крипту генеришь картинки модулем, то там вообще в стиле Пикассо красками мажет ((Приведу пример
Промпт White cat
-из модуля результат:- если басом из пост запроса сгенерить картинку обращаемся к их последней версии dalle-3 (настройки и результат):
Еще результаты юзая обычный пост запрос к более новой версии чем в модуле (версии DALLE-3):
промпт: Man cryptoking
промпт: White crypto cat -
у меня наблюдается такая проблема, что ИИ выводит смешанный ответ... часть на русском, часть на англ. может даже иероглифы запихать...
Вот пример...
Запрос: кто написал стих, у лукоморья дуб зеленый... ?
Ответ ИИ: Этот стих written by Russian poet Alexander Pushkin.как сделать, чтобы ответ был только на русском языке?
Локальная модельИли если пишет на одном языке... то ответы, это что-то с чем-то
Запрос: если 7х7 будет 49, то напиши Да
Ответ ИИ: Нет, это не так. 7х7 = 49, а не 7х7 = 49. Это потому, что 7х7 — это произведение двух чисел, и в этом случае число 7 умножается на себя дважды, поэтому получается 49.Может это только мне такой вредный ИИ попался... Как найти с ним общий язык?!
-
@berubah said in Модуль для ИИ / Anthropic/ ChatGPT / StableDiffusion / DALLE / Llama локально:
great module, do you plan to update with deepseek in the module ?
Hi, Deepseek has full support of the OpenAI API. You just need to change the hostname of the API.
-
@moonsoon описание оставляет желать лучшего. в версии 1.0 не понятно как слать сообщения без истории. Не понятно, что нужно указать в поля, если не 0. Было бы понятнее, если бы в модуле использовались True/False. И нет упоминаний, что список нужно очищать, если хотите слать без истории. Без списка не работает модуль - 6HISTORY_MSG is empty. Вот мой пример настройки для использования без истории

-
Привет, в режиме запуска почему то выдает ошибку: Поток завершился с сообщением "ReferenceError: Can't find variable: JPath", в записи все четко
-
@artempoliansky добавь в скрипт действие из модуля json