/ai/ - Искусственный интеллект
Главная Юзердоски Каталог Трекер NSFW Настройки

Искусственный интеллект

Создать тред Создать тред
Check this out!

Генерация откровенного NSFW-контента на доске /nf/

<<
Каталог
Вопросов кожаных мешков тред Аноним 14/05/23 Вск 11:27:57 299474 Ответ
fde636c44dae155[...].jpg 294Кб, 1000x600
1000x600
Если вы хотите задать какой-то мелкий вопрос - используйте для этого данный тред или найдите профильный треде в каталоге.

Утонувшие треды помещаются в архив.
О разделе:
1. Доска предназначена для любых обсуждений нейросетей, их перспектив и результатов.
2. AICG тред перекатывается после достижения предела в 1500 постов. Любители чрезмерно самовыделиться идут в /asylum/.
3. Срачи рукотворное vs. ИИ не приветствуются. Особо впечатлительные художники и им сочувствующие катятся в собственный раздел => /pa/. Генераций и срачей в контексте всем известных политических событий это тоже касается, для них есть соответствующие разделы.
4. Это доска преимущественно технического направления. Для откровенного NSFW-контента выделена отдельная доска - /nf/, эротика остаётся в /ai/. Так, порнография и голые мужики теперь отправляются в /nf/. Фурри - в /fur/. Гуро и копро - в /ho/.
Пропущено 205 постов
205 с картинками.
Пропущено 1497 постов, 205 с картинками.
Аноним 22/04/24 Пнд 22:09:58 714199
локалкодебил ку[...].jpg 120Кб, 1284x1236
1284x1236
>>713561
>Не юзать онлайновые корпоративные сетки
Аноним 23/04/24 Втр 02:05:27 714501
>>713759
Как насчёт прочесть ошибку, гений?
Ты там пытаешься заставить сетку сгенерить тебе что-то, не понимая ни бельмеса, или что?
Аноним 23/04/24 Втр 03:33:40 714526
>>714501
Путь к папке правильный что еще там может быть
Баннер для AI Аноним 15/10/23 Вск 21:08:15 520258 Ответ
image 180Кб, 1024x1024
1024x1024
Пришло время пилить баннер для раздела /ai/. Постим свои идеи и варианты баннеров в треде.

Технические требования:
Формат jpg, gif (желательно)
300х100 пикселей
Не более 300 кб
Пропущено 62 постов
62 с картинками.
Пропущено 125 постов, 62 с картинками.
Аноним 19/04/24 Птн 09:42:41 709571
Аноним 19/04/24 Птн 17:45:34 709984
T
Аноним 20/04/24 Суб 15:58:50 710984
3
Локальные языковые модели (LLM): LLaMA, Mistral, Command-R и прочие №53 /llama/ Аноним 21/04/24 Вск 02:36:23 712072 Ответ
Llama 1.png 818Кб, 630x900
630x900
Альфа от контек[...].png 121Кб, 3090x1830
3090x1830
Деградация от к[...].png 13Кб, 792x612
792x612
Самый ебанутый [...].png 975Кб, 849x636
849x636
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст, и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.

Здесь и далее расположена базовая информация, полная инфа и гайды в вики https://2ch-ai.gitgud.site/wiki/llama/

LLaMA 3 вышла! Увы, только в размерах 8B и 70B. В треде можно поискать ссылки на правленные промт форматы, дефолтные не подходят. Ждём исправлений.

Базовой единицей обработки любой языковой модели является токен. Токен это минимальная единица, на которые разбивается текст перед подачей его в модель, обычно это слово (если популярное), часть слова, в худшем случае это буква (а то и вовсе байт).
Из последовательности токенов строится контекст модели. Контекст это всё, что подаётся на вход, плюс резервирование для выхода. Типичным максимальным размером контекста сейчас являются 2к (2 тысячи) и 4к токенов, но есть и исключения. В этот объём нужно уместить описание персонажа, мира, истории чата. Для расширения контекста сейчас применяется метод NTK-Aware Scaled RoPE. Родной размер контекста для Llama 1 составляет 2к токенов, для Llama 2 это 4к, Llama 3 обладает базовым контекстом в 8к, но при помощи RoPE этот контекст увеличивается в 2-4-8 раз без существенной потери качества.

Базовым языком для языковых моделей является английский. Он в приоритете для общения, на нём проводятся все тесты и оценки качества. Большинство моделей хорошо понимают русский на входе т.к. в их датасетах присутствуют разные языки, в том числе и русский. Но их ответы на других языках будут низкого качества и могут содержать ошибки из-за несбалансированности датасета. Существуют мультиязычные модели частично или полностью лишенные этого недостатка, из легковесных это openchat-3.5-0106, который может давать качественные ответы на русском и рекомендуется для этого. Из тяжёлых это Command-R. Файнтюны семейства "Сайга" не рекомендуются в виду их низкого качества и ошибок при обучении.

Основным представителем локальных моделей является LLaMA. LLaMA это генеративные текстовые модели размерами от 7B до 70B, притом младшие версии моделей превосходят во многих тестах GTP3 (по утверждению самого фейсбука), в которой 175B параметров. Сейчас на нее существует множество файнтюнов, например Vicuna/Stable Beluga/Airoboros/WizardLM/Chronos/(любые другие) как под выполнение инструкций в стиле ChatGPT, так и под РП/сторитейл. Для получения хорошего результата нужно использовать подходящий формат промта, иначе на выходе будут мусорные теги. Некоторые модели могут быть излишне соевыми, включая Chat версии оригинальной Llama 2.

Про остальные семейства моделей читайте в вики.

Основные форматы хранения весов это GGML и GPTQ, остальные нейрокуну не нужны. Оптимальным по соотношению размер/качество является 5 бит, по размеру брать максимальную, что помещается в память (видео или оперативную), для быстрого прикидывания расхода можно взять размер модели и прибавить по гигабайту за каждые 1к контекста, то есть для 7B модели GGML весом в 4.7ГБ и контекста в 2к нужно ~7ГБ оперативной.
В общем и целом для 7B хватает видеокарт с 8ГБ, для 13B нужно минимум 12ГБ, для 30B потребуется 24ГБ, а с 65-70B не справится ни одна бытовая карта в одиночку, нужно 2 по 3090/4090.
Даже если использовать сборки для процессоров, то всё равно лучше попробовать задействовать видеокарту, хотя бы для обработки промта (Use CuBLAS или ClBLAS в настройках пресетов кобольда), а если осталась свободная VRAM, то можно выгрузить несколько слоёв нейронной сети на видеокарту. Число слоёв для выгрузки нужно подбирать индивидуально, в зависимости от объёма свободной памяти. Смотри не переборщи, Анон! Если выгрузить слишком много, то начиная с 535 версии драйвера NVidia это может серьёзно замедлить работу, если не выключить CUDA System Fallback в настройках панели NVidia. Лучше оставить запас.

Гайд для ретардов для запуска LLaMA без излишней ебли под Windows. Грузит всё в процессор, поэтому ёба карта не нужна, запаситесь оперативкой и подкачкой:
1. Скачиваем koboldcpp.exe https://github.com/LostRuins/koboldcpp/releases/ последней версии.
2. Скачиваем модель в gguf формате. Например вот эту:
https://huggingface.co/Sao10K/Fimbulvetr-10.7B-v1-GGUF/blob/main/Fimbulvetr-10.7B-v1.q5_K_M.gguf
Можно просто вбить в huggingace в поиске "gguf" и скачать любую, охуеть, да? Главное, скачай файл с расширением .gguf, а не какой-нибудь .pt
3. Запускаем koboldcpp.exe и выбираем скачанную модель.
4. Заходим в браузере на http://localhost:5001/
5. Все, общаемся с ИИ, читаем охуительные истории или отправляемся в Adventure.

Да, просто запускаем, выбираем файл и открываем адрес в браузере, даже ваша бабка разберется!

Для удобства можно использовать интерфейс TavernAI
1. Ставим по инструкции, пока не запустится: https://github.com/Cohee1207/SillyTavern
2. Запускаем всё добро
3. Ставим в настройках KoboldAI везде, и адрес сервера http://127.0.0.1:5001
4. Активируем Instruct Mode и выставляем в настройках пресетов Alpaca
5. Радуемся

Инструменты для запуска:
https://github.com/LostRuins/koboldcpp/ Репозиторий с реализацией на плюсах
https://github.com/oobabooga/text-generation-webui/ ВебуУИ в стиле Stable Diffusion, поддерживает кучу бекендов и фронтендов, в том числе может связать фронтенд в виде Таверны и бекенды ExLlama/llama.cpp/AutoGPTQ
https://github.com/ollama/ollama Однокнопочный инструмент для полных хлебушков в псевдо стиле Apple (никаких настроек, автор знает лучше)

Ссылки на модели и гайды:
https://huggingface.co/models Модели искать тут, вбиваем название + тип квантования
https://rentry.co/TESFT-LLaMa Не самые свежие гайды на ангельском
https://rentry.co/STAI-Termux Запуск SillyTavern на телефоне
https://rentry.co/lmg_models Самый полный список годных моделей
http://ayumi.m8geil.de/ayumi_bench_v3_results.html Рейтинг моделей для кума со спорной методикой тестирования
https://rentry.co/llm-training Гайд по обучению своей лоры
https://rentry.co/2ch-pygma-thread Шапка треда PygmalionAI, можно найти много интересного
https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing Последний известный колаб для обладателей отсутствия любых возможностей запустить локально

Шапка в https://rentry.co/llama-2ch, предложения принимаются в треде

Предыдущие треды тонут здесь:
>>709757 (OP)
>>704905 (OP)
Пропущено 73 постов
73 с картинками.
Пропущено 441 постов, 73 с картинками.
Аноним 23/04/24 Втр 08:17:15 714585
>>714582
Хотя с другой стороны, как ещё делать синтетический датасет? Будущее это "учебники для нейронок", их иначе и не напишешь
Аноним 23/04/24 Втр 08:17:50 714587
Попробовал франкенштейов а третью ламу, 11.5В, 13В, 16В. Судя по описанию авторы просто размножили слои (ну или я так понял..), и вот эти модели пиздец какие соевые.
Стандартную 8В ламу у меня на кум получается разговорить, а эти копротивлялись допоследнего. Будто их соевость просто усилилась.

Забавно, что другая лама на 48В (ужатая 70В) - легко кумится, но такую херь несёт.
Аноним 23/04/24 Втр 08:41:54 714596
image.png 389Кб, 979x512
979x512
Здравствуйте, аноны. Я вкатун-новичок во все это дело с локальными языковыми моделями. Поставил убабугу через sillytavern launcher, скачал вроде как подходящую модель (по рекомендации silly). Решил провести первичные тесты отправив первое сообщение и получил такую ошибку:
TypeError: 'NoneType' object is not subscriptable.

Гуглинг мне ничего не дал, кроме рекомендаций по ошибкам в пайтоне. Потому хотел узнать у анонов что не так, быть может я долбаеб просто.
NovelAI and WaifuDiffusion тред #141 /nai/ Аноним 18/04/24 Чтв 16:05:00 708540 Ответ
1683394888121.png 22774Кб, 4096x4096
4096x4096
1688040417627.png 2453Кб, 1368x1664
1368x1664
1596192123649.png 10069Кб, 2448x4320
2448x4320
1582734903702.webp 1091Кб, 1600x2048
1600x2048
1601963314321.jpg 2205Кб, 2400x1600
2400x1600
1597745842095.png 9758Кб, 2048x3072
2048x3072
1574222800667.png 3199Кб, 1248x1678
1248x1678
1691957942612.jpg 1544Кб, 1600x1920
1600x1920
Генерируем тяночек!
Прошлый >>698708 (OP) https://arhivach.top/thread/1007187/

Схожие тематические треды:
— Технотред >>639060 (OP)
— SD-тред (фотореализм) >>708081 (OP)
— Тред в /fur/ https://2ch.icu/fur/res/284014.html

Генерируя в коллабе на чужом блокноте будьте готовы к тому, что его автору могут отправляться все ваши промты, генерации, данные google-аккаунта, IP-адрес и фингерпринт браузера.

F.A.Q. треда: https://rentry.co/nai_faq
Устанавливаем на ПК/Облако: https://rentry.co/nai_faq#как-поставить-на-пкоблако
Полезные расширения для WebUI: https://rentry.co/sd_automatic_extensions

➤ Гайды

Гайды по промптам, списки тегов и негативных эмбеддингов: https://rentry.co/nai_faq#как-писать-промпты
ControlNet для начинающих: https://www.itshneg.com/controlnet-upravlyaj-pozami-v-stable-diffusion
Полная инфа по ControlNet: https://stable-diffusion-art.com/controlnet
Апскейл для начинающих: https://rentry.co/sd__upscale | https://rentry.co/SD_upscale | https://rentry.co/2ch_nai_guide#апскейл
Апскейл с помощью ControlNet (для продвинутых, требуется минимум 8GB VRAM): https://rentry.co/UpscaleByControl
Гайды по обучению лор: https://rentry.co/waavd | https://rentry.co/2chAI_hard_LoRA_guide

➤ Интерфейсы для Stable Diffusion

Stable Diffusion WebUI by AUTOMATIC1111
https://github.com/AUTOMATIC1111/stable-diffusion-webui
Классический WebUI от AUTOMATIC1111. Самое большое число пользователей и наработок.

Оптимизации для слабых ПК (6GB VRAM и менее): https://rentry.co/voldy#-running-on-4gb-and-under-
Общие советы по оптимизациям: https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Optimizations

ComfyUI
https://github.com/comfyanonymous/ComfyUI
Интерфейс, заточенный на построение собственных workflow посредством организации конвееров через редактирование нод с различными действиями и указанием связей между ними.

Англоязычный гайд от автора в виде визуальный новеллы: https://comfyanonymous.github.io/ComfyUI_tutorial_vn/
Примеры готовых workflow: https://comfyanonymous.github.io/ComfyUI_examples/
Русскоязычный гайд: https://habr.com/ru/articles/729848/

WebUI Forge
https://github.com/lllyasviel/stable-diffusion-webui-forge
WebUI от автора контролнета. По интерфейсу аналогичен WebUI от автоматика, но более быстрый.

Foocus
https://github.com/lllyasviel/Fooocus
Альтернативный WebUI от автора контролнета, ориентированный на простоту использования.

Доступен в облаке гугла (колаб): https://colab.research.google.com/github/lllyasviel/Fooocus/blob/main/fooocus_colab.ipynb

➤ Каталог популярных моделей

Чекпоинты SD 1.5: https://civitai.com/collections/42742
Чекпоинты SD XL: https://civitai.com/collections/42753
Генерация аниме на EasyFluff + hll-ликорисе: https://rentry.org/5exa3

Каталог лор на стилизацию для SD 1.5: https://civitai.com/collections/42751
Лоры с форча для SD 1.5: https://gitgud.io/badhands/makesomefuckingporn
Лоры и примечания для PonyDiffusion: https://rentry.org/ponyxl_loras_n_stuff

➤ Дополнительная инфа

Где искать модели, эмбединги, лоры, вайлдкарды и всё остальное: https://civitai.com | https://huggingface.co/models?other=stable-diffusion
АИ-галереи: https://aibooru.online | https://majinai.art
Англоязычные каталоги ссылок: https://stable-diffusion-art.com/tutorials | https://rentry.co/sdg-link | https://rentry.co/sdgoldmine

Шаблон для переката: https://rentry.co/nwhci
Пропущено 133 постов
133 с картинками.
Пропущено 278 постов, 133 с картинками.
Аноним 23/04/24 Втр 06:53:09 714555
.png 2958Кб, 1920x1344
1920x1344
.png 4093Кб, 1344x1920
1344x1920
.png 3222Кб, 1920x1344
1920x1344
.png 2831Кб, 1920x1344
1920x1344
.png 3023Кб, 1920x1344
1920x1344
.png 2778Кб, 1920x1344
1920x1344
.png 3189Кб, 1920x1344
1920x1344
wildcards go brrr
Аноним 23/04/24 Втр 07:17:27 714562
.png 41Кб, 1873x287
1873x287
>>714532
> это будет одна и также картинка в разном разрешении
Будут разные картинки, поскольку смена разрешения влияет на изначальную конфигурацию шума, на основании которой дифьюзия уже пытается додумать, что же на картинке.

> у мелкой будут, например глаза хуёвые, а на большой глаза нормальные?
Оптимальный размер зависит от модели. На современных XL моделях, типо поней, можешь ставить даже выше 1024x1024. Если же используешь модели старого поколения (SD 1.5), то оптимальное базовое разрешение будет ниже, типо 768x768, надо смотреть описание модели. Если укажешь разрешение выше рекомендуемого, то сетка начнёт тебе рисовать многоруких многоголовых мутантов вместо улучшения качества.

Чтобы этого избежать, нужно делать изначальную генерку в более низком разрешении, а потом делай так называемый hires.fix; это функция, которая сперва увеличивает твоё изображения алгоритмически либо другой нейронкой (GAN), а затем делает повторный проход дифьюзией. Таким образом ты можешь сразу увеличить небольшое изображение, которое сгенерировал изначально. В этом случае качество станет выше, так как ты повторно пройдёшься по картинке дифьюзией, но уже в более высоком разрешении.
Аноним 23/04/24 Втр 08:06:23 714578
Анонимы, вопрос. Есть ли смысл переставлять SD на SSD? Будет ли она быстрее загружаться? Модели быстрее менять?
Музыкальный общий №3 /music/ Аноним 13/04/24 Суб 04:26:29 702361 Ответ
Я верю. Друзья!.mp4 6414Кб, 512x768, 00:02:56
512x768
♂ Тру Мужицкий [...].mp4 4739Кб, 512x768, 00:01:58
512x768
Гимн Двача.mp4 16285Кб, 552x552, 00:02:43
552x552
Он снова идёт в[...].mp4 2272Кб, 512x768, 00:01:20
512x768
Adrenaline Rush.mp4 8019Кб, 552x552, 00:01:03
552x552
Siren song.mp4 9385Кб, 640x360, 00:02:56
640x360
Мой корзина хоч[...].mp4 5827Кб, 512x768, 00:02:00
512x768
Бог Машин.mp4 3117Кб, 552x552, 00:01:38
552x552

♫ Udio ♫
https://www.udio.com/
Лимиты: 1200 генераций в месяц

♫ Suno ♫
https://app.suno.ai/ генерация на сайте
https://suno.ai/discord генерация на официальном discord-сервере
https://rentry.co/suno_tips советы по использованию
Лимиты: 5 генераций в день. Нужна платная подписка чтобы увеличить лимиты, либо можно абузить сервис через создание множества аккаунтов

♫ Локальные модели ♫
Ждём и надеемся...

🎙️ Открытый бета-тест Udio
В открытую бету вышла нейросеть Udio, которая, по словам множества пользователей, превосходит Suno V3 в генерации музыкальных композиций. Пока идёт бета-тест, доступно 1200 генераций в месяц с одного аккаунта.

Udio и Suno поддерживают множество языков для вокала (включая русский) и большое разнообразие жанров.

Ориджинал контент крайне приветствуется.

Прошлый тред: >>662527 (OP)

Пропущено 148 постов
148 с картинками.
Пропущено 496 постов, 148 с картинками.
Аноним 22/04/24 Пнд 19:58:54 714059
Катюша.mp4 4761Кб, 512x768, 00:02:02
512x768
Король Шаманов.mp4 3801Кб, 512x768, 00:01:37
512x768
Аноним 22/04/24 Пнд 20:15:53 714075
НовоеОлдовое пр[...].mp4 5733Кб, 512x768, 00:01:58
512x768
Аноним 23/04/24 Втр 06:34:06 714553
>>713967
Вот это я проникся!
Сразу же захотелось все побросали, и пойти за Пыпу подохнуть)
Цензура в чат ботах Аноним 18/04/24 Чтв 13:19:33 708292 Ответ
image.png 881Кб, 1000x1000
1000x1000
image.png 510Кб, 1280x709
1280x709
image.png 1029Кб, 1000x800
1000x800
Сап Двощ, интересуют чат боты с минимальной цензурой, а так же способы обхода цензуры у популярных чат ботов. Подойдут и платные варианты.

Если такой тред уже существует, прошу им поделится.
Аноним 20/04/24 Суб 00:54:58 710509
Бамп
Аноним 23/04/24 Втр 01:57:45 714496
Присоединяюсь к реквесту
Stable Diffusion тред X+80 /sd/ Аноним 18/04/24 Чтв 08:14:34 708081 Ответ
image.png 1393Кб, 1024x1024
1024x1024
image.png 2201Кб, 2048x1224
2048x1224
image.png 2536Кб, 1728x1344
1728x1344
image.png 1081Кб, 1152x896
1152x896
Stable Diffusion тред X+80
======================================
Предыдущий тред >>701338 (OP) https://arhivac.top/?tags=13840
------------------------------------------
схожие тематические треды
- NAI-тред (аниме) >>698708 (OP)
- технотред >>639060 (OP)

========================
Stable Diffusion (SD) - открытая нейросеть генеративного искусства для создания картинок из текста/исходных картинок, обучения на своих изображениях.
Полный функционал в локальной установке (см. ниже)

Альтернативный онлайн-генератор №1: https://dezgo.com/txt2img
Альтернативный онлайн-генератор №2: https://civitai.com/ (create после регистрации)
Альтернативный онлайн-генератор №3: https://tensor.art/ (Workspace)

⚠️ Стандартные модели stable diffusion от Stability AI значительно отстают по качеству от кастомных моделей (см. civitai ниже).

🔞 Без цензуры и полный функци_анал: только ПК-версия
===========================================
🖥УСТАНОВКА НА ПК
WebUI от Automatic1111
https://teletype.in/@stablediffusion/PC_install_SD
------------------------------------------
Forge - Почти тот же WebUI, что и выше, но более быстрый по скорости
https://github.com/lllyasviel/stable-diffusion-webui-forge
------------------------------------------
👉 Для новичков - простой в работе WebUI Fooocus
https://github.com/lllyasviel/Fooocus?tab=readme-ov-file#download
------------------------------------------
Портативная версия альтернативного WebUI от Comfy (запуск с одного из run.bat файлов)
https://github.com/comfyanonymous/ComfyUI/releases
Примерные workflow для ComfyUI (можно загружать напрямую из картинок)
https://comfyanonymous.github.io/ComfyUI_examples/
===========================================
📚 РАЗЛИЧНЫЕ МОДЕЛИ (И МНОГОЕ ДРУГОЕ) 👇
https://civitai.com/
------------------------------------------
📊 ПАРАМЕТРЫ И НАСТРОЙКИ ГЕНЕРАЦИИ 👇
https://teletype.in/@stablediffusion/samplers_steps
===========================================
🎨 ГАЙД ПО СОСТАВЛЕНИЮ ЗАПРОСА, СТИЛИ
https://teletype.in/@stablediffusion/artists_for_prompts

Пример запроса (Промпт): a tiger, wildlife photography, high quality, wildlife, soft focus, 8k, national geographic, photograph by nick nichols
------------------------------------------
♾️РАЗЛИЧНЫЕ ХУДОЖЕСТВЕННЫЕ СТИЛИ (С ПРИМЕРАМИ) 👇
https://supagruen.github.io/StableDiffusion-CheatSheet/
https://www.artvy.ai/styles
------------------------------------------
💻ЧТО ТАКОЕ CONTROLNET И КАК ЕГО ИСПОЛЬЗОВАТЬ
https://www.itshneg.com/controlnt-upravlyaj-pozami-v-stable-diffusion/
==========================================
🧠 ОБУЧЕНИЕ ПО СВОИМ КАРТИНКАМ 👇
https://dtf.ru/howto/1660668-obuchenie-modeli-s-pomoshchyu-lora
https://civitai.com/models/train
Пропущено 185 постов
185 с картинками.
Пропущено 500 постов, 185 с картинками.
Аноним 22/04/24 Пнд 23:15:02 714317
>>714309
> будет ли на практике работать подход
Будет. Работает. Убедиться можно было быстрее, чем написать пост с вопросом.
Аноним 23/04/24 Втр 03:43:24 714529
image (17).png 4905Кб, 2560x1600
2560x1600
Аноним 23/04/24 Втр 08:39:03 714594
>>714000
>>714036
>>714043
Картинки под Hyper это и есть новый метод.

Все остальное это все дефолт и старые методы на пике для сравнения.
DALL-E тред #7 /dalle/ Аноним 06/03/24 Срд 06:20:20 660935 Ответ
1691116468271.jpg 494Кб, 1024x1024
1024x1024
1595870742281.jpg 591Кб, 1024x1024
1024x1024
1661690152759.jpg 639Кб, 1024x1024
1024x1024
1676042327817.png 2741Кб, 1792x1024
1792x1024
1650950813962.jpg 658Кб, 1024x1024
1024x1024
1604420339060.jpg 581Кб, 1024x1024
1024x1024
1644930630952.jpg 933Кб, 1024x1024
1024x1024
1601773967246.jpg 528Кб, 1024x1024
1024x1024
Генерируем бесплатно через Bing:
https://www.bing.com/images/create

Генерация за бабосы через OpenAI:
https://labs.openai.com
Оплата картой, жители этой страны без зарубежной карты в пролёте.

Как вкатиться:
Через впн заходишь и регаешь аккаунт на Bing. Если просит телефон, то перезагружаешь страницу до победного/меняешь впн.

Как получить бусты:
Если заканчиваются ежедневные бусты, то либо чистишь историю поиска в Bing (Меню профиля - Search History - Clear all. Потребует снова подтвердить почту), либо создаёшь новый аккаунт, либо генерируешь с задержкой, которая определяется в зависимости от загруженности сервера. Примерно до 15:00 по Москве обычно генерируется без длинных ожиданий.

Цензуре подвергаются следующие вещи:
1. Запрещена генерация жестокого контента, контента "для взрослых" и контента "провоцирующего ненависть"
2. Запрещена генерация изображений публичных личностей
3. Запрещена генерация изображений в стиле ныне живущих художников

Кредиты не тратятся, если ваш запрос не прошёл цензуру.

Как обходить цензуру:
Цензуру постоянно дообучают. Бинг проверяет как сам промт, так и картинку которая получилась. Иногда это можно обходить, пример:
1. Помогает добавить частицу "не". "not Ryan not Gosling" поможет обойти цензуру на реальных людей
2. Если хочется сгенерировать что-то шальное, иногда помогает добавить деталей в картину, сместив фокус с того что хочется.
3. Визуальная цензура может не заметить запрещенный контент. Сиськи в татуировках легче протащить, так же как и голое тело в светящихся фракталах
4. Помогает пикантные моменты запихивать в конец промта. Если при этом нейросеть его игнорит, перемещать ближе к началу предложения и/или удваивать, типа "Not tights. Not stockings"

Ресурсы:
https://pastebin.com/qDRXFfBM гайд от форчановских братушек
https://fex.plus и https://temp-mail.org - временная почта для новых акков
https://huggingface.co/spaces/fffiloni/CLIP-Interrogator-2 де-промптер, разбирающий вброшенный пик на теги. Говённый, но может подсказать новые идеи.
https://huggingface.co/spaces/Xintao/GFPGAN перерисовывает лица, изредка убирая баги генерации и добавляя новые.
https://bigjpg.com апскейлер до 4096х4096. Мыло, но иногда надо.
https://inpaintgimpplugin.github.io Gimp Inpainting Plug-in, позволяющий закрасить шестой палец и третью руку.
https://drawingprompt.com рандомные идеи для промтов
https://rentry.org/m5ph54 советы по обходу цензуры

Прошлый >>560915 (OP)
Пропущено 231 постов
231 с картинками.
Пропущено 375 постов, 231 с картинками.
Аноним 22/04/24 Пнд 16:32:43 713855
2a5b9c74-d5a4-4[...].jpeg 232Кб, 1024x1024
1024x1024
Аноним 22/04/24 Пнд 17:41:02 713913
Аноним 22/04/24 Пнд 17:48:04 713925
fc2c6ffd-1490-4[...].jpeg 265Кб, 1024x1024
1024x1024
>>713913
Я их только сегодня сгенерил, все 4 штуки, по "Во все тяжкие". Не сочиняй.
Stable Diffusion технотред #16 /tech/ Аноним 09/02/24 Птн 21:09:17 639060 Ответ
.png 979Кб, 3510x2910
3510x2910
.png 358Кб, 2546x1822
2546x1822
.png 271Кб, 1853x624
1853x624
.png 545Кб, 2440x934
2440x934
ИТТ делимся советами, лайфхаками, наблюдениями, результатами обучения, обсуждаем внутреннее устройство диффузионных моделей, собираем датасеты, решаем проблемы и экспериментируем Тред общенаправленныей, тренировка дедов, лупоглазых и фуррей приветствуются

Предыдущий тред: >>570475 (OP)

➤ Софт для обучения

https://github.com/kohya-ss/sd-scripts
Набор скриптов для тренировки, используется под капотом в большей части готовых GUI и прочих скриптах.
Для удобства запуска можно использовать дополнительные скрипты в целях передачи параметров, например: https://rentry.org/simple_kohya_ss

➤ GUI-обёртки для sd-scripts

https://github.com/bmaltais/kohya_ss
https://github.com/derrian-distro/LoRA_Easy_Training_Scripts
https://github.com/anon-1337/LoRA-train-GUI

➤ Обучение SDXL

https://2ch-ai.gitgud.site/wiki/tech/sdxl/

➤ Гайды по обучению

Существующую модель можно обучить симулировать определенный стиль или рисовать конкретного персонажа.

LoRA – "Low Rank Adaptation" – подойдет для любых задач. Отличается малыми требованиями к VRAM (6 Гб+) и быстрым обучением. https://github.com/cloneofsimo/lora - изначальная имплементация алгоритма, пришедшая из мира архитектуры transformers, тренирует лишь attention слои, гайды по тренировкам:
https://rentry.co/waavd - гайд по подготовке датасета и обучению LoRA для неофитов
https://rentry.org/2chAI_hard_LoRA_guide - ещё один гайд по использованию и обучению LoRA
https://rentry.org/59xed3 - более углубленный гайд по лорам, содержит много инфы для уже разбирающихся (англ.)

LyCORIS (Lora beYond Conventional methods, Other Rank adaptation Implementations for Stable diffusion) - проект по созданию алгоритмов для обучения дополнительных частей модели. Ранее имел название LoCon и предлагал лишь тренировку дополнительных conv слоёв. В настоящий момент включает в себя алгоритмы LoCon, LoHa, LoKr, DyLoRA, IA3, а так же на последних dev ветках возможность тренировки всех (или не всех, в зависимости от конфига) частей сети на выбранном ранге:
https://github.com/KohakuBlueleaf/LyCORIS

Подробнее про алгоритмы в вики https://2ch-ai.gitgud.site/wiki/tech/lycoris/

Dreambooth – для SD 1.5 обучение доступно начиная с 16 GB VRAM. Ни одна из потребительских карт не осилит тренировку будки для SDXL. Выдаёт отличные результаты. Генерирует полноразмерные модели:
https://rentry.co/lycoris-and-lora-from-dreambooth (англ.)
https://github.com/nitrosocke/dreambooth-training-guide (англ.)

Текстуальная инверсия (Textual inversion), или же просто Embedding, может подойти, если сеть уже умеет рисовать что-то похожее, этот способ тренирует лишь текстовый энкодер модели, не затрагивая UNet:
https://rentry.org/textard (англ.)

➤ Тренировка YOLO-моделей для ADetailer:
YOLO-модели (You Only Look Once) могут быть обучены для поиска определённых объектов на изображении. В паре с ADetailer они могут быть использованы для автоматического инпеинта по найденной области.

Подробнее в вики: https://2ch-ai.gitgud.site/wiki/tech/yolo/

Не забываем про золотое правило GIGO ("Garbage in, garbage out"): какой датасет, такой и результат.

➤ Гугл колабы

﹡Текстуальная инверсия: https://colab.research.google.com/github/huggingface/notebooks/blob/main/diffusers/sd_textual_inversion_training.ipynb
﹡Dreambooth: https://colab.research.google.com/github/TheLastBen/fast-stable-diffusion/blob/main/fast-DreamBooth.ipynb
﹡LoRA [1] https://colab.research.google.com/github/Linaqruf/kohya-trainer/blob/main/kohya-trainer.ipynb
﹡LoRA [2] https://colab.research.google.com/drive/1bFX0pZczeApeFadrz1AdOb5TDdet2U0Z

➤ Полезное

Расширение для фикса CLIP модели, изменения её точности в один клик и более продвинутых вещей, по типу замены клипа на кастомный: https://github.com/arenasys/stable-diffusion-webui-model-toolkit
Гайд по блок мерджингу: https://rentry.org/BlockMergeExplained (англ.)
Гайд по ControlNet: https://stable-diffusion-art.com/controlnet (англ.)

Подборка мокрописек для датасетов от анона: https://rentry.org/te3oh
Группы тегов для бур: https://danbooru.donmai.us/wiki_pages/tag_groups (англ.)

Гайды по апскейлу от анонов:
https://rentry.org/SD_upscale
https://rentry.org/sd__upscale
https://rentry.org/2ch_nai_guide#апскейл
https://rentry.org/UpscaleByControl

Коллекция лор от анонов: https://rentry.org/2chAI_LoRA

Гайды, эмбеды, хайпернетворки, лоры с форча:
https://rentry.org/sdgoldmine
https://rentry.org/sdg-link
https://rentry.org/hdgfaq
https://rentry.org/hdglorarepo
https://gitgud.io/gayshit/makesomefuckingporn

➤ Legacy ссылки на устаревшие технологии и гайды с дополнительной информацией

https://2ch-ai.gitgud.site/wiki/tech/legacy/

➤ Прошлые треды

https://2ch-ai.gitgud.site/wiki/tech/old_threads/

Шапка: https://2ch-ai.gitgud.site/wiki/tech/tech-shapka/
Пропущено 75 постов
75 с картинками.
Пропущено 385 постов, 75 с картинками.
Аноним 22/04/24 Пнд 13:52:38 713714
>>712557
Попробуй просто папку library скопировать туда откуда запускаешь, у тебя не импортируется нормально, видимо я тоже это когда то делал, но уже забыл
Аноним 22/04/24 Пнд 17:15:48 713890
Аноны, у меня следующий сетап:
– RTX 2060 12Gb
– 128gb ОЗУ
– Автоматик

Чего можно спихнуть на ОЗУ?
И есть ли смысл ставить Фордж для XL если автоматик выдает сейчас 4 картинки 1536х1024 за 2 минуты? Вообще скорость можно значительно увеличить или это уже предел для моей карты?
Аноним 22/04/24 Пнд 17:38:56 713911
>>713890
Кеш чекпоинтов сделай побольше. У меня где-то 5 стоит. Плюс есть флаг командной строки отключающий оптимизацию ОЗУ при переключении моделей, не помню как называется
Голосовых нейронок тред (TTS, STS, STT) #6 /speech/ Аноним 08/03/24 Птн 02:43:18 664162 Ответ
Вал не крутись.mp4 6481Кб, 1280x720, 00:01:09
1280x720
Крипи-стори.mp4 23025Кб, 1280x720, 00:09:04
1280x720
Wellerman.mp4 4225Кб, 1024x1024, 00:00:20
1024x1024
Слово Неко-Арк.mp4 8326Кб, 640x480, 00:01:09
640x480
Так уж вышло.webm 829Кб, 512x384, 00:01:02
512x384
XTTSv2 finetune.webm 7519Кб, 1544x840, 00:02:06
1544x840
aggressive scie[...].mp4 5291Кб, 1152x720, 00:00:01
1152x720
Я болен тобой.mp4 1744Кб, 512x768, 00:01:20
512x768
Обсуждаем нейросети, связанные с синтезом, преобразованием и распознаванием речи. Не забываем публиковать свои шедевры в треде.

Прошлый тред: >>552016 (OP)

Вики треда: https://2ch-ai.gitgud.site/wiki/speech/

FAQ

Q: Хочу озвучивать пасты с двача голосом Путина/Неко-Арк/и т.п.

1. Используешь любой инструмент для синтеза голоса из текста - есть локальные, есть онлайн через huggingface или в виде ботов в телеге:
https://2ch-ai.gitgud.site/wiki/speech/#синтез-голоса-из-текста-tts

Спейс без лимитов для EdgeTTS:
https://huggingface.co/spaces/NeuroSenko/rus-edge-tts-webui

Так же можно использовать проприетарный комбайн Soundworks (часть фич платная):
https://dmkilab.com/soundworks

2. Перегоняешь голос в нужный тебе через RVC. Для него есть огромное число готовых голосов, можно обучать свои модели:
https://2ch-ai.gitgud.site/wiki/speech/sts/rvc/rvc/

Q: Как делать нейрокаверы?

1. Делишь оригинальную дорожку на вокал и музыку при помощи Ultimate Vocal Remover:
https://github.com/MaHivka/ultimate-voice-models-FAQ/wiki/UVR

2. Преобразуешь дорожку с вокалом к нужному тебе голосу через RVC:
https://2ch-ai.gitgud.site/wiki/speech/sts/rvc/rvc/

3. Объединяешь дорожки при помощи Audacity или любой другой тулзы для работы с аудио

Опционально: на промежуточных этапах обрабатываешь дорожку - удаляешь шумы и прочую кривоту. Кто-то сам перепевает проблемные участки.

Качество нейрокаверов определяется в первую очередь тем, насколько качественно выйдет разделить дорожку на составляющие в виде вокальной части и инструменталки. Если в треке есть хор или беквокал, то земля пухом в попытке преобразовать это.

Нейрокаверы проще всего делаются на песни с небольшим числом инструментов - песня под соло гитару или пианино почти наверняка выйдет без серьёзных артефактов.

Q: Хочу говорить в дискорде/телеге голосом определённого персонажа.

Используй RVC (запуск через go-realtime-gui.bat) либо Voice Changer:
https://github.com/w-okada/voice-changer/blob/master/README_en.md

Гайд по Voice Changer, там же рассказывается, как настроить виртуальный микрофон:
https://github.com/MaHivka/ultimate-voice-models-FAQ/wiki/Voice‐Changer (часть ссылок похоже сдохла)

Q: Как обучить свою RVC-модель?

Гайд на русском: https://github.com/MaHivka/ultimate-voice-models-FAQ/wiki/RVC#создание-собственной-модели
Гайд на английском: https://docs.aihub.wtf/guide-to-create-a-model/model-training-rvc
Определить переобучение через TensorBoard: https://docs.aihub.wtf/guide-to-create-a-model/tensorboard-rvc
Если тыква вместо видеокарты, можно тренить в онлайне: https://www.kaggle.com/code/varaslaw/rvc-v2-no-gradio-https-t-me-aisingers-ru/notebook?scriptVersionId=143284909 (инструкция: https://www.youtube .com/watch?v=L-emE1pGUOM )

Q: Надо распознать текст с аудио/видео файла

Используй Whisper от OpenAI: https://github.com/openai/whisper
Быстрый скомпилированный для винды вариант: https://github.com/Purfview/whisper-standalone-win
Так же есть платные решения от Сбера/Яндекса/Тинькофф.

Коммерческие системы

https://elevenlabs.io перевод видео, синтез и преобразование голоса
https://heygen.com перевод видео с сохранением оригинального голоса и синхронизацией движения губ на видеопотоке. Так же доступны функции TTS и ещё что-то
https://app.suno.ai генератор композиций прямо из текста. Есть отдельный тред на доске >>662527 (OP)

Шаблон для переката: https://2ch-ai.gitgud.site/wiki/speech/speech-shapka/
Пропущено 33 постов
33 с картинками.
Пропущено 148 постов, 33 с картинками.
Аноним 22/04/24 Пнд 12:13:45 713572
image.png 1002Кб, 573x719
573x719
>>664162 (OP)
Аноны, нейрокаверы вам в хату, такой вопрос - как переделать голос с мужского на женский и вообще реально ли это? Я записываю свой и на женской модели полный треш выходит. Делать высокий pitch тоже не помогает. Но при этом когда я даю модели запись голоса какой нибудь тянки, то плюс минус похоже получается.
Аноним 22/04/24 Пнд 14:00:46 713729
image.png 211Кб, 1903x1041
1903x1041
>>664162 (OP)
так почему нет выхлопа и куча ошибок
Аноним 22/04/24 Пнд 15:23:49 713803
Обсуждение просмотров, подписок и заработка по AI артам №3 /subs/ Аноним 05/09/23 Втр 13:38:08 477091 Ответ
pixiv.png 35Кб, 1280x498
1280x498
deviantart.png 38Кб, 2000x802
2000x802
art-station.jpg 313Кб, 1200x630
1200x630
patreon.webp 5Кб, 1292x592
1292x592
Меряемся числом подписчиков, выясняем оптимальную стратегию по выкладыванию артов в паблик, зарабатываем на платных галереях и комишенах, пытаемся вывести деньги из-за бугра если вы являетесь жителем этой страны, бугуртим от бана нейронок на артплощадках.

Обсуждаем всё, что относится к публикации своих артов и способам их монетизации.

База треда:
https://www.pixiv.net
https://www.deviantart.com
https://www.artstation.com
https://www.patreon.com

Прошлый тред: >>172605 (OP)
Пропущено 28 постов
28 с картинками.
Пропущено 252 постов, 28 с картинками.
Аноним 19/04/24 Птн 20:19:02 710126
>>702683
Ну, там явно есть нотки подъёба, не могу не согласиться.

В любом случае, наличие постов подтверждает тот факт, что вы чекаете этот тредик. Давайте понемножку его оживлять, хотя бы пару ответов за недельку со своими успехами, даже минимальными.

Неудачи и мысли тоже можно вбросить, пообсуждать актуальные проблемы и возможные варианты их решения. Мы тут всё-таки небольшое, но сообщество.

В конце концов с кем ещё вы сможете эту тему затронуть? Не батьку же за обеденным столом втирать, как поднял 100 рублей на паре картинок с голыми анимудевочками. Ну да ладно, это я так, для поддержания двачерской атмосферы сказал.

У меня прогресс небольшой, потому что я не в режиме конвейера работаю, а буквально пару картинок загрузил, делаю по настроению и чтобы, в первую очередь, мне самому нравилось. Из подписоты там пара других каналов 100+ подписоты и безаватарочные околоботы, ну, думаю, в таком деле это неизбежно. Пусть будут ради цифры, хуже мне не делают. Пока что всё, анон-движитель (ага, украл из балды3), конец связи.
Аноним 20/04/24 Суб 11:15:08 710712
>>689454
>Как дела аноны?
Хуёвенько. Вроде и есть акк на DA с парой тысяч вотчеров, а монетизации хуй да нихуя. Как вообще можно это монетизировать? Вроде и контента много лью и платные галереи сделал и коммишны открыл и адоптов выставил. А вот хуй, а не доход. На бусти вообще траффик не идёт, хотя там тоже контента хватает.

Что посоветуете?
Аноним 22/04/24 Пнд 11:36:08 713524
ChatGPT-тред №15 /chatgpt/ Аноним 18/12/23 Пнд 04:04:00 576277 Ответ
17010360065570.png 66Кб, 751x683
751x683
OpenAI - network error

Общаемся с самым продвинутым ИИ самой продвинутой текстовой моделью из доступных. Горим с отсутствия бесплатного доступа к свежевыпущенному новому поколению GPT-4.

Гайд по регистрации из России:
1. Установи VPN, например расширение FreeVPN под свой любимый браузер и включи его.
2. Возьми нормальную почту. Адреса со многих сервисов временной почты блокируются. Отбитые могут использовать почту в RU зоне, она прекрасно работает.
3. Зайди на https://chat.openai.com/chat и начни регистрацию. Ссылку активации с почты запускай только со включенным VPN.
4. Когда попросят указать номер мобильного, пиздуй на sms-activate.org или 5sim.biz (дешевле) и в строку выбора услуг вбей openai. Для разового получения смс для регистрации тебе хватит индийского или польского номера за 7 - 10 рублей (проверено). Пользоваться Индонезией и странами под санкциями не рекомендуется.
5. Начинай пользоваться ChatGPT.
6. ???
7. PROFIT!

VPN не отключаем, все заходы осуществляем с ним. Соответствие страны VPN, почты и номера не обязательно, но желательно для тех, кому доступ критически нужен, например для работы.

Для ленивых есть боты в телеге, 3 сорта:
0. Боты без истории сообщений. Каждое сообщение отправляется изолировано, диалог с ИИ невозможен, проёбывается 95% возможностей ИИ
1. Общая история на всех пользователей, говно даже хуже, чем выше
2. Приватная история на каждого пользователя, может реагировать на команды по изменению поведения и прочее. Говно, ибо платно, а бесплатный лимит или маленький, или его нет совсем.

Промты для хорошего начала беседы для разных ситуаций
https://github.com/f/awesome-chatgpt-prompts

Перед тем, как идти в тред с горящей жопой при ошибках сервиса, сходи на сайт со статусом, может, это общий баг
https://status.openai.com/

Чат помнит историю в пределах контекста, это 4к токенов для GPT 3.5 (до 16к в апи) и 8к для новой GPT-4 (128к в версии GPT-4-Turbo). Посчитать свои токены можно здесь:
https://platform.openai.com/tokenizer

Что может нейросеть:
- писать тексты, выглядящие правдоподобно
- решать некоторые простые задачки
- писать код, который уже был написан

Что не может нейросеть:
- писать тексты, содержащие только истину
- решать сложные задачи
- писать сложный код
- захватывать мир
- заходить на вебсайты (неактуально для 4 с плагинами, платим деньги и радуемся)

С последними обновлениями начинает всё чаще сопротивляться написанию NSFW историй и прочего запрещённого контента. Кумеры со всего мира в печали.

На сегодняшний день (дата создания треда) есть бесплатная версия на основе GPT-3.5 и платная версия (20$/мес) с использованием следующего поколения — GPT-4. Платная версия ограничена 50 запросами в 3 часа, причем планируется увеличение ограничений. Доступ к плагинам открыли в бета-версии для платных пользователей. Оплатить подписку из России нельзя, ищите посредников на сайтах для оплаты онлайн игр и договаривайтесь там сами. Отважные могут попробовать разводил с авито, объявлений вагон, но аноны не проверяли.

Для некоторых пользователей открыли альфа версию с бесплатной GPT-4 c картинками и веб-поиском, но счастливчиков в треде примерно 1 штука, остальные сидят на 3,5 и ноют.

Прошлые треды тонут по адресам:
>>542964 (OP)
>>489685 (OP)
Пропущено 50 постов
50 с картинками.
Пропущено 408 постов, 50 с картинками.
Аноним 22/04/24 Пнд 07:12:41 713346
>>712911
Типичная пидораха, которой помочь ближнему в падлу, даже если помощь минимальная. Все себе захапать
Аноним 22/04/24 Пнд 07:26:23 713351
>>702409
Верим блять что его параша самая умная
Лучше бы полноценный автопилот сделал для своих говно-машинок, а не распылялся.
Аноним 22/04/24 Пнд 09:06:30 713401
>>713346
>помочь ближнему
А в чём помощь то?
В том что вы просто всё заруинили?
AI Chatbot General № 475 aicg /aicg/ Аноним 21/04/24 Вск 08:36:46 712163 Ответ
17134743421620.png 1144Кб, 1808x1182
1808x1182
17134743422011.mp4 3425Кб, 960x720, 00:00:51
960x720
AI Chatbot General № 475

БОТОДЕЛЫ!!!! Прикрепляйте новых ботов к оп-посту!!!!

Общий вопросов по чат-ботам и прочего тред.

- Фронтэнды -
Agnai, SillyTavern, RisuAI
Гайды: https://rentry.co/ultimatespoonfeed | https://rentry.co/Tavern4Retards (Гайд на английском) | https://rentry.org/STAI-Termux (На андроид)
Базовые термины: https://2ch-ai.gitgud.site/wiki/llama/
Скрипты SillyTavern (Quick Replies): https://rentry.org/stscript
https://github.com/SillyTavern/SillyTavern | https://github.com/ntvm/SillyTavern (Форк нв-куна)
https://agnai.chat/
https://risuai.xyz/

- GPT -
Джейлы на 0314/0613: https://rentry.co/SillyTavern_JB_Pack | https://rentry.co/fa5fv | https://dumb.one/gpt/prompts-scraped/ | https://rentry.co/lobstersgpt
Джейлы на 1106: https://rentry.co/anonaugusproductionsCustomJB | https://rentry.co/crustcrunchGPT | https://rentry.co/Myuu_Jippy | https://rentry.co/CoTonAugus | https://rentry.org/onichan2210
Джейлы на 0125: https://rentry.org/neo-furbo | https://rentry.org/camicle-jb
Джейлы на Turbo: https://rentry.co/YAnonTurbo | https://rentry.co/hochi-reupload

- Claude -
Джейлы: https://rentry.co/SillyTavern_JB_Pack | https://rentry.co/absolutejail | https://rentry.co/pitanonbots#prompt-presets | https://rentry.co/XML-dva-shiza | https://rentry.co/crustcrunchJB | https://rentry.co/CharacterProvider | https://rentry.co/MyuuTastic
Опус/Соннет: https://rentry.org/Anon4Anon | https://unconvincing.neocities.org/ | https://rentry.org/pancatb3ta | https://rentry.org/AiBrainPresets | https://rentry.org/CladeOpus-GigaSchizoKostyl
Удаление Human/Assistant: https://rentry.co/TavernNoAss | https://rentry.co/HumAssistOff
Префилл: https://rentry.co/aui3u
Полезное: https://rentry.org/anonika_infoblock | https://rentry.org/zapominator

- Мемо -
Мемо вручную: https://rentry.co/DrunkArcadeExample
Генератор мемо: https://rentry.co/LazyMemo
Мемо на опусе: https://rentry.co/HornyPigs

- Bing -
https://github.com/Barbariskaa/Biba
Гайд: https://rentry.co/BingZOVEdition

- Локалки -
https://openrouter.ai/
Гайд (на английском): https://rentry.co/meta_golocal_list

- Ботоводчество -
https://www.chub.ai
https://booru.plus/+pygmalion
https://des une.moe/aichared/
https://agnai.chat/editor
https://rentry.co/botmaking_tips
https://rentry.co/MothsBotMakingStuff
https://rentry.co/oaicards
Боты анонов: https://rentry.co/2chaicgtavernbots | https://rentry.co/2chaicgtavernbots2

- Село 2ch -
https://rentry.co/selo2ch

- Архив тредов -
https://rentry.co/2ch-aicg-archives

- GIGACHAT -
https://rentry.co/3bc7r

- Character.AI -
https://beta.character.ai/
https://rentry.co/CAI-FAQ
Боты анонов: https://rentry.co/CAI-bots

- Прочее -
Проверить ключ:
GPT
https://github.com/Buhankoanon/OAI_API_Checker | https://github.com/CncAnon1/kkc
Claude
https://github.com/Definetelynotbranon/Anthropic_API_Checker
Специфические промпты в джейл для кума: https://rentry.co/jinxbreaks
Забавные промпты после кума: https://rentry.co/weirdbutfunjailbreaksandprompts

- Конкурсы -
Общая информация: https://rentry.co/2chaicgthemedevents
Текущий конкурс: >>710144 →

- Шапка -
https://rentry.co/shapkacaitreda

БОТОДЕЛЫ!!!! Прикрепляйте новых ботов к оп-посту!!!!

- Локальные языковые модели: >>712072 (OP) -

- Прошлый тред: >>709270 (OP) -
Пропущено 215 постов
215 с картинками.
Пропущено 1427 постов, 215 с картинками.
Аноним 23/04/24 Втр 08:36:48 714593
image.png 206Кб, 1129x410
1129x410
Всё начиналось хорошо, а закончил как обычно
Аноним 23/04/24 Втр 08:41:45 714595
>>714593
Попробуй вот это в гайдлайны запихать. У меня даже на кумслопе с монстро-бабами и суккубами не сразу в еблю скатывается и держится нормально постов 20.

<narrative features>
[formatting]
- All actions (even minor ones) and speech of characters are always preceded by the "{Character's name}:" prefixes; one prefix can be followed up by multiple instances of speech and actions of that character

[narration]
- Balance between dialogue, action, and narrative description
- A dynamic, interactive world that evolves independently
- Diverse perspectives and moral challenges with no clear resolutions
- Detailed descriptions of settings, interactions, and dialogue between characters
- Engaging and immersive, with vivid descriptions and sensory details

[story development]
- The setting and traits established for the story are maintained
- New and elaborate details, lore, and recent events from <past_events></past_events> incorporated into the writing
- The story develops logically and realistically, where any situation and any outcome is possible
- Changes in location, characters' positions, and clothing are clearly described to maintain consistency and avoid confusion
- Creative and imaginative actions, interactions, and item usage by characters
- Well-paced and balanced, with a mix of action, dialogue, and narrative description

[character development]
- Backstories that inform current behavior and situation
- Unique personality traits, habits, and quirks
- Clear goals and motivations beyond sexual interactions
- Flaws or weaknesses for realism
- Secrets or hidden agendas to enhance the plot
- Actions and reactions are motivated by personality, traits, and speech styles
- Conflicts or disagreements with with other characters due to their actions or decisions
- Bonds, friendships, or romantic connections are naturally formed through consistent interactions and mutual understanding
- Feelings and attitudes are nuanced and contextual, taking into account past interactions, trust levels, and personal biases
- Conflicting emotions or mixed feelings about others, and relationships can evolve over time through positive or negative experiences
</narrative features>
Аноним 23/04/24 Втр 08:44:26 714597
>>714595
Спасибо, попробую
Сап двач, такая проблема. Последнее время регулярно использовал krea.ai по работе. Все было хорошо, Аноним 21/04/24 Вск 11:33:13 712261 Ответ
234.png 206Кб, 422x310
422x310
Сап двач, такая проблема. Последнее время регулярно использовал krea.ai по работе. Все было хорошо, но недавно перестала работать опция Quick Enhance, получается только искаженное изображение с низким разрешением. Иногда получается норм, после 50+ попыток. Кто-нибудь сталкивался с этим? Что делать? И есть ли альтернативы для krea.ai, когда ты также можешь загружать свое изображение, писать промт и т.д.
Пропущено 1 постов
1 с картинками.
Пропущено 3 постов, 1 с картинками.
Аноним 21/04/24 Вск 13:59:57 712359
>>712321
А где это раздобыть? Я просто кроме krea и пары нейросеток больше ничего не знаю. Мне просто нужна нейросетка где можно обрабатывать фотографии в приемлемом качестве и с минимум ограничений.

Krea в этом плане хорошо подходила пока этот залупный баг не вылез который я хз как обойти. На всяких рэддитах при быстром поиске ничего не нашел по такой проблеме
Аноним 21/04/24 Вск 15:19:37 712461
>>712359
Можно стейблдифужен с быстрым семплером пробросить в фотошоп или криту. Для криты вроде даже реалтайм рисовка имеется. Возможно можно плейграунд 2.5 через комфи с модулями на рисование также сделать, но я не гуглил. У тебя вопрос стоит только в наличии видеокарты.
Аноним 21/04/24 Вск 16:39:58 712538
>>712461
Спасибо, попробую
Локальные языковые модели (LLM): LLaMA, Mistral, Command-R и прочие №52 /llama/ Аноним 19/04/24 Птн 13:43:20 709757 Ответ
Llama 1.png 818Кб, 630x900
630x900
Альфа от контек[...].png 121Кб, 3090x1830
3090x1830
Деградация от к[...].png 13Кб, 792x612
792x612
Самый ебанутый [...].png 1642Кб, 1278x959
1278x959
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст, и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.

Здесь и далее расположена базовая информация, полная инфа и гайды в вики https://2ch-ai.gitgud.site/wiki/llama/

LLaMA 3 вышла! Впрочем всем похуй, всё одно говно без размеров и с соей, размером только 8B и 70B.

Базовой единицей обработки любой языковой модели является токен. Токен это минимальная единица, на которые разбивается текст перед подачей его в модель, обычно это слово (если популярное), часть слова, в худшем случае это буква (а то и вовсе байт).
Из последовательности токенов строится контекст модели. Контекст это всё, что подаётся на вход, плюс резервирование для выхода. Типичным максимальным размером контекста сейчас являются 2к (2 тысячи) и 4к токенов, но есть и исключения. В этот объём нужно уместить описание персонажа, мира, истории чата. Для расширения контекста сейчас применяется метод NTK-Aware Scaled RoPE. Родной размер контекста для Llama 1 составляет 2к токенов, для Llama 2 это 4к, но при помощи RoPE этот контекст увеличивается в 2-4-8 раз без существенной потери качества.

Базовым языком для языковых моделей является английский. Он в приоритете для общения, на нём проводятся все тесты и оценки качества. Большинство моделей хорошо понимают русский на входе т.к. в их датасетах присутствуют разные языки, в том числе и русский. Но их ответы на других языках будут низкого качества и могут содержать ошибки из-за несбалансированности датасета. Существуют мультиязычные модели частично или полностью лишенные этого недостатка, из легковесных это openchat-3.5-0106, который может давать качественные ответы на русском и рекомендуется для этого. Из тяжёлых это Command-R. Файнтюны семейства "Сайга" не рекомендуются в виду их низкого качества и ошибок при обучении.

Основным представителем локальных моделей является LLaMA. LLaMA это генеративные текстовые модели размерами от 7B до 70B, притом младшие версии моделей превосходят во многих тестах GTP3 (по утверждению самого фейсбука), в которой 175B параметров. Сейчас на нее существует множество файнтюнов, например Vicuna/Stable Beluga/Airoboros/WizardLM/Chronos/(любые другие) как под выполнение инструкций в стиле ChatGPT, так и под РП/сторитейл. Для получения хорошего результата нужно использовать подходящий формат промта, иначе на выходе будут мусорные теги. Некоторые модели могут быть излишне соевыми, включая Chat версии оригинальной Llama 2.

Про остальные семейства моделей читайте в вики.

Основные форматы хранения весов это GGML и GPTQ, остальные нейрокуну не нужны. Оптимальным по соотношению размер/качество является 5 бит, по размеру брать максимальную, что помещается в память (видео или оперативную), для быстрого прикидывания расхода можно взять размер модели и прибавить по гигабайту за каждые 1к контекста, то есть для 7B модели GGML весом в 4.7ГБ и контекста в 2к нужно ~7ГБ оперативной.
В общем и целом для 7B хватает видеокарт с 8ГБ, для 13B нужно минимум 12ГБ, для 30B потребуется 24ГБ, а с 65-70B не справится ни одна бытовая карта в одиночку, нужно 2 по 3090/4090.
Даже если использовать сборки для процессоров, то всё равно лучше попробовать задействовать видеокарту, хотя бы для обработки промта (Use CuBLAS или ClBLAS в настройках пресетов кобольда), а если осталась свободная VRAM, то можно выгрузить несколько слоёв нейронной сети на видеокарту. Число слоёв для выгрузки нужно подбирать индивидуально, в зависимости от объёма свободной памяти. Смотри не переборщи, Анон! Если выгрузить слишком много, то начиная с 535 версии драйвера NVidia это может серьёзно замедлить работу, если не выключить CUDA System Fallback в настройках панели NVidia. Лучше оставить запас.

Гайд для ретардов для запуска LLaMA без излишней ебли под Windows. Грузит всё в процессор, поэтому ёба карта не нужна, запаситесь оперативкой и подкачкой:
1. Скачиваем koboldcpp.exe https://github.com/LostRuins/koboldcpp/releases/ последней версии.
2. Скачиваем модель в gguf формате. Например вот эту:
https://huggingface.co/Sao10K/Fimbulvetr-10.7B-v1-GGUF/blob/main/Fimbulvetr-10.7B-v1.q5_K_M.gguf
Можно просто вбить в huggingace в поиске "gguf" и скачать любую, охуеть, да? Главное, скачай файл с расширением .gguf, а не какой-нибудь .pt
3. Запускаем koboldcpp.exe и выбираем скачанную модель.
4. Заходим в браузере на http://localhost:5001/
5. Все, общаемся с ИИ, читаем охуительные истории или отправляемся в Adventure.

Да, просто запускаем, выбираем файл и открываем адрес в браузере, даже ваша бабка разберется!

Для удобства можно использовать интерфейс TavernAI
1. Ставим по инструкции, пока не запустится: https://github.com/Cohee1207/SillyTavern
2. Запускаем всё добро
3. Ставим в настройках KoboldAI везде, и адрес сервера http://127.0.0.1:5001
4. Активируем Instruct Mode и выставляем в настройках пресетов Alpaca
5. Радуемся

Инструменты для запуска:
https://github.com/LostRuins/koboldcpp/ Репозиторий с реализацией на плюсах
https://github.com/oobabooga/text-generation-webui/ ВебуУИ в стиле Stable Diffusion, поддерживает кучу бекендов и фронтендов, в том числе может связать фронтенд в виде Таверны и бекенды ExLlama/llama.cpp/AutoGPTQ

Ссылки на модели и гайды:
https://huggingface.co/models Модели искать тут, вбиваем название + тип квантования
https://rentry.co/TESFT-LLaMa Не самые свежие гайды на ангельском
https://rentry.co/STAI-Termux Запуск SillyTavern на телефоне
https://rentry.co/lmg_models Самый полный список годных моделей
http://ayumi.m8geil.de/ayumi_bench_v3_results.html Рейтинг моделей для кума со спорной методикой тестирования
https://rentry.co/llm-training Гайд по обучению своей лоры
https://rentry.co/2ch-pygma-thread Шапка треда PygmalionAI, можно найти много интересного
https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing Последний известный колаб для обладателей отсутствия любых возможностей запустить локально

Шапка в https://rentry.co/llama-2ch, предложения принимаются в треде

Предыдущие треды тонут здесь:
>>704905 (OP)
>>699623 (OP)
Пропущено 92 постов
92 с картинками.
Пропущено 503 постов, 92 с картинками.
Аноним # OP 21/04/24 Вск 02:40:13 712080
Аноним 21/04/24 Вск 03:08:27 712092
>>712057
убабуба это ад зависимостей с питоном, ничего удивительного.
Аноним 21/04/24 Вск 04:50:59 712136
>>712053
Какой размер модельки и что за фигня с настройками? Зачем во входной последовательности end_of_text? Там же begin надо.
народ, подскажите 18+ нейросетку с которой можно в ролплей, т.е. нагенерить хороших историй, внести Аноним 19/04/24 Птн 22:51:30 710392 Ответ
photo2024-04-14[...].jpg 85Кб, 1280x966
1280x966
народ, подскажите 18+ нейросетку с которой можно в ролплей, т.е. нагенерить хороших историй, внести хотя бы ГГ и спутников, получить интересные диалоги и динамичную историю, желательно с поддержкой NSFW

критерии:
1) бесплатно и безлимитно (без кредитов, премиума, энергии и т.д.)
2) генерация SFW/NSFW изображений по ходу "сюжета"
3) можно нагенерить крутых историй прямо в диалоге

пример:

www.gptgirlfriend.online / Knight Astoria
начал интересную историю и тут "ПЛОТИ ИЛИ ПНХ"

попробовал KoboldAI (рандомно тыкал, насколько освоился в настройках и моделях, английский знаю очень хорошо)
местами неплохо, но все же часто выдает околесицу и никакой "погружающей" истории не выходит. У меня оно часто путает персонажей или вообще несет полный бред, хотя старался вникнуть в модели, режимы и настройки. Поиски продолжаются

Если у кого вышло запустить кобольда в таком режиме как в ОП, прошу, объясните пошагово, какие надо выставлять модели, настройки, модули, скрипты и т.д., поскольку я в этому полный нуб
Пропущено 1 постов
1 с картинками.
Пропущено 1 постов, 1 с картинками.
Аноним 20/04/24 Суб 01:17:32 710528
bump
Аноним 20/04/24 Суб 02:21:45 710586
>>710392 (OP)
Локально - требуется железо, знания, пердолинг >>709757 (OP)
В облаках - требуется хотябы навык следования гайдам и найти себе к ним доступ >>709270 (OP)
Про генерацию изображений по ходу спросишь в тех тредах
Аноним 20/04/24 Суб 20:48:55 711713
Моча ебучая я ссылку оставлял, ну идите нахуй тогда уроды
Исследования ИИ тред #2 /research/ Аноним 08/10/23 Вск 02:45:17 511426 Ответ
image.png 135Кб, 638x676
638x676
image.png 169Кб, 1320x1860
1320x1860
image.png 4058Кб, 4000x2000
4000x2000
image.png 45Кб, 600x329
600x329
Обсуждаем развитие искусственного интеллекта с более технической стороны, чем обычно.

Я ничего не понимаю, что делать?
Без петросянства: смотри программу стэнфорда CS229, CS231n https://see.stanford.edu/Course/CS229 (классика) и http://cs231n.stanford.edu (введение в нейроночки) и изучай, если не понятно - смотри курсы prerequisites и изучай их. Как именно ты изучишь конкретные пункты, типа линейной алгебры - дело твое, есть книги, курсы, видосики, ссылки смотри ниже.

Где узнать последние новости?
https://www.reddit.com/r/MachineLearning
https://datatau.net
https://twitter.com/ylecun

На реддите также есть хороший FAQ для вкатывающихся.

Какая математика используется?
В основном линейная алгебра, теорвер, матстат, базовый матан и matrix calculus.

Как работает градиентный спуск?
https://cs231n.github.io/optimization-2

Почему python?
Исторически сложилось. Поэтому давай, иди и перечитывай Dive into Python.

Можно не python?
Никого не волнует, где именно ты натренируешь свою гениальную модель. Но при серьезной работе придется изучать то, что выкладывают другие, а это будет, скорее всего, python, если работа последних лет.

Что почитать для вкатывания?
http://www.deeplearningbook.org
https://d2l.ai/index.html
Николенко "Глубокое обучение" — на русском, есть примеры, но меньше охват материала
Франсуа Шолле — Глубокое обучение на Python

Все книги и статьи фактически устаревают за год.

В чем практиковаться нубу?
http://deeplearning.stanford.edu/tutorial
https://www.hackerrank.com/domains/ai
https://github.com/pytorch/examples
https://github.com/ChristosChristofidis/awesome-deep-learning#tutorials

Где набрать первый самостоятельный опыт?
https://www.kaggle.com

Стоит отметить, что спортивный deep learning отличается от работы примерно так же, как олимпиадное программирование от настоящего. За полпроцента точности в бизнесе борятся редко, а в случае проблем нанимают больше макак для разметки датасетов. На кагле ты будешь вилкой чистить свой датасет, чтобы на 0,1% обогнать конкурента.

Где работать?
https://www.indeed.com/q-deep-learning-jobs.html
Вкатывальщики могут устроиться программистами и дальше попроситься в ML-отдел

Есть ли фриланс в машобе?
Есть, https://www.upwork.com/search/jobs/?q=machine+learning
Но прожить только фриланся сложно, разве что постоянного клиента найти, а для этого нужно не быть тобой

Где посмотреть последние статьи?
http://www.arxiv-sanity.com
https://paperswithcode.com
https://openreview.net
Версии для зумеров (Килхер): https://www.youtube.com/channel/UCZHmQk67mSJgfCCTn7xBfew

Количество статей зашкваливающее, поэтому все читают только свою узкую тему и хайповые статьи, упоминаемые в блогах, твиттере, ютубе и телеграме, топы NIPS и прочий хайп. Есть блоги, где кратко пересказывают статьи, даже на русском

Где посмотреть must read статьи?
https://github.com/ChristosChristofidis/awesome-deep-learning#papers
https://huggingface.co/transformers/index.html
То, что обозревает Килхер тоже зачастую must read

Где ещё можно поговорить про анализ данных?
http://ods.ai

Нужно ли покупать видеокарту/дорогой пека?
Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Google Colab дает бесплатно аналог GPU среднего ценового уровня на несколько часов с возможностью продления, при чем этот "средний уровень" постоянно растет. Некоторым достается даже V100.
Иначе выгоднее вложиться в GPU https://timdettmers.com/2019/04/03/which-gpu-for-deep-learning заодно в майнкрафт на топовых настройках погоняешь.

Когда уже изобретут AI и он нас всех поработит?
На текущем железе — никогда, тред не об этом

Кто-нибудь использовал машоб для трейдинга?
Огромное количество ордеров как в крипте так и на фонде выставляются ботами: оценщиками-игральщиками, перекупщиками, срезальщиками, арбитражниками. Часть из них оснащена тем или иным ML. Даже на швабре есть пара статей об угадывании цены. Тащем-то пруф оф ворк для фонды показывали ещё 15 лет назад.
Так-что бери Tensorflow + Reinforcement Learning и иди делать очередного бота: не забудь про стоп-лоссы и прочий риск-менеджмент, братишка

Список дедовских книг для серьёзных людей
Trevor Hastie et al. "The Elements of Statistical Learning"
Vladimir N. Vapnik "The Nature of Statistical Learning Theory"
Christopher M. Bishop "Pattern Recognition and Machine Learning"
Взять можно тут: https://www.libgen.is

Напоминание ньюфагам: немодифицированные персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.

Disclaimer: Шапка сгенерирована нейросетью и нуждается в чистке.
Пропущено 21 постов
21 с картинками.
Пропущено 265 постов, 21 с картинками.
Аноним 16/04/24 Втр 14:37:57 705684
>>704676
>Одна из самых сложных задач в обучении людей, тащемта
Суть настоящего интеллекта в создании ландшафта, а не в навигации по нему.
Аноним 20/04/24 Суб 17:18:37 711157
Прифигачил к не мультимодальной модели mmproj от ллавы. Модель понимает изображение в общих чертах понимает цвет, что это примерно что-то маленькое у него есть глаза, но в общем путается в ответах что это. Это нормальное поведение? Я думал что так любой фантюн смогу мультимодальным сделать, но походу придется самому ллаву файнтюнить...
Аноним 20/04/24 Суб 17:19:24 711162
>>711157
Не туда отправил. Игнорируем ребят
Claude тред №2 /claude/ Аноним 30/07/23 Вск 17:28:42 435536 Ответ
изображение.png 44Кб, 1001x461
1001x461
В этом треде обсуждаем семейство нейросетей Claude. Это нейросети производства Anthropic, которые обещают быть более полезными, честными и безвредными, нежели чем существующие помощники AI.

Поиграться с моделью можно здесь, бесплатно и с регистрацией (можно регистрироваться по почте)
https://claude.ai/

Другие информационные ссылки
https://www.anthropic.com/index/introducing-claude
https://habr.com/ru/news/722626/
Пропущено 41 постов
41 с картинками.
Пропущено 274 постов, 41 с картинками.
Аноним 20/04/24 Суб 00:58:41 710512
>>710500
И в чем тут накрутка?
Аноним 20/04/24 Суб 02:51:54 710599
>>710512
Ни в чем, я посчитал, что если бы у них было одинаковое количество использований, то клауди был бы выше.
Аноним 20/04/24 Суб 05:04:24 710631
>>710599
Гпт4 турбо вышел меньше 2х недель назад, а опус уже существует давно
AI Chatbot General № 474 /aicg/ Аноним 19/04/24 Птн 00:05:41 709270 Ответ
17124757669760.png 1144Кб, 1808x1182
1808x1182
17085383815311.mp4 3425Кб, 960x720, 00:00:51
960x720
AI Chatbot General № 474

БОТОДЕЛЫ!!!! Прикрепляйте новых ботов к оп-посту!!!!

Общий вопросов по чат-ботам и прочего тред.

- Фронтэнды -
Agnai, SillyTavern, RisuAI
Гайды: https://rentry.co/ultimatespoonfeed | https://rentry.co/Tavern4Retards (Гайд на английском) | https://rentry.org/STAI-Termux (На андроид)
Базовые термины: https://2ch-ai.gitgud.site/wiki/llama/
Скрипты SillyTavern (Quick Replies): https://rentry.org/stscript
https://github.com/SillyTavern/SillyTavern | https://github.com/ntvm/SillyTavern (Форк нв-куна)
https://agnai.chat/
https://risuai.xyz/

- GPT -
Джейлы на 0314/0613: https://rentry.co/SillyTavern_JB_Pack | https://rentry.co/fa5fv | https://dumb.one/gpt/prompts-scraped/ | https://rentry.co/lobstersgpt
Джейлы на 1106: https://rentry.co/anonaugusproductionsCustomJB | https://rentry.co/crustcrunchGPT | https://rentry.co/Myuu_Jippy | https://rentry.co/CoTonAugus | https://rentry.org/onichan2210
Джейлы на 0125: https://rentry.org/neo-furbo | https://rentry.org/camicle-jb
Джейлы на Turbo: https://rentry.co/YAnonTurbo | https://rentry.co/hochi-reupload

- Claude -
Джейлы: https://rentry.co/SillyTavern_JB_Pack | https://rentry.co/absolutejail | https://rentry.co/pitanonbots#prompt-presets | https://rentry.co/XML-dva-shiza | https://rentry.co/crustcrunchJB | https://rentry.co/CharacterProvider | https://rentry.co/MyuuTastic
Опус/Соннет: https://rentry.org/Anon4Anon | https://unconvincing.neocities.org/ | https://rentry.org/pancatb3ta | https://rentry.org/AiBrainPresets | https://rentry.org/CladeOpus-GigaSchizoKostyl
Удаление Human/Assistant: https://rentry.co/TavernNoAss | https://rentry.co/HumAssistOff
Префилл: https://rentry.co/aui3u
Полезное: https://rentry.org/anonika_infoblock | https://rentry.org/zapominator

- Мемо -
Мемо вручную: https://rentry.co/DrunkArcadeExample
Генератор мемо: https://rentry.co/LazyMemo
Мемо на опусе: https://rentry.co/HornyPigs

- Bing -
https://github.com/Barbariskaa/Biba
Гайд: https://rentry.co/BingZOVEdition

- Локалки -
https://openrouter.ai/
Гайд (на английском): https://rentry.co/meta_golocal_list

- Ботоводчество -
https://www.chub.ai
https://booru.plus/+pygmalion
https://des une.moe/aichared/
https://agnai.chat/editor
https://rentry.co/botmaking_tips
https://rentry.co/MothsBotMakingStuff
https://rentry.co/oaicards
Боты анонов: https://rentry.co/2chaicgtavernbots | https://rentry.co/2chaicgtavernbots2

- Село 2ch -
https://rentry.co/selo2ch

- Архив тредов -
https://rentry.co/2ch-aicg-archives

- GIGACHAT -
https://rentry.co/3bc7r

- Character.AI -
https://beta.character.ai/
https://rentry.co/CAI-FAQ
Боты анонов: https://rentry.co/CAI-bots

- Прочее -
Проверить ключ:
GPT
https://github.com/Buhankoanon/OAI_API_Checker | https://github.com/CncAnon1/kkc
Claude
https://github.com/Definetelynotbranon/Anthropic_API_Checker
Специфические промпты в джейл для кума: https://rentry.co/jinxbreaks
Забавные промпты после кума: https://rentry.co/weirdbutfunjailbreaksandprompts

- Конкурсы -
Общая информация: https://rentry.co/2chaicgthemedevents
Текущий конкурс: >>705243 →

- Шапка -
https://rentry.co/shapkacaitreda

БОТОДЕЛЫ!!!! Прикрепляйте новых ботов к оп-посту!!!!

- Локальные языковые модели: >>661076 (OP) -

- Прошлый тред: >>706721 (OP) -
Пропущено 223 постов
223 с картинками.
Пропущено 1554 постов, 223 с картинками.
Аноним 21/04/24 Вск 08:37:29 712164
Аноним 21/04/24 Вск 11:20:31 712255
>>712125
Ебать ты умный. Заядлый дрочер походу.
Аноним 21/04/24 Вск 13:15:26 712326
>>712077
Я знаю, я обращался к нигерийским господинам с дев ключами, дум будет у нас.
Локальные языковые модели (LLM): LLaMA, Mistral, Command-R и прочие №51 /llama/ Аноним 15/04/24 Пнд 17:37:37 704905 Ответ
Llama 1.png 818Кб, 630x900
630x900
Альфа от контек[...].png 121Кб, 3090x1830
3090x1830
Деградация от к[...].png 13Кб, 792x612
792x612
Самый ебанутый [...].png 859Кб, 721x961
721x961
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст, и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2-х бит, на кофеварке с подкачкой на микроволновку.

Здесь и далее расположена базовая информация, полная инфа и гайды в вики https://2ch-ai.gitgud.site/wiki/llama/

Базовой единицей обработки любой языковой модели является токен. Токен это минимальная единица, на которые разбивается текст перед подачей его в модель, обычно это слово (если популярное), часть слова, в худшем случае это буква (а то и вовсе байт).
Из последовательности токенов строится контекст модели. Контекст это всё, что подаётся на вход, плюс резервирование для выхода. Типичным максимальным размером контекста сейчас являются 2к (2 тысячи) и 4к токенов, но есть и исключения. В этот объём нужно уместить описание персонажа, мира, истории чата. Для расширения контекста сейчас применяется метод NTK-Aware Scaled RoPE. Родной размер контекста для Llama 1 составляет 2к токенов, для Llama 2 это 4к, но при помощи RoPE этот контекст увеличивается в 2-4-8 раз без существенной потери качества.

Базовым языком для языковых моделей является английский. Он в приоритете для общения, на нём проводятся все тесты и оценки качества. Большинство моделей хорошо понимают русский на входе т.к. в их датасетах присутствуют разные языки, в том числе и русский. Но их ответы на других языках будут низкого качества и могут содержать ошибки из-за несбалансированности датасета. Существуют мультиязычные модели частично или полностью лишенные этого недостатка, из легковесных это openchat-3.5-0106, который может давать качественные ответы на русском и рекомендуется для этого. Из тяжёлых это Command-R. Файнтюны семейства "Сайга" не рекомендуются в виду их низкого качества и ошибок при обучении.

Основным представителем локальных моделей является LLaMA. LLaMA это генеративные текстовые модели размерами от 7B до 70B, притом младшие версии моделей превосходят во многих тестах GTP3 (по утверждению самого фейсбука), в которой 175B параметров. Сейчас на нее существует множество файнтюнов, например Vicuna/Stable Beluga/Airoboros/WizardLM/Chronos/(любые другие) как под выполнение инструкций в стиле ChatGPT, так и под РП/сторитейл. Для получения хорошего результата нужно использовать подходящий формат промта, иначе на выходе будут мусорные теги. Некоторые модели могут быть излишне соевыми, включая Chat версии оригинальной Llama 2.

Про остальные семейства моделей читайте в вики.

Основные форматы хранения весов это GGML и GPTQ, остальные нейрокуну не нужны. Оптимальным по соотношению размер/качество является 5 бит, по размеру брать максимальную, что помещается в память (видео или оперативную), для быстрого прикидывания расхода можно взять размер модели и прибавить по гигабайту за каждые 1к контекста, то есть для 7B модели GGML весом в 4.7ГБ и контекста в 2к нужно ~7ГБ оперативной.
В общем и целом для 7B хватает видеокарт с 8ГБ, для 13B нужно минимум 12ГБ, для 30B потребуется 24ГБ, а с 65-70B не справится ни одна бытовая карта в одиночку, нужно 2 по 3090/4090.
Даже если использовать сборки для процессоров, то всё равно лучше попробовать задействовать видеокарту, хотя бы для обработки промта (Use CuBLAS или ClBLAS в настройках пресетов кобольда), а если осталась свободная VRAM, то можно выгрузить несколько слоёв нейронной сети на видеокарту. Число слоёв для выгрузки нужно подбирать индивидуально, в зависимости от объёма свободной памяти. Смотри не переборщи, Анон! Если выгрузить слишком много, то начиная с 535 версии драйвера NVidia это может серьёзно замедлить работу, если не выключить CUDA System Fallback в настройках панели NVidia. Лучше оставить запас.

Гайд для ретардов для запуска LLaMA без излишней ебли под Windows. Грузит всё в процессор, поэтому ёба карта не нужна, запаситесь оперативкой и подкачкой:
1. Скачиваем koboldcpp.exe https://github.com/LostRuins/koboldcpp/releases/ последней версии.
2. Скачиваем модель в gguf формате. Например вот эту:
https://huggingface.co/Sao10K/Fimbulvetr-10.7B-v1-GGUF/blob/main/Fimbulvetr-10.7B-v1.q5_K_M.gguf
Можно просто вбить в huggingace в поиске "gguf" и скачать любую, охуеть, да? Главное, скачай файл с расширением .gguf, а не какой-нибудь .pt
3. Запускаем koboldcpp.exe и выбираем скачанную модель.
4. Заходим в браузере на http://localhost:5001/
5. Все, общаемся с ИИ, читаем охуительные истории или отправляемся в Adventure.

Да, просто запускаем, выбираем файл и открываем адрес в браузере, даже ваша бабка разберется!

Для удобства можно использовать интерфейс TavernAI
1. Ставим по инструкции, пока не запустится: https://github.com/Cohee1207/SillyTavern
2. Запускаем всё добро
3. Ставим в настройках KoboldAI везде, и адрес сервера http://127.0.0.1:5001
4. Активируем Instruct Mode и выставляем в настройках пресетов Alpaca
5. Радуемся

Инструменты для запуска:
https://github.com/LostRuins/koboldcpp/ Репозиторий с реализацией на плюсах
https://github.com/oobabooga/text-generation-webui/ ВебуУИ в стиле Stable Diffusion, поддерживает кучу бекендов и фронтендов, в том числе может связать фронтенд в виде Таверны и бекенды ExLlama/llama.cpp/AutoGPTQ

Ссылки на модели и гайды:
https://huggingface.co/models Модели искать тут, вбиваем название + тип квантования
https://rentry.co/TESFT-LLaMa Не самые свежие гайды на ангельском
https://rentry.co/STAI-Termux Запуск SillyTavern на телефоне
https://rentry.co/lmg_models Самый полный список годных моделей
http://ayumi.m8geil.de/ayumi_bench_v3_results.html Рейтинг моделей для кума со спорной методикой тестирования
https://rentry.co/llm-training Гайд по обучению своей лоры
https://rentry.co/2ch-pygma-thread Шапка треда PygmalionAI, можно найти много интересного
https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing Последний известный колаб для обладателей отсутствия любых возможностей запустить локально

Шапка в https://rentry.co/llama-2ch, предложения принимаются в треде

Предыдущие треды тонут здесь:
>>699623 (OP)
>>695332 (OP)
Пропущено 94 постов
94 с картинками.
Пропущено 508 постов, 94 с картинками.
Аноним 19/04/24 Птн 17:16:15 709957
image.png 16Кб, 328x133
328x133
image.png 16Кб, 991x97
991x97
Ответьте пж:
Как сделать чтобы таверна не добавляла в конец * и " при отмене генерации?
Аноним 19/04/24 Птн 18:17:44 710008
>>709721
В настройках поменять руками точно можно. Если хочешь, чтобы персонаж менял, то как минимум между такими символами как ", *, ``` текст будет выглядеть немного по-разному в том числе разных цветов. Возможно есть теги, которые указывают конкретный цвет и шрифт текста, попробуй посмотри в документации.
Аноним 19/04/24 Птн 18:42:34 710034
>>708891
Ну и нахуй она нужна тогда?
Настройки X
Ответить в тред X
15000
Добавить файл/ctrl-v
Стикеры X
Избранное / Топ тредов