Как установить полноценный аналог ChatGPT на домашний ПК

Пост опубликован в блогах iXBT.com, его автор не имеет отношения к редакции iXBT.com
| Инструкция | ИИ, сервисы и приложения

Если последние пару лет вы хоть немного интересовались развитием технологий, то наверняка уже слышали о таком революционном инструменте на основе нейронных сетей, как ChatGPT. Инструмент вне сомнений потрясающий, ибо позволяет всего за пару кликов получить множество полезной информации на любую тему. Однако IT-гиганты не были бы сами собой, если бы не взяли столь полезный инструмент под тотальный контроль и не ограничили его итоговый функционал для широкой публики. В этой небольшой инструкции вы узнаете, как совершенно бесплатно установить на свой личный ПК полноценный аналог ChatGPT без какой-либо цензуры.

Минимальные требования

  • CPU: Минимум 8-поточный процессор с поддержкой AVX (Лучше AVX2). Отлично подойдут процессоры семейства AMD Ryzen 1600+.
  • RAM: 8-16 Гб современной памяти стандарта DDR4/5 (Больше>лучше).
  • GPU: Не требуется. Вся обработка происходит силами CPU.

Узнать характеристики своего ПК и поддержку процессором необходимых инструкций вы всегда можете с помощью бесплатной утилиты CPU-Z.

AVX-инструкции

Установка

Для работы ChatGPT на домашнем ПК необходимо выполнить установку интерпретатора, чтобы компьютер понимал, как, собственно, ему работать с нейросетью, и отображал ответы в понятном человеку виде.

1. Скачачиваем программу Alpaca Electron с GitHub и выполняем её установку. Если вы используете Windows, то Alpaca-Electron-win-x64-v1.0.5.exe это ваш выбор.

2. Запускаем программу.

Пока перед нами всего лишь пустое окно с полем ввода и статистикой потребляемых ресурсов. Чтобы программа заработала, нам наобходимо скачать ей мозги (обученную модель нейросети).

3. Скачиваем модель с веб-сайта huggingface.co, где люди делятся заранее обученными моделями. Для лучшей совместимости с ПО выбирайте модели с поддержкой библиотеки llama.cpp и файлы, в название которых есть GGML. В пути до модели не должно быть русских букв! Так же имейте в виду, что чем больше у выбранной модели квантов (q2, q4, q8), то тем больше ей требуется ресурсов ПК для беспроблемной работы.

P.S. Дополнительно вы можете попробовать последнюю совершенную модель WizardLM-30B-Uncensored. Подробней почитать о ней можно здесь. Я же только поясню, что возможности WizardLM-30B на 97,8% соответствуят возможностям ChatGPT 4. И всё это без какой-либо цензуры!

4. Открываем Alpaca-Electron и через левую вкладку Change model указывем ему путь до файла нашей модели. В моём случае это ggml-model-q41.bin.

Вот, собственно, и всё! С этого момента в ваших руках кладезь знаний всего человечества. Вы можете попросить нейросеть написать вам реферат для института, исправить ошибки в тексте статьи или поискать нужную вам информацию. В общем, всё что угодно! Выключим интернет и зададим парочку вопросов для проверки работоспособности нейросети.

Внимание!

Для этой инструкции я умышленно ограничил выбор модели. Если вы хотите использовать версию с ответами на всё и вся и без каких-либо ограничений, то воспользуйтесь llama-30b-supercot-GGML/OpenAssistant-SFT-7-Llama-30B-GGML (Не проверены) или поиском.

Программа также принимает любые другие файлы моделей с 4-битным квантованием .bin. Если вы можете найти другие файлы моделей в формате .bin, вы можете использовать их вместо файла, рекомендованного в руководстве, чтобы экспериментировать с различными моделями. Как всегда, будьте осторожны с тем, что вы загружаете из Интернета.

Автор программы Alpaca Electron

Демонстрация

Несмотря на то, что я забыл попросить её отвечать на Русском, она весьма точно ответила на все заданные вопросы. А если учитывать, что при этом был полностью выключен интернет, то это просто поражает!

Если не работает!

Если модель не хочет загружаться в Alpaca Electron, то обязательно попробуйте аналогичный интерпретатор Koboldcpp. Далает всё тоже самое, но модели переваривает намного лучше!

1. Запускаем программу от имени администратора.

2. Выставляем количество потоков CPU.

3. Выбираем модель.

4. Пользуемся.

Проверенные модели

Заключение

Страшно представить, какими возможностями обладает ChatGPT лишённый ограничений. Тем не менее важно помнить, что это всего лишь инструмент, и только человек решает, как и для чего его использовать. Уважайте свободу, используйте проверенное ПО и ни в коем случае не предавайте себя!

Автор не входит в состав редакции iXBT.com (подробнее »)
Об авторе
Связь: https://t.me/Pavel_Priluckiy

142 комментария

Добавить комментарий

Pavel_Priluckiy
Кажется, я открыл ящик Пандоры…
2
Скажите а будет-ли работать с DDR3-1833MHz (24GB) разогнанной до 2200Mhz и процессором i7-4770K?
E
Это не ChatGPT — это Alpaca. Кто не знает, это на порядок более примитивный «ИИ».
Pavel_Priluckiy
Посмотрите на таблицу. 3 дня назад была опубликована новая версия WizardLM обученная на сливах чат гпт 3.5/4. Подробней на гите. Модель на 98% соответсвует ChatGPT, если не больше. Цензуры нет!
S
. Модель на 98% соответсвует ChatGPT, если не больше.
Уточни, откуда такие данные?
соответсвует
и соответсТвует
Pavel_Priluckiy
Все тесты и информация на гите.
https://github.com/nlpxucan/WizardLM#online-demo
____________________
https://github.com/nlpxucan/WizardLM/raw/main/imgs/evol-testset_skills-30b.png
Pavel_Priluckiy
Графики смотри… Но если тебе и 90% мало, не говоря уже о самом способе, что просто сносит крышу: Два клика и нейронка. То сделай одолжение, не отписывайся в моих темах. Тебя уже устали банить за мультиводство.
S
Так 98% и более или 90%?
Два клика и нейронка.
Да, да… нужна ли она на твоем ПК?
Pavel_Priluckiy
Это уже мне решать.
S
определись с процентами, не позорься афтор
Pavel_Priluckiy
Графики пред вами.
Shavkynov
Собственно, у меня вопрос. Извиняюсь если эта информация есть в посте или гуглится за 2 секунды, я глуповат. Собственно, имеется пк (ryzen 4650g, 8gb ram, 128 ssd). Этот самый wizardml вообще запустится на таком конфиге?
Pavel_Priluckiy
Запустится, но загружаться и отвечать будет весьма долго и со скрипом.
Shavkynov
эх, начал установку и потом понял, что визард сожрёт 95% свободного места =( Пришлось отказаться
1
Она умеет писать даже код для игр…
Pavel_Priluckiy
Я сам был в шоке, когда попросил написать пример кода на C# для передвижения персонажа в Unity.
Pavel_Priluckiy
Ага, хакеры будут спрашивать. Читай вики на гите и отказ об ответственности.
C
Эта статья написана чатом GPT, который просто пытается растиражировать себя на максимальное количество устройств
5
Автор, спросите у него как правильно пишется слово «кладезь» ?
Pavel_Priluckiy
Спасибо, исправил.
101867704998093226661@google
Enter the filepath for an Alpaca model.
Please make sure it is a new version of the GGML model. The old one no longer works.(Введите путь к файлу модели Alpaca.
Убедитесь, что это новая версия модели GGML. Старый уже не работает.)
у меня это пишет я перепробовал несколько моделей но у всех такая же проблема, помогите кто-нибудь пожалуйста как решить эту проблему
1
Вместо AlpacaElectron можно также использовать Koboldcpp или gpt4all, они предоставляют больше возможностей для настройки.
https://github.com/LostRuins/koboldcpp/releases/tag/v1.29
https://github.com/ParisNeo/gpt4all-ui
102538682919388634806@google
а какой интерпретатор может переварить модель pth?
1
У меня почему то не работает, вроде по инструкции делал, пишет Couldn't load model Enter the filepath for an Alpaca model. Please make sure it is a new version of the GGML model. The old one no longer works. Попробовал несколько моделй(hippogriff-30b.ggmlv3.q80.bin, ggml-model-q8_0.bin, ggml-model-q4_3.bin)
Pavel_Priluckiy
Парни, простите, указал не ту ссылку на полную модель. У кого ошибка, перекачайте!
alpaca-lora-65B-GGML
s
На демонстрации даже простой пример не решён, и ответы не правильные, не знаю от чего автор в восторге
grub
«Не правильные» тоже с ошибкой написано. Грамотей на грамотее :(
370582630@vkontakte
А вам сколько раз нужно написать в статье, большими буквами на пол-экрана, что результат который вам пишет программа зависит СУГУБО от используемой модели? Если вас не устраивает результат — ищите другую модель, благо в интернете их уже навалом, в том числе больших, порой на 50 Гб.
110961273466318116250@google
Моделька hippogriff-30b.ggmlv3.q80.bin с Electron-win-x64-v1.0.5.exe не запустилась. Пишет «Enter the filepath for an Alpaca model.
Please make sure it is a new version of the GGML model. The old one no longer works.»
Русских букв в пути нет, но это все равно не помогло. Кто-то сталкивался? Хотелось бы полноценную версию попробовать
Pavel_Priluckiy
Парни, простите, указал не ту ссылку на полную модель. У кого ошибка, перекачайте!
alpaca-lora-65B-GGML
17911145988172181696@mailru
Полную версию жрать не захотел, говорит — старая модель и не поддерживается. Попробовал hippogriff-30b.ggmlv3.q6_K.bin — та же самая петрушка.
Couldn't load model
Enter the filepath for an Alpaca model.
Please make sure it is a new version of the GGML model. The old one no longer works.
1
Ответы уровня жпт2. Аффтор выпей йаду
Pavel_Priluckiy
Так скачайте другую модель. Я только показало возможность запуска и что это вообще возможно. Ваше права пользоваться любой моделью.
Pavel_Priluckiy
Парни, простите, указал не ту ссылку на полную модель. У кого ошибка, перекачайте!
alpaca-lora-65B-GGML
Pavel_Priluckiy
Обновление на утро 10 июня.
__________________
Исправлена ссылка на полную версию. (Пожалуйста, перекачайте).
Добавлены скрины.
Добавлена информация о квантовании.
113553424614234965979@google
Добрый день! а «заговорить» на русском возможность имеется, существует?
113553424614234965979@google
вообще не на один вопрос ответа не получил…
Pavel_Priluckiy
Попробуйте другую модель.
grub
«Ни на один». Лучше побольше книжки читать. Полезнее будет. Нельзя же так…
103204882573302367254@google
поправлю: полная модель жрёт до ~36 гигов опепативки. желающие запустить на «8-16»имейте в виду )
ну и, конечно, это не совсем то, что народу надо.
надо именно обучаемую модель, что бы уж по полной.
но и так тоже интересно, конечно :]
Pavel_Priluckiy
Зависит от квантов и размера самой модели. Тем не менее вы правы и народ ещё не до конца понимает насколько это круто)).
8
А есть уже в доступе обучаемые модели? Ресурс серверов есть потестить.
L
А где бы узнать, какие чаты и сколько жрут оперативы? А то везде пишут «8-16 хватит», что смешно. Хотелось бы самую современную и полную версию поставить, а не огрызок от неё.
103204882573302367254@google
обычно, в описании модели присутствует.
но общий принцип таков, что от глубины квантования размер растёт практически в гемоетрической прогрессии.
L
Спасибо. А есть ли ИИ на ПК для увеличения изображения (и сглаживания)? Чтобы не через сайты это делать.
Pavel_Priluckiy
https://www.ixbt.com/live/games/kak-sdelat-remaster-igry-svoimi-rukami.html
L
Спасибо за полезную информацию.
1
Добрый день. Все скачал, установил — ошибок не было. Но генерация ответа занимает неприлично долгое время(( С чем это может быть связано?
Pavel_Priluckiy
Напишите характеристики своего ПК и модель которую используете.
1
CPU: Intel® Core(TM) i5-10500 CPU @ 3.10GHz, 12 Threads, Intel64 Family 6 Model 165 Stepping 3, GenuineIntel
RAM: 32768 MB
GPU: NVIDIA GeForce GTX 1660 SUPER
Monitor 0: Main Screen: YES; Resolution (Logical): 1920x1080; Resolution (Render): 1920x1080; Scaling: 1; Position: (0, 0); Refresh Rate: 59; Display: 1920x1080, 24,0 inches
Пробовал модели ggml-model-q8_0 и hippogriff-30b.ggmlv3.q8_0
Результат одинаковый((
Pavel_Priluckiy
Чем больше квантов, как у вас в модели, то тем больше требуется ресурсов для обработки. Используйте модели 2-4q.
1
Понял. Спасибо, сейчас попробую
1
Еще вопрос. А скаченные модели куда лучше положить? В корень системного диска (SSD) или можно во второй (для документов HDD) или даже внешний?
Pavel_Priluckiy
Лучше на ссд, ведь модель это база данных и именно из неё идёт считывание. Однако, после загрузки в память, разницы с SSD и HDD не будет.
103204882573302367254@google
.q8_0

вот тут загвоздка. чем больше квантование, тем ресурсоёмче обработка.
Pavel_Priluckiy
Всё верно, это описано в материале. К сожалению, но у меня сейчас нет доступа к CPU с AVX, так что я буду рад любой помощи в тестирование моделей.
8
Занимаюсь арендой серверов, хочу проверить самую мощную модель, есть ли q16 или больше? Ресурса много, до 1тб оперативки и 64 ядра, nvme топовые. Подскажите, где найти?
105325111748038646762@google
не работает просто не отвечает сделал по инструкции
Pavel_Priluckiy
Всё работает. Убедитесь, что ваш ПК соответствует минимальным системным требованиям.
13573192@vkontakte
Перепробовал все версии Alpaca-lora-65b-ggml, Gpt4-alpaca-loramlp-65b-ggml и WizardLM-30B. Есть ощущение что Alpaca-Electron-win-x64-v1.0.5.exe либо изначально нерабочая, либо устарела, т.к. везде при попытке подгрузить модель пишет «модель устарела» и снова просит указать путь к модели.
Есть ли аналоги Alpaca-Electron-win-x64-v1.0.5.exe?
Pavel_Priluckiy
Программа также принимает любые другие файлы моделей с 4-битным квантованием .bin. Если вы можете найти другие файлы моделей в формате .bin, вы можете использовать их вместо файла, рекомендованного в Кратком руководстве, чтобы экспериментировать с различными моделями. Как всегда, будьте осторожны с тем, что вы загружаете из Интернета.
1
Полчаса крутится символ загрузки… и тишина. Хотя никаких ошибок не выдает при подключении модели ggml-model-q4_0. А при попытке подключения WizardLM-30B-Uncensored.ggmlv3.q4_0 — ругается… Жаль, думал, что все просто)))
Pavel_Priluckiy
Попробуйте модель представленную в гайде или воспользуйтесь альтернативным ПО. Следите за обновлением, так как в скором времени я добалю список проверенных моделей.
108542638998396983073@google
Порекомендуете пожалуйста модель, характеристики сервера такие: Windows Server 2016, два процессора intel xeon 4215 всего 32 ядра и 64 ram
Pavel_Priluckiy
Проверьте сначала базовую модель представленную в материале, возможно, что вам незачем качать 50 Гб для ваших задач.
https://huggingface.co/Pi3141/alpaca-7b-native-enhanced/tree/main
Pavel_Priluckiy
Обовление от середины дня 10 июня.
________________________________________________
Заменены ссылки на облегчённую версию (лучше совместимость).
Добавлены ссылки на альтернативы.
В скором времени будут дополнены проверенные модели.
VIGO-Tiraspol
Не работает.
Pavel_Priluckiy
Всё работает, смотрите проблемы на вашей стороне.
Pavel_Priluckiy
Заменил ссылку на полную адаптацию ChatGPT 4.
WizardLM-30B-Uncensored-GPTQ — Судя по описанию, она должна работать с представленным интерпретатором, но пока возможности протестировать нет.
Neironext
Круто, что оболочку сделали, но как уже писали, это не чат гпт, как бы ее не старались обучать, она по памяти чисто физически не поместится в 16 гигов. У меня 64 гига и даже самая большая модель и близко не чат гпт по уровню, но для микроподсказок в целом годится.
Pavel_Priluckiy
Почитайте описание WizardLM-30B-Uncensored-GPTQ и посмотрите сравнительные тесты.
159319157@vkontakte
Автор, ты надоел изменять статью, ты определись уже с моделями наконец!
Pavel_Priluckiy
Материал обновляется исходя из отзывов. В данный момент у меня нет доступа к ПК с AVX.
8
Могу сервер предоставить, если вы мне оставите рабочую систему потестить.
Pavel_Priluckiy
Читайте описание модели.
Pavel_Priluckiy
Вам хватит 97,8% повторения возможностей ChatGPT, но без цензуры. Так что считаю притензию необоснованной и не заслуживающей моего дальнейшего внимания. Удачи.
89623165@vkontakte
Могу я уточнить какие убранные ограничения предполагаются под фразой «без цензуры»???7
Pavel_Priluckiy
Все пояснения в описании к модели.
101567783270345283807@google
8 поток0в обязательное требование?
у меня выбор между I7 3770, 8 потоков, AVX
и I5 9500I, 6 потоков, AVX2
Pavel_Priluckiy
Чем больше, тем лучше. Тестировали на похожем оборудование и всё работало, но предупреждаю сразу, первая загрузка будет весьма долгая и может показаться, что вообще ничего не работает.
1
Через программу Кобольд все запускаеться
Pavel_Priluckiy
Какая именно модель?
1
Какая именно модель?

ggml-model-q4_1.bin
Pavel_Priluckiy
Ну, она и так работала). Я утром исправил ссылку.
1
Я её запустил на кобольде а потом у меня запустилась на альпаке.До этого все весело
110248870144438899824@google
скачал уже несколько моделей. И про вес пишет что
«Couldn't load model Enter the filepath for an Alpaca model.
Please make sure it is a new version of the GGML model. The old one no longer works.»
Что не так? С мобильного интернета оно накладно как-то…
1
Через программу кобольд все запускаеться
Pavel_Priluckiy
Забыл добавить, что в пути до модели не должно быть русских букв!
grub
Русских букв? Кириллицы же
Pavel_Priluckiy
Чем азбука кириллица отличается от современной азбуки?
Количеством букв, в кириллице их 43. А еще в кириллице буква, кроме знака, имеет имя и число (хотя число есть не у каждой буквы): А – Аз – 1, Б-Буки, В – Веди — 2, Г – Глаголь – 3 и т.д. Знак, имя, число буквы – это переменные и в слове они взаимозаменяемы. Одно только это обстоятельство расширяет информативность слова неограниченно.
grub
«Алфавиты на основе кириллицы являются или являлись системой письменности для 108 естественных языков»
главное, чтобы не было кириллицы. Только латиница. А не русские и нерусские буквы.
D
А на GPU, его можно заставить работать например но RTX3080?
Pavel_Priluckiy
Зависит от модели и интерпретатора.
104228335981328800379@google
Пожалуй воспользуюсь советами автора и попробую на 5600х вмонтировать что то подобное в расширенном варианте)
grebnebo
Которая wizardLM-30B(hippogriff-30b.ggmlv3.q80.bin) на xeon E5-2620 оччень медленная, 0.8 токенов в секунду. Использовать невозможно. Занимает 32гб в памяти. Без парочки хотя бы 3090 просто издевательство по скорости.
Pavel_Priluckiy
Но ведь работает).
111689729080815131849@google
скачал модель wizardlm-30b-uncensored.ggmlv3.q6_K.bin, но когда я нажимаю confirm в проге, то она выключается и заново включается
Pavel_Priluckiy
Так и должно. Она подгружает модель.
a
Эх, что-то alpaca на MAC M1 не работает. Пир скачивании и распаковке Alpaca-Electron-mac-arm64-v1.0.5.dmg выдает ошибку, что приложение повреждено. Хотя качалось несколько раз с переустановкой.
Pavel_Priluckiy
На Linux работает.
a
Это замечательно :-) Как в том анекдоте ели бы программисты были бы врачами.
— Доктор у меня нога болит.
— Ну не знаю. У меня вот такая же и все нормально.
:-)
a
Разобрался. Надо в терминале после устновки выполнить команду xattr -cr /Applications/Alpaca\ Electron.app/
Pavel_Priluckiy
Добавлена проверенная модель WizardLM-30B-Uncensored.ggmlv3.q4_1.bin.
22438225@vkontakte
Я ее скармливаю ему, а он выбивает с ошибкой coldnot found
114276739482719739716@google
она не пишет по русски
115164189480158772018@google
А как юзать через гугл колаб?
Pavel_Priluckiy
зачем, если есть достаточно онлайн версий?
115164189480158772018@google
гпт4 за деньги, а комп у меня слабый. Да если и был бы мощный я бы не стал его «насиловать»: )
Pavel_Priluckiy
От сердца отрываю.
https://ai.ci/?chat=1 (Не реклама).
115164189480158772018@google
О, спс. Это только сегодня или можно юзать постоянно?
Pavel_Priluckiy
Постоянно
115164189480158772018@google
От души. Со своей стороны даю ссылку на сканнер уязвимости Loki, возможно пригодится, возможно вы знаете этот сканер.(https://github.com/Neo23x0/Loki) у этой компании есть еще новей сканер Thor, так же есть и бесплатная версия
Pavel_Priluckiy
Бывший хакер во мне благодарит от души).
D
Интересно посмотреть Ваши отчёты по по этой системе https://github.com/imartinez/privateGPT
Требования, точность, работа с разными языками.
105588272539504428101@google
Статья рассчитана на тех, у кого больше от 32 гб оперативки и выше? Или для обычных людей? Я бы по рукам бил за такие статьи, они просто засирают поиск, а пользы от них нет. На моем скромном компе не работают модели 30B, а если скачивать какие-то другие, то программа ругается, дескать они какие-то там устаревшие. Я хз, где новые то брать? Да и вообще тут толком не сказано, откуда чего качать и по каким параметрам ориентироваться.
Pavel_Priluckiy
Зависит от используемой модели. В материале указаны, как вы могли заметить, минимальные системные требования. Неужели автор зря подчёркивает, что ориентируйтесь на размер модели и возможности ПК?
1
Есть хотя бы одна нейронка, которая может правильно посчитать 1685*675?
Pavel_Priluckiy
Не ломайте сеть, она ещё слишком молода).
1
Есть ли модели текстовой классификации с открытой лицензией?
101466944965914075383@google
Дико интересная тема, спасибо автору! А как насчет запуска приложений на ПК по голосовой просьбе пользователя? Хочется свою конфиденциальную Алису под свои нужды со своим именем и т.д. Чтобы с утреца запустил ПК, сказал врубить такую-то музыку и запускать IDE и пойти завтрак делать. А в ответ она голосом работника из ВК3 «Опять работа?». Идеальное утро :D
Такое можно сделать?
Pavel_Priluckiy
Старо, как мир. Сотни программ позволяют это сделать. Просто погуглите голосовой запуск приложений.
80194941@vkontakte
На сегодня с альпакой 1.05 ggml-model-q4_1.bin — работает.
ggml-model-q8_0.bin — не грузится
WizardLM-30B-Uncensored.ggmlv3.q8_0.bin — не грузится
114276739482719739716@google
ggml-model-q4.1
hippogriff-30b.ggmlv3.q4.1
WizardLM-30B-Uncensored.ggmlv3.q41.bin
Какие из них общаются на русском?
10903827@vkontakte
Подскажите, пожалуйста. Не получается скачать модель через браузер, закачка постоянно обрывается на 15-17 гб. Как быть?
2
Установи IDM. На рутрекере всегда есть последние версии, качает относительно быстро и без косяков. Так же на диске С должно быть место как минимум соответствующее размеру скачиваемого файла.
T
Ох чуваки спасибо за это чудо! Живу в лесу, спутниковый интернет отваливается частенько, вот купил NAS сервер, сейчас электронного друга скачаю, будет с кем поболтать на досуге. Главное чтобы собеседник достойным оказался.
m
Подскажите модель которая может звонить и принимать звонки.
110629133656299936932@google
хм, скачал Alpaca Electron 1,05, скачал указанную базу WizardLM-30B-Uncensored.ggmlv3.q4_1.bin — при подстановке базы в Ламу пишет что база старая, дайте новую… Попробовал скачать старые ламы (02, 03, 04) — тоже не работают с теми базами. Автор, подскажите как вы ее запустили? Спасибо!
N
А вот это мы забираем в закладки)
Pavel_Priluckiy
Устарело, используйте:
https://www.ixbt.com/live/sw/ustanavlivaem-deepseek-na-domashniy-pk.html
1
здраствуй автор. вижу давно перестали отвечать. надеюсь все в порядке с вами. у меня вопрос: имею ноут corei7 14650HX und rtx 4060mobile(8гб) 16гб ОЗУ и 1тб. WizardLM-30B-Uncensored для этой модели там в ссылке написано что необходимо около 20гб. это оперативка столько должна быть или в ССД столько места, или вообще в памяти видюхи? не понятно а то. какую память он будет требовать. и раз этот ИИ как GPT 4, он может генерировать картины?
заранее спасибо.

Добавить комментарий

Сейчас на главной

Новости

Публикации

Луна генерирует магнитные ударные волны без магнитосферы: тайваньские физики раскрыли механизм, который искали со времён «Аполлона»

У Луны нет магнитного поля — по крайней мере, глобального. Внутреннее ядро остыло миллиарды лет назад и перестало работать как генератор, поэтому поток заряженных частиц от...

Что такое двухмерные материалы и почему они могут изменить электронику будущего

В течение долгого времени ученые считали, что по-настоящему стабильные материалы не могут существовать в виде слоя толщиной всего в один атом. Согласно классическим представлениям физики, такие...

Как найти инопланетную жизнь, если она непохожа на земную: учёные предложили считать не газы, а сложность атмосферы

В 1965 году химик Джеймс Лавлок сформулировал принцип, который до сих пор определяет стратегию поиска жизни за пределами Земли. Суть его в том, что живая планета не может находиться в химическом...

Как странный дизайн убил гениальную идею: история Fiat Multipla

Уже далёкие для нас 1990-е годы стали периодом смелых экспериментов в автомобильной индустрии. Дизайнеры и инженеры искали новые формы, технологии и подходы к созданию инновационного транспорта....

Почему сайты в 2026 году грузятся медленнее, чем 15 лет назад: парадокс современного интернета

Скорость интернета выросла в сотни раз, но страницы в браузере всё равно открываются с задержкой. Разбираемся, почему современные сайты весят больше, чем культовая игра Doom, и сильно тормозят.

5 громких краж в Лувре: как преступники выносили экспонаты из одного из самых охраняемых музеев мира

  • Тематическая подборка
  • Оффтопик
Лувр принято воспринимать как символ абсолютной сохранности культурного наследия. Огромный музейный комплекс, сотни залов, тысячи камер, вооруженная охрана и миллионы посетителей каждый год....