Попытка написать хороший лонгрид с помощью DeepSeek V3: что выдаст нейросеть

Пост опубликован в блогах iXBT.com, его автор не имеет отношения к редакции iXBT.com
| Обзор | ИИ, сервисы и приложения

DeepSeek V3 — большая языковая модель от китайской компании. Модель позиционируется как самая совершенная модель от DeepSeek на момент написания материала. Но это на бумаге, мне было интересно узнать, насколько хорошо модель справляется с написанием материалов с опорой на факты.

Большая языковая модель впитывает интернет как синий кит
Автор: Grolribasi Источник: creator.nightcafe.studio

Контекст

Недавно я написал большой материал про Дэйва Филони, автора сериала «Мандалорец» и других проектов Lucasfilm, для написания я опирался на такие источники как страницы Википедии, посвящённые Дэйву Филони и его произведениям, статистику с других сайтов и некоторые другие, менее важные, материалы для проверки фактов, с которыми нейросеть теоретически должна быть знакома.

Я остался доволен получившимся материалом, тоном повествования и структурой, но интересно было, может ли нейросеть выдать что-то подобное. Для проверки я создал новый чат в DeepSeek, скопировал в него всю информацию, на которую опирался и попросил нейросеть сгенерировать материал.

Мой выбор пал именно на DeepSeek по простой причине удобства. Компания предоставляет бесплатный доступ к своей языковой модели, сайт открывается из России без VPN, а его интерфейс удобнее конкурентов. Возможно, Chat GTPT справилась бы с задачей лучше, но я не проверял.

Промпт

Как я упомянул выше, в чат с нейросетью были скопированы полностью все страницы, на которые я опирался. Википедия, страница на Lucasfilm и прочие сайты, содержащие сколько-нибудь важную информацию. Плюс я также знаком с упоминаемыми в материале произведениями Дэйва Филони: мультсериалы «Войны Клонов», «Повстанцы», сериалы «Мандалорец», «Книга Бобы Фетта», «Асока». Нейросеть должна быть с ними знакома хотя бы поверхностно, но на всякий случай я позволил ей выполнять поиск в интернете, если возникнет такая потребность.

Краткость — сестра таланта
Автор: DeepSeek

Чтобы чат не засорялся краткими сводками присланного, первое, что я попросил нейросеть сделать — это отвечать «ОК» до тех пор, пока я не дам задание. Приём работает эффективно и помогает избежать ненужного мусора до момента выдачи настоящего задания. Отмечу, что я пробовал общаться с DeepSeek предыдущих версий, и обновлённая модель следует заданию значительно лучше. Прежние версии срывались в пересказ уже после нескольких объёмных статей или при небольшом отклонении от темы, например, когда контекст переходит с автора на его произведения. V3 значительно лучше следит за контекстом беседы и очень долго помнит, что от неё просили в самом начале.

Поможет ли подробный промпт в написании большого текста?
Автор: DeepSeek

Когда все справочные материалы были отправлены в чат, я попросил DeepSeek написать лонгрид. Я подробно описал, что я хочу получить в результате и примерную структуру будущего материала. В данном случае у меня было преимущество, я точно знал, что и в каком виде я хочу видеть. Иными словами, у меня был перед глазами готовый материал с готовой структурой, поэтому я просто попросил DeepSeek сделать плюс-минус то же самое. Если бы у меня не было материала, я не смог бы описать структуру так подробно, и качество конечного текста отличалось бы. Чем подробнее промпт, тем меньше отклонений и галлюцинаций нейросети.

К тому же я попросил не использовать списки, в противном случае их было бы очень много и текст получился бы скорее набором тезисов.

Результат

Первый абзац получился слишком объёмным для введения, слишком много воды и пафоса. Кроме того, поскольку я присылал в чат англоязычные тексты, нейросеть местами переключалась на «зумерский сленг», использовала английские слова вместо русских. Кроме того в первом абзаце содержатся серьёзные заявления, которые я бы точно не стал добавлять раньше заключения или хотя бы второй половины текста.

Очень долгое вступление
Автор: DeepSeek

Дальнейший текст был примерно в том же духе, но содержал также фактические ошибки. Например:

Филони пришёл в Lucasfilm в 2005 году, принеся с собой опыт работы над анимационным сериалом «Аватар: Легенда об Аанге». Джордж Лукас лично выбрал его для разработки «Войн клонов» — мультсериала, который должен был заполнить хронологический пробел между вторым и третьим эпизодами саги.

DeepSeek

Во-первых, он пришёл в Lucasfilm раньше 2005, как минимум потому что первый эпизод мультсериала вышел в 2003 году. Во-вторых, опыт работы над «Аватар: Легенда об Аанге» — слишком громко сказано, Филони режиссировал всего несколько эпизодов первого сезона. В-третьих, вставки английских слов «сочетать визуальную innovation с глубиной narrative» и избыточное использование образов «его амбиции простирались гораздо дальше» продолжились и дальше.

Нейросеть использовала совершенно бессмысленные фразы вроде «глубокое уважение к наследию Лукаса, но без рабского следования канону». Почему следование канону рабское? И как можно уважать чьё-то наследие, но не следовать канону? Впрочем, языковая тут же пояснила, что имеет в виду: «Филони мастерски расширяет вселенную, вводя новых персонажей и планеты». По поводу персонажей — правда, но добавление новых планет в бесконечно большую далёкую-далёкую галактику нельзя назвать сколько-нибудь значимым достижением. Почему нейросеть решила сделать акцент именно на этих пунктах — неизвестно.

Следующие пару абзацев DeepSeek смогла написать без ошибок и словесного мусора, пока не перешла к особенно сочным местам:

Это не просто результат генерации, а шедевр
Автор: DeepSeek

В самом начале нейросеть говорила, что Дэйв Филони пришёл в Lucasfilm в 2005, чтобы заняться производством «Войн клонов», теперь уже мультсериал начался в 2008 с полнометражного фильма. Вероятно, модель запуталась в понятии «приквел», который может выйти позднее, но освещать более ранние события. Утверждение про культовость сериала тоже довольно смелое, а внезапный вброс имени Ральфа МакКуори без каких-либо пояснений, кто это, кажется лишним.

Далее DeepSeek рассказывает про успех «Мандалорца», но весьма поверхностно, без доказательств, статистики и каких-либо цифр. Также нейросеть утверждает, будто только «Асока» продолжает историю героев «Повстанцев», в то время как историю продолжают и «Мандалорец» и «Книга Бобы Фетта». Но не будем вдаваться в подробности.

Спорные заявления
Автор: DeepSeek

Как появление Скайуокера связывает события сериала с сагой, если события и так происходят в рамках саги? Каким образом это риск? Текст вызывает много вопросов, но спорные утверждения продолжаются и дальше, где модель снова добавляет английские слова и много воды.

Заключение

Нейросеть DeepSeek V3 способна написать лонгрид, но качество материала оставит желать лучшего. Модель будет галлюцинировать, путать факты, термины, даты. В конечном итоге такой материал потребует большое количество ручных правок и тщательной проверки на достоверность. При таком количестве доработок целесообразность написания лонгридов с использованием нейросети вызывает сомнения. Возможно, проще будет сесть и написать текст вручную. Лонгрид, вдохновивший на написание этого материала можно найти по ссылке ниже:

Изображение в превью:
Автор: Grolribasi
Источник: creator.nightcafe.studio
Автор не входит в состав редакции iXBT.com (подробнее »)
Об авторе
Пишу под ником Grolribasi, люблю посты на нишевые темы, чтобы в них разобраться.
Веду канал в телеграме: @grolchannel

12 комментариев

O
Хорошо бы запретить исскуственному дураку использовать оборот-паразит «не просто». В некоторых статьях на этом сайте он пять раз повторяется.
Grolribasi
Этот паразит проник настолько глубоко, что даже самому страшно его употреблять. Каждый раз думаю, как избежать этой конструкции в данном тексте.
1
Вообще дикпик довольно хорошо пишет. Редактировать надо? Бесспорно, ну а как без этого? Любую вещь придётся редактировать, не важно, написал её ИИ или человек.
Grolribasi
Редактировать за дикпиком придётся стиль, факты, даты, заменять иностранные слова. Редактировать за человеком придётся гораздо меньше. Особенно, если этот человек — ты сам.
V
Еще DeepSeek отлично справляется с программированием. Очень хороший помощник для проверки и создания кодов.
Grolribasi
Я его сейчас прошу прокомментировать мне API, очень полезно на самом деле. Программирование я бы ему, конечно же, не доверил)
Grolribasi
В переводе с китайского это означает «зануда»
Grolribasi
Спорить не буду)
Grolribasi
Спасибо за комплимент, быть идиотом здорово

Добавить комментарий

Сейчас на главной

Новости

Публикации

Нейтронные звёзды перед столкновением деформируются не так, как считалось: физики обнаружили три релятивистских механизма, которых не было в моделях

Нейтронная звезда — один из самых плотных объектов во Вселенной. При диаметре около двадцати километров её масса составляет порядка полутора солнечных. Вещество внутри сжато до...

Недостроенный детектор на дне моря поймал нейтрино, которое не смог поймать IceCube. Новая физика или случайность?

В феврале 2023 года детектор ARCA — часть строящегося на дне Средиземного моря нейтринного телескопа KM3NeT — зарегистрировал частицу экстремальной энергии. Мюон прошил...

Обзор наушников CCA Xyrra: скорость и драйв в ультрабюджетном сегменте

Компания CCA, в отличии от Knowledge Zenith, решила зайти с немного иной стороны, и вместо планарного излучателя, как у KZ Duonic, установила арматурный 30118, зато самого последнего...

Обзор увлажнителя воздуха РЕДМОНД HF2213S: Создай свой климат со смартфона

Увлажнение воздуха в доме особенно важно в отопительный сезон, когда окна обычно закрыты, а горячие батареи сильно сушат воздух. Увлажнитель помогает поддерживать оптимальную влажность без лишних...

Почему кухонная вытяжка начинает шуметь сильнее обычного, и как решить эту проблему

Кухонная вытяжка — один из тех бытовых приборов, к которому быстро привыкают. Пока она работает тихо и незаметно, на неё редко обращают внимание. Но если однажды привычный звук...