Попытка написать хороший лонгрид с помощью DeepSeek V3: что выдаст нейросеть
DeepSeek V3 — большая языковая модель от китайской компании. Модель позиционируется как самая совершенная модель от DeepSeek на момент написания материала. Но это на бумаге, мне было интересно узнать, насколько хорошо модель справляется с написанием материалов с опорой на факты.
Контекст
Недавно я написал большой материал про Дэйва Филони, автора сериала «Мандалорец» и других проектов Lucasfilm, для написания я опирался на такие источники как страницы Википедии, посвящённые Дэйву Филони и его произведениям, статистику с других сайтов и некоторые другие, менее важные, материалы для проверки фактов, с которыми нейросеть теоретически должна быть знакома.
Я остался доволен получившимся материалом, тоном повествования и структурой, но интересно было, может ли нейросеть выдать что-то подобное. Для проверки я создал новый чат в DeepSeek, скопировал в него всю информацию, на которую опирался и попросил нейросеть сгенерировать материал.
Мой выбор пал именно на DeepSeek по простой причине удобства. Компания предоставляет бесплатный доступ к своей языковой модели, сайт открывается из России без VPN, а его интерфейс удобнее конкурентов. Возможно, Chat GTPT справилась бы с задачей лучше, но я не проверял.
Промпт
Как я упомянул выше, в чат с нейросетью были скопированы полностью все страницы, на которые я опирался. Википедия, страница на Lucasfilm и прочие сайты, содержащие сколько-нибудь важную информацию. Плюс я также знаком с упоминаемыми в материале произведениями Дэйва Филони: мультсериалы «Войны Клонов», «Повстанцы», сериалы «Мандалорец», «Книга Бобы Фетта», «Асока». Нейросеть должна быть с ними знакома хотя бы поверхностно, но на всякий случай я позволил ей выполнять поиск в интернете, если возникнет такая потребность.
Чтобы чат не засорялся краткими сводками присланного, первое, что я попросил нейросеть сделать — это отвечать «ОК» до тех пор, пока я не дам задание. Приём работает эффективно и помогает избежать ненужного мусора до момента выдачи настоящего задания. Отмечу, что я пробовал общаться с DeepSeek предыдущих версий, и обновлённая модель следует заданию значительно лучше. Прежние версии срывались в пересказ уже после нескольких объёмных статей или при небольшом отклонении от темы, например, когда контекст переходит с автора на его произведения. V3 значительно лучше следит за контекстом беседы и очень долго помнит, что от неё просили в самом начале.
Когда все справочные материалы были отправлены в чат, я попросил DeepSeek написать лонгрид. Я подробно описал, что я хочу получить в результате и примерную структуру будущего материала. В данном случае у меня было преимущество, я точно знал, что и в каком виде я хочу видеть. Иными словами, у меня был перед глазами готовый материал с готовой структурой, поэтому я просто попросил DeepSeek сделать плюс-минус то же самое. Если бы у меня не было материала, я не смог бы описать структуру так подробно, и качество конечного текста отличалось бы. Чем подробнее промпт, тем меньше отклонений и галлюцинаций нейросети.
К тому же я попросил не использовать списки, в противном случае их было бы очень много и текст получился бы скорее набором тезисов.
Результат
Первый абзац получился слишком объёмным для введения, слишком много воды и пафоса. Кроме того, поскольку я присылал в чат англоязычные тексты, нейросеть местами переключалась на «зумерский сленг», использовала английские слова вместо русских. Кроме того в первом абзаце содержатся серьёзные заявления, которые я бы точно не стал добавлять раньше заключения или хотя бы второй половины текста.
Дальнейший текст был примерно в том же духе, но содержал также фактические ошибки. Например:
Филони пришёл в Lucasfilm в 2005 году, принеся с собой опыт работы над анимационным сериалом «Аватар: Легенда об Аанге». Джордж Лукас лично выбрал его для разработки «Войн клонов» — мультсериала, который должен был заполнить хронологический пробел между вторым и третьим эпизодами саги.
DeepSeek
Во-первых, он пришёл в Lucasfilm раньше 2005, как минимум потому что первый эпизод мультсериала вышел в 2003 году. Во-вторых, опыт работы над «Аватар: Легенда об Аанге» — слишком громко сказано, Филони режиссировал всего несколько эпизодов первого сезона. В-третьих, вставки английских слов «сочетать визуальную innovation с глубиной narrative» и избыточное использование образов «его амбиции простирались гораздо дальше» продолжились и дальше.
Нейросеть использовала совершенно бессмысленные фразы вроде «глубокое уважение к наследию Лукаса, но без рабского следования канону». Почему следование канону рабское? И как можно уважать чьё-то наследие, но не следовать канону? Впрочем, языковая тут же пояснила, что имеет в виду: «Филони мастерски расширяет вселенную, вводя новых персонажей и планеты». По поводу персонажей — правда, но добавление новых планет в бесконечно большую далёкую-далёкую галактику нельзя назвать сколько-нибудь значимым достижением. Почему нейросеть решила сделать акцент именно на этих пунктах — неизвестно.
Следующие пару абзацев DeepSeek смогла написать без ошибок и словесного мусора, пока не перешла к особенно сочным местам:
В самом начале нейросеть говорила, что Дэйв Филони пришёл в Lucasfilm в 2005, чтобы заняться производством «Войн клонов», теперь уже мультсериал начался в 2008 с полнометражного фильма. Вероятно, модель запуталась в понятии «приквел», который может выйти позднее, но освещать более ранние события. Утверждение про культовость сериала тоже довольно смелое, а внезапный вброс имени Ральфа МакКуори без каких-либо пояснений, кто это, кажется лишним.
Далее DeepSeek рассказывает про успех «Мандалорца», но весьма поверхностно, без доказательств, статистики и каких-либо цифр. Также нейросеть утверждает, будто только «Асока» продолжает историю героев «Повстанцев», в то время как историю продолжают и «Мандалорец» и «Книга Бобы Фетта». Но не будем вдаваться в подробности.
Как появление Скайуокера связывает события сериала с сагой, если события и так происходят в рамках саги? Каким образом это риск? Текст вызывает много вопросов, но спорные утверждения продолжаются и дальше, где модель снова добавляет английские слова и много воды.
Заключение
Нейросеть DeepSeek V3 способна написать лонгрид, но качество материала оставит желать лучшего. Модель будет галлюцинировать, путать факты, термины, даты. В конечном итоге такой материал потребует большое количество ручных правок и тщательной проверки на достоверность. При таком количестве доработок целесообразность написания лонгридов с использованием нейросети вызывает сомнения. Возможно, проще будет сесть и написать текст вручную. Лонгрид, вдохновивший на написание этого материала можно найти по ссылке ниже:
Источник: creator.nightcafe.studio





12 комментариев
Добавить комментарий
Добавить комментарий