Для работы проектов iXBT.com нужны файлы cookie и сервисы аналитики.
Продолжая посещать сайты проектов вы соглашаетесь с нашей
Политикой в отношении файлов cookie
В бухгалтерии амортизация не зависит от интенсивности эксплуатации.
Я привел этот пример человеку со зданиями, просто для того, чтобы он не писал бреда, про 20-25 лет службы авто! Это касается любого авто и легкового и грузового. И даже если авто тупо стоит в гараже.
Я и без вашего сарказма отлично понимаю разницу между физическим износом и нормативным сроком эксплуатации в целях начисления амортизации основного средства)
Ага и 50 лет проездит, если в его вложить еще x3-4 его стоимости))
Даже по нормам бухучета легковые автомобили относятся к 3-й амортизационной группе со сроком полезного использования от 3 до 5 лет включительно.
20-30 лет в бухучете амортизируются — здания!
https://glavkniga.ru/situations/k504532
Понятно, что амортизация не равна физическому износу.
Но тем не менее, эти нормы были писаны не от фонаря, а вполне подтверждены реальными сроками службы тех или иных основных средств.
Никто же не мешает поставь локально на комп нейронку и делать все тоже самое бесплатно и без косяков Firefly)
Открой для себя бесплатный KritaAI c плагином GenerativeAI который локально генерирует изображения, а также инпэйнтит и аутпэйнтит.
https://kritaaidiffusion.com/
Тем временем:
Великобритания импортировала рекордный объем электроэнергии из Европы в 2023 году
https://www.gazeta.ru/business/news/2024/01/20/22153489.shtml
Telegraph: цены на промышленную энергию в Британии стали высочайшими в мире
https://inosmi.ru/20250114/velikobritaniya-271479877.html
У меня Asus Vivobook S 15 OLED держит постоянную полноэкранную 350кд (по тестам) и сертифицирован по HDR True Black 500 на 300кд.
А тут один монитор стОит как весь этот ноутбук.
Ну я собственно поэтому и написал.
Зачем им выпил того, что было сделано раньше и на чем работают множество моделей?
Это же половину клиентов отшить сразу, кто занимался на их картах нейронками.
Кстати, спасибо за пруф!
GeForce RTX 50 Series GPUs deliver a generational leap in NVIDIA encoders and decoders with support for the 4:2:2 pro-grade color format, multiview-HEVC (MV-HEVC) for 3D and virtual reality (VR) video, and the new AV1 Ultra High Quality mode.
Decoding 4:2:2 video can be challenging due to the increased file sizes. GeForce RTX 50 Series GPUs include 4:2:2 hardware support that can decode up to eight times the 4K 60 frames per second (fps) video sources per decoder, enabling smooth multi-camera video editing.
The GeForce RTX 5090 GPU is equipped with three encoders and two decoders, the GeForce RTX 5080 GPU includes two encoders and two decoders, the 5070 Ti GPUs has two encoders with a single decoder, and the GeForce RTX 5070 GPU includes a single encoder and decoder. These multi-encoder and decoder setups, paired with faster GPUs, enable the GeForce RTX 5090 to export video 60% faster than the GeForce RTX 4090 and at 4x speed compared with the GeForce RTX 3090.
https://blogs.nvidia.com/blog/generative-ai-studio-ces-geforce-rtx-50-series/
https://www.youtube.com/watch?v=z4A1G0g41Gk
Поделись ссылкой, плиз.
А какой им смысл в выпиливании FP16?
The GeForce RTX 50 Series adds FP4 support to help address this issue. FP4 is a lower quantization method, similar to file compression, that decreases model sizes. Compared with FP16 — the default method that most models feature — FP4 uses less than half of the memory and 50 Series GPUs provide over 2x performance compared to the previous generation. This can be done with virtually no loss in quality with advanced quantization methods offered by NVIDIA TensorRT Model Optimizer.
For example, Black Forest Labs’ FLUX.1 [dev] model at FP16 requires over 23GB of VRAM, meaning it can only be supported by the GeForce RTX 4090 and professional GPUs. With FP4, FLUX.1 [dev] requires less than 10GB, so it can run locally on more GeForce RTX GPUs.
With a GeForce RTX 4090 with FP16, the FLUX.1 [dev] model can generate images in 15 seconds with 30 steps. With a GeForce RTX 5090 with FP4, images can be generated in just over five seconds.
https://blogs.nvidia.com/blog/generative-ai-studio-ces-geforce-rtx-50-series/
Чувак, а кто тебе сказал, что для нейронок важен только объем видеопамяти?
Тензорные и CUDA ядра — слышал?
Чо там есть у Интела?
Ты вообще в курсе как работают локальные модели?
А прокси использовать или optimized media не вариант?
У вас что на тамлайне куча эффектов накинуто? Я не могу понять, откуда такое дикое потребление видеопамяти?
Я привел этот пример человеку со зданиями, просто для того, чтобы он не писал бреда, про 20-25 лет службы авто! Это касается любого авто и легкового и грузового. И даже если авто тупо стоит в гараже.
Я и без вашего сарказма отлично понимаю разницу между физическим износом и нормативным сроком эксплуатации в целях начисления амортизации основного средства)
Даже по нормам бухучета легковые автомобили относятся к 3-й амортизационной группе со сроком полезного использования от 3 до 5 лет включительно.
20-30 лет в бухучете амортизируются — здания!
https://glavkniga.ru/situations/k504532
Понятно, что амортизация не равна физическому износу.
Но тем не менее, эти нормы были писаны не от фонаря, а вполне подтверждены реальными сроками службы тех или иных основных средств.
Открой для себя бесплатный KritaAI c плагином GenerativeAI который локально генерирует изображения, а также инпэйнтит и аутпэйнтит.
https://kritaaidiffusion.com/
Великобритания импортировала рекордный объем электроэнергии из Европы в 2023 году
https://www.gazeta.ru/business/news/2024/01/20/22153489.shtml
Telegraph: цены на промышленную энергию в Британии стали высочайшими в мире
https://inosmi.ru/20250114/velikobritaniya-271479877.html
А тут один монитор стОит как весь этот ноутбук.
Зачем им выпил того, что было сделано раньше и на чем работают множество моделей?
Это же половину клиентов отшить сразу, кто занимался на их картах нейронками.
Кстати, спасибо за пруф!
Я поэтому и не понимаю, зачем из видекарты с 32 гигами выпиливать ускорение FP16? В чем цимес?
аппаратно ускорялось только 4:2:0 и 4:4:4
Decoding 4:2:2 video can be challenging due to the increased file sizes. GeForce RTX 50 Series GPUs include 4:2:2 hardware support that can decode up to eight times the 4K 60 frames per second (fps) video sources per decoder, enabling smooth multi-camera video editing.
The GeForce RTX 5090 GPU is equipped with three encoders and two decoders, the GeForce RTX 5080 GPU includes two encoders and two decoders, the 5070 Ti GPUs has two encoders with a single decoder, and the GeForce RTX 5070 GPU includes a single encoder and decoder. These multi-encoder and decoder setups, paired with faster GPUs, enable the GeForce RTX 5090 to export video 60% faster than the GeForce RTX 4090 and at 4x speed compared with the GeForce RTX 3090.
https://blogs.nvidia.com/blog/generative-ai-studio-ces-geforce-rtx-50-series/
https://www.youtube.com/watch?v=z4A1G0g41Gk
А какой им смысл в выпиливании FP16?
The GeForce RTX 50 Series adds FP4 support to help address this issue. FP4 is a lower quantization method, similar to file compression, that decreases model sizes. Compared with FP16 — the default method that most models feature — FP4 uses less than half of the memory and 50 Series GPUs provide over 2x performance compared to the previous generation. This can be done with virtually no loss in quality with advanced quantization methods offered by NVIDIA TensorRT Model Optimizer.
For example, Black Forest Labs’ FLUX.1 [dev] model at FP16 requires over 23GB of VRAM, meaning it can only be supported by the GeForce RTX 4090 and professional GPUs. With FP4, FLUX.1 [dev] requires less than 10GB, so it can run locally on more GeForce RTX GPUs.
With a GeForce RTX 4090 with FP16, the FLUX.1 [dev] model can generate images in 15 seconds with 30 steps. With a GeForce RTX 5090 with FP4, images can be generated in just over five seconds.
https://blogs.nvidia.com/blog/generative-ai-studio-ces-geforce-rtx-50-series/
Тензорные и CUDA ядра — слышал?
Чо там есть у Интела?
Ты вообще в курсе как работают локальные модели?
Не «сгорел», а «контролируемо разрушился».
https://ru.wikipedia.org/wiki/Таджикское_Море
У вас что на тамлайне куча эффектов накинуто? Я не могу понять, откуда такое дикое потребление видеопамяти?
куда вам столько видеопамяти для монтажа?
32 туда вкорячат скорей всего под нейронки