Для работы проектов iXBT.com нужны файлы cookie и сервисы аналитики.
Продолжая посещать сайты проектов вы соглашаетесь с нашей
Политикой в отношении файлов cookie
«Куда дешевле выходит дискретный чип иметь»
Вы немного теплое с мягким сравнили.
Т.к. 440 мм² (кстати откуда цифра? поделитесь пожалуйста), это явно не размер только GPU.
«Который хотя бы сравнить можно. „
В том то и дело что нельзя. Нет формально конечно вы правы можем, но по существу это вообще не о чём не говорит, т.к. реальный набор задач отличен от синтетики, ну и в бенчмарках читерить могут.
«И да жду доказательств вашему утверждению «Бессознательною работу головного мозга ещё никому не удалось понять с помощью сознания.»»
Ну что месье демагог. Доказательства будут? Или всё продолжите увиливать?
" что какая-то его часть в ряде случаев может быть логичной."
Вы это написали. Я вам это не приписывал.
И это противоречит вашей же предыдущей фразе «восприятие никак не доказывает, что бессознательное логично»
Я вам лишь озвучил одно из правил формальной логики.
«никак не доказывает, что бессознательное логично»
Но опровергает «Бессознательною работу головного мозга ещё никому не удалось понять с помощью сознания.»»
Подпороговое восприятие это пример бессознательной работы и при этом мы это знаем.
«что бессознательное логично, а только доказывает, что какая-то его часть в ряде случаев может быть логичной.»
Согласно формальной логике истинно лишь одно из утверждений. бессознательное логично, бессознательное не логично. Так что тут вы себе противоречите.
Доказывает. Т.к. это прямое доказательство существование закономерностей в бессознательном.
И да жду доказательств вашему утверждению «Бессознательною работу головного мозга ещё никому не удалось понять с помощью сознания.»»
" рисуют по своему"
Тоже можно сказать и про нейросети
«часто похожи те или иные части уже существующих изображений.»
Тоже можно сказать и про художников.
«это абсурд „
А вот извините, но бремя доказательства. Вы УТВЕРДИЛИ, что чего-то нет и вы вынуждены это доказывать. Строго научный подход.
И да я вам и привёл доказательства наличия.
Например явление названным “подпороговое восприятие». Хотя я и не обязан этого делать, т.к. не утверждал обратного.
«эти алгоритмы например могут разбирать миллионы изображений на части, потом сортировать по типам, например: колесо, стекло, цвет, фон и так далее»
Нет.
Алгоритм нейросети это не конкретный алгоритм, это алгоритм обучения.
«просите нарисовать они составляют разобранные части, перекрашивают, изменяют их размер и так далее.»
вы совершенно так же можете описать и деятельность художника. Чистой воды формальность.
Нет. Т.к. 3D кеш вы можете монтировать лишь к CPU. К данному кешу GPU не обращается.
Но сам L3 кеш явно бы сыграл на руку IGPU, что сделали ещё в RDNA 2.
«Чего доказывать» вы делаете утверждение:
«Бессознательною работу головного мозга ещё никому не удалось понять с помощью сознания.»
А доказывать это не собираетесь, я понял.
" что нейросети не могут выйти за управляющие алгоритмы"
этого вообще никто не утверждал. Это прямо подмена тезиса. Т.е. демагогия.
Ладно я понял, за сим и закончу, раз отвечать по существу вы не способны, лишь плодите сущности, мне такое не интересно.
И?
«Как видите тут прямая взаимосвязь»
На которую нам пофиг, нет извините просто так свою эвристику вы не пропихнёте.
Если что нейросети так же работают с новым и абстрактным.
Вы когда просите нейросеть нарисовать человека. Человек — абстракция.
И рисует она, на основе опыта, что-то всё таки новое, пусть и зачастую с ошибками.
«Бессознательною работу головного мозга ещё никому не удалось понять»
Всё ещё плевать. Вы не оспорили утверждение выше, не уводите разговор в сторону.
Во вторых а доказать своё утверждение не хотите?
подпороговое восприятие. Биологическая нейронная сеть.
Только общепринятое, т.е. способности: учиться, адаптироваться, запоминать и использовать эти знания, а так же мыслить (т.е. рассуждать, анализировать и делать выводы).
«Обычно людям не придёт в голову утверждать,»
И это никак не доказывает, что люди не сравнивают теплое с мягким.
При том «обычно»? Т.е. всё таки в каких-то случаях человек и такое может.
«Так как они понимают,»
Вы уверены что все 8млрд людей это знают? Даже те кто про существование крана не знает совсем?
«и часто не с помощью сознания и логики люди находят новое»
Это уже какая-то метафизика пошла.
логика(алгоритмы)
Нельзя отождествить логику и алгоритмы.
«правильно я понимаю?»
Нет. Молоток не обладает интеллектом совсем. В отличии от нейронной сети, да они способны учиться, адаптироваться решать задачи. Но если вы где-то такой найдёте то да.
Существуют самообучающиеся нейронные сети.
Есть стратегия называемая Unsupervised learning обучение без учителя и есть синтетические данные, т.е. данные сгенерированные не человеком, а алгоритмом или другой нейросетью. Есть Generative adversarial network, где 2 нейросети соревнуются друг с другом.
Это уточнение по вашим вопросам.
«Или всё же нужна помощь человека?»
Смотря что вы имеет ввиду под помощью.
Я надеюсь вы помните что ИИ это всё ещё искусственный интеллект и что он сознанием не обладает.
Помощь в обучении? Нет не обязательна. Но эффективно ли это? Да вот не всегда
По данной новости например читаем источник
7.1Training setup
AG1 language model, a custom transformer, was trained in the unsupervised fashion in two phases: training on problems with and without auxiliary constructions followed by training on only problems that contain auxiliary constructions. For AG2 we leverage the Gemini training pipeline and simplify training to just one phase: unsupervised learning on all data. Our new language model is a sparse mixture-of-expert Transformer-based model that builds on Gemini Team Gemini (2024) and trained on AG2 data described in Section 5.
Вы немного теплое с мягким сравнили.
Т.к. 440 мм² (кстати откуда цифра? поделитесь пожалуйста), это явно не размер только GPU.
В том то и дело что нельзя. Нет формально конечно вы правы можем, но по существу это вообще не о чём не говорит, т.к. реальный набор задач отличен от синтетики, ну и в бенчмарках читерить могут.
Какая ирония, упомянуть ошибки и прибегнуть к ad hominem, т.е. ошибке.
Вы батенька демагог.
«И да жду доказательств вашему утверждению «Бессознательною работу головного мозга ещё никому не удалось понять с помощью сознания.»»
Ну что месье демагог. Доказательства будут? Или всё продолжите увиливать?
Вы это написали. Я вам это не приписывал.
И это противоречит вашей же предыдущей фразе «восприятие никак не доказывает, что бессознательное логично»
Я вам лишь озвучил одно из правил формальной логики.
Всё ещё жду доказательств вашему утверждению.
Но опровергает «Бессознательною работу головного мозга ещё никому не удалось понять с помощью сознания.»»
Подпороговое восприятие это пример бессознательной работы и при этом мы это знаем.
«что бессознательное логично, а только доказывает, что какая-то его часть в ряде случаев может быть логичной.»
Согласно формальной логике истинно лишь одно из утверждений. бессознательное логично, бессознательное не логично. Так что тут вы себе противоречите.
Доказывает. Т.к. это прямое доказательство существование закономерностей в бессознательном.
И да жду доказательств вашему утверждению «Бессознательною работу головного мозга ещё никому не удалось понять с помощью сознания.»»
Тоже можно сказать и про нейросети
«часто похожи те или иные части уже существующих изображений.»
Тоже можно сказать и про художников.
А вот извините, но бремя доказательства. Вы УТВЕРДИЛИ, что чего-то нет и вы вынуждены это доказывать. Строго научный подход.
И да я вам и привёл доказательства наличия.
Например явление названным “подпороговое восприятие». Хотя я и не обязан этого делать, т.к. не утверждал обратного.
Нет.
Алгоритм нейросети это не конкретный алгоритм, это алгоритм обучения.
«просите нарисовать они составляют разобранные части, перекрашивают, изменяют их размер и так далее.»
вы совершенно так же можете описать и деятельность художника. Чистой воды формальность.
Но сам L3 кеш явно бы сыграл на руку IGPU, что сделали ещё в RDNA 2.
«Бессознательною работу головного мозга ещё никому не удалось понять с помощью сознания.»
А доказывать это не собираетесь, я понял.
" что нейросети не могут выйти за управляющие алгоритмы"
этого вообще никто не утверждал. Это прямо подмена тезиса. Т.е. демагогия.
Ладно я понял, за сим и закончу, раз отвечать по существу вы не способны, лишь плодите сущности, мне такое не интересно.
«Как видите тут прямая взаимосвязь»
На которую нам пофиг, нет извините просто так свою эвристику вы не пропихнёте.
Если что нейросети так же работают с новым и абстрактным.
Вы когда просите нейросеть нарисовать человека. Человек — абстракция.
И рисует она, на основе опыта, что-то всё таки новое, пусть и зачастую с ошибками.
Всё ещё плевать. Вы не оспорили утверждение выше, не уводите разговор в сторону.
Во вторых а доказать своё утверждение не хотите?
подпороговое восприятие. Биологическая нейронная сеть.
Бессознательная, не значит не логичная.
И это никак не доказывает, что люди не сравнивают теплое с мягким.
При том «обычно»? Т.е. всё таки в каких-то случаях человек и такое может.
«Так как они понимают,»
Вы уверены что все 8млрд людей это знают? Даже те кто про существование крана не знает совсем?
«и часто не с помощью сознания и логики люди находят новое»
Это уже какая-то метафизика пошла.
логика(алгоритмы)
Нельзя отождествить логику и алгоритмы.
Нет. Молоток не обладает интеллектом совсем. В отличии от нейронной сети, да они способны учиться, адаптироваться решать задачи. Но если вы где-то такой найдёте то да.
Существуют самообучающиеся нейронные сети.
Есть стратегия называемая Unsupervised learning обучение без учителя и есть синтетические данные, т.е. данные сгенерированные не человеком, а алгоритмом или другой нейросетью. Есть Generative adversarial network, где 2 нейросети соревнуются друг с другом.
Это уточнение по вашим вопросам.
«Или всё же нужна помощь человека?»
Смотря что вы имеет ввиду под помощью.
Я надеюсь вы помните что ИИ это всё ещё искусственный интеллект и что он сознанием не обладает.
Помощь в обучении? Нет не обязательна. Но эффективно ли это? Да вот не всегда
По данной новости например читаем источник
7.1Training setup
AG1 language model, a custom transformer, was trained in the unsupervised fashion in two phases: training on problems with and without auxiliary constructions followed by training on only problems that contain auxiliary constructions. For AG2 we leverage the Gemini training pipeline and simplify training to just one phase: unsupervised learning on all data. Our new language model is a sparse mixture-of-expert Transformer-based model that builds on Gemini Team Gemini (2024) and trained on AG2 data described in Section 5.