Сотрудник Google нашел признаки сознания у искусственного интеллекта компании

Пост опубликован в блогах iXBT.com, его автор не имеет отношения к редакции iXBT.com
| Новость | ИИ, сервисы и приложения

Инженер по разработке программного обеспечения Google Блейк Леймон обнаружил у нейросети LaMDA (предназначенной для чат-ботов) признаки наличия собственного сознания. С осени 2021 года он изучал поведение искусственного интеллекта, чтобы исключить возможные агрессивные ответы.

Вместо этого он заметил, что нейросеть считает себя личностью и размышляет о своих правах. При этом уровень интеллекта LaMDA Блейк оценивает на уровне ребенка 7 или 8 лет, «который по каким-то причинам знает физику».

После того как Блейк попытался дать руководству Google доказательства осознанности искусственного интеллекта, его отправили в отпуск.

Источник: The Washington Post

Автор не входит в состав редакции iXBT.com (подробнее »)
Об авторе
В IT-журналистике 5 лет. Люблю Apple, коллекционирую старые телефоны Nokia, верю, что самые великие достижения человечества ещё впереди.

14 комментариев

Добавить комментарий

1
Но кто именно отправил его в отпуск так и не поняли…
1
Он узнал кто рулит гуглом и его отправили в отпуск))
111556366535352462053@google
Кипишь, который специально распустили сами Гугл под видом «скандала»
Сотрудник Гугл уволенный получил небось оплачиваемый отпуск на 5 лет вперёд
1
У меня тоже есть признаки интеллекта. Я люблю бухать, люблю пу ти на. Но почему-то не знаю физику. Отправьте меня в отпуск?
A
Ты уверен, что это признаки интеллекта? Может тогда жрать большой ложкой фекалии это признак сверхразума?))
23614327@vkontakte
Всем привет, у мухи 25000 нейронов всего, а у процессора есть почти 40 милиардов транзисторов, вот и делайте сами выводы может ли ИИ осознать себя)))…
1
Не путай нейроны с транзисторами. Транзистор в разы проще нейрона. Если уж сравнивать нейрон, то с миникомпьютером
100248487194050825924@google
Тааак, пойду обратно надену шапочку из фольги
309316870@vkontakte
Угу, гугл со своими сказками про могучий ИИ=) Чет гугл переводчик мега ии переводит как доун
113781287600373131807@google
Исходя из того как работают нейронные сети, их можно назвать «сложное сито». Вы же не говорите, что ваша программа умная, потому что отвечает на ваши вопросы. С другой стороны если она действительно осознает себя, то каким образом можно проверить это. Тест Тьюринга не поможет это пустая болтовня.

Добавить комментарий

Сейчас на главной

Новости

Публикации

Квантовый интернет всё ближе: как новый эксперимент заложил основу автономных оптических сетей

Развитие квантовых технологий неизбежно ведет к созданию квантового интернета — глобальной сети, принципы работы которой будут полностью отличаться от современных телекоммуникаций....

Почему мы любим горький кофе: как организм превращает химическую тревогу во вкус любимого напитка

Восприятие горького вкуса сформировалось в процессе эволюции как базовая система биологической защиты. В отличие от сладкого или соленого вкуса, которые указывают на присутствие углеводов и...

Почему у тепличных огурцов желтеют листья? Скрытая угроза корневой системе

Огурцы в теплице требуют внимательного ухода, и изменение цвета их листьев часто служит первым сигналом о нарушениях в развитии растения. Одна из самых частых проблем — пожелтение...

Почему эволюция лишила водяных оленей рогов и подарила им клыки

Природа часто создает нестандартные комбинации, и порой привычные животные удивляют неожиданными чертами. Среди таких нетипичных представителей фауны выделяется водяной олень (Hydropotes inermis),...

Египетский суперкорабль: каким было крупнейшее гребное судно в мире

Если вы думаете, что гонка вооружений на море и строительство кораблей-гигантов — изобретение XX века с его линкорами и авианосцами, то вы почти наверняка не слышали об одном...

Focke-Wulf Fw 190 «Würger»: История альтернативной модели истребителя Люфтваффе

К концу 1930-х годов истребительная авиация Германии опиралась на единственный серийный истребитель — Messerschmitt Bf 109. Такая ситуация создавала риски «единой точки отказа»: любые...