Разработки в области ИИ предложили засекретить

Эксперты предупреждают, что злоумышленники могут использовать искусственный интеллект в своих целях

Быстрое развитие технологий, за которыми закрепился термин «искусственный интеллект», повышает риск их использования злоумышленниками. Результатом могут стать автоматизированные хакерские атаки, аварии самоуправляемых автомобилей и использование обычных дронов в качестве оружия.

Об этом говорится в докладе, подготовленном совместно 25 исследователями, работающими в кембриджском, оксфордском и йельском университетах, и специалистами по безопасности и обороне. По их мнению, растет угроза использования ИИ «государствами-изгоями» и преступниками.

Эксперты предупреждают, что злоумышленники могут использовать искусственный интеллект в своих целях

Исследователи уверены, что ИИ создает неизбежные угрозы «цифровой, физической и политической безопасности», позволяя выполнять широкомасштабные, высокоточные и высокоэффективные атаки.

В докладе подвергается сомнению целесообразность открытых публикаций о разработках в области ИИ до оценки их потенциальной опасности. Также в докладе содержится ряд рекомендаций, включая рекомендацию придать ИИ статус технологии двойного назначения (технологии, которая может быть использована в мирных и в военных целях).

21 февраля 2018 в 23:47

Автор:

| Источник: Reuters

Все новости за сегодня

Календарь

февраль
Пн
Вт
Ср
Чт
Пт
Сб
Вс