Национальный цифровой ресурс Руконт - межотраслевая электронная библиотека (ЭБС) на базе технологии Контекстум (всего произведений: 634942)
Контекстум
Руконтекст антиплагиат система
Химия и жизнь ХХI век  / №3 2017

Автомораль (60,00 руб.)

0   0
Первый авторАнофелес
Страниц1
ID588476
АннотацияПервые жертвы автомобилей появились практически сразу после того, как самобеглые повозки выползли на дороги. Теперь же на подходе роботы-автомобили, то есть уже не человеческий, а электронный разум будет управлять средством повышенной опасности, как обозначены автомобили в правилах дорожного движения. Но пока еще есть время подумать о проблемах безопасности. Конечно, инженеры предлагают разнообразные технические решения, снижающие вероятность аварии — роботов оснащают радарами, датчиками, системами связи между собой и с элементами дорожной инфраструктуры. Но вот о философскую сторону вопроса никто не рассматривает
Анофелес, С. Автомораль / С. Анофелес // Химия и жизнь ХХI век .— 2017 .— №3 .— С. 66-66 .— URL: https://rucont.ru/efd/588476 (дата обращения: 02.05.2024)

Предпросмотр (выдержки из произведения)

Пишут,что. .на карликовой планете Церере в астероидном поясе есть органическое вещество, и оно, повидимому, не занесено извне, а образовалось на месте («Science», 2017, 355, 6326, 719—722, doi: 10.1126/science.aaj2305). <...> Автомораль КОРОТКИЕ ЗАМЕТКИ Первые жертвы автомобилей появились практически сразу после того, как самобеглые повозки выползли на дороги. <...> Теперь же на подходе роботы-автомобили, то есть уже не человеческий, а электронный разум будет управлять средством повышенной опасности, как обозначены автомобили в правилах дорожного движения. <...> Но пока еще есть время подумать о проблемах безопасности. <...> Конечно, инженеры предлагают разнообразные технические решения, снижающие вероятность авариироботов оснащают радарами, датчиками, системами связи между собой и с элементами дорожной инфраструктуры. <...> Но вот о философскую сторону вопроса никто не рассматривает. <...> Задуматься о моральных ограничениях для транспортных роботов призывает Томас Пауэрс, который возглавляет Центр науки, этики и публичной политики Делавэрского университета (агентство «NewsWise», 22 февраля 2017 года). <...> В самом деле, разум, управляющий средством повышенной опасности, постоянно должен принимать решения, и неверный выбор может привести к смерти. <...> Более того, в критической ситуации, когда авария неизбежна, ему придется оценивать риск для разных людей, возможно, выбирать между ними. <...> У человека в основе подобного выбора лежат соображения морали (скажем, к машине со значком «Ребенок в салоне» будет особое отношение). <...> В принципе, мораль роботов и вытекающая из нее психология этих механизмов подробно разобрана Айзеком Азимовым и базируется на хорошо известных законах роботехники: 1. <...> Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред. <...> Робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат Первому Закону. <...> Робот должен заботиться о своей безопасности <...>

Облако ключевых слов *


* - вычисляется автоматически
Антиплагиат система на базе ИИ