Ученые из MIT придумали тест под названием «
Моральная машина». В ходе тестирования вы должны решить за беспилотную машину ряд этических дилемм. Как ей вести себя на дороге, если катастрофа неизбежна и кто-нибудь должен погибнуть? Кого спасать - водителя или пешехода? Человека или животное? Мужчину или женщину? Младенца или старика? Врача или
(
Read more... )
Reply
Reply
Reply
Reply
Reply
Ибо у робада ВСЕГДА умышленное, он заведомо знает результат, никакого "нуууу, я думал успею затормозить..." не катит, открывается лог, снимаются оттуда данные, закатываютс в модельную программу и она четко выдает точно такой же ответ, который этот робад имел в реальной ситуации.
Reply
С кого потом деньги трясти, если владелец не имеет возможности влиять на поведение робота?
Reply
Reply
Reply
Вот в это вся автоматизация хомяковозок и упирается.
Reply
Reply
Reply
Даже не так. Водитель - он сам пострадает, если придавит пешехода. Робот - нет, ему пофиг. Пассажирам - пофиг. В целом - всем пофиг, кроме самого пешехода.
Reply
Reply
Робот вот так решает, не переезжает васеньку. В машине труп.
Вопрос: на сколько миллионов будет иск производителю и через сколько часов обанкротится автопроизводитель?
Reply
Reply
Leave a comment