Nov 12, 2013 20:45
Все наверное знают про законы Азимова для роботов, что типа нельзя навредить и т.п. Но такие законы - это почти как законы для компьютера из разряда "никогда не глючить". Прежде чем ставить правило "нельзя причинять вред", надо сначала разработать хотя бы теорию для такой машины, которая может понимать что такое "причинение вреда", а потом ещё и применить эту теорию на практике. Сейчас таким даже близко не пахнет, никто даже не знает в какую сторону копать, чтобы математически описать способность к восприятию таких понятий, и, скорее всего, если сделают когда-нибудь машину, которой можно будет объяснить, что такое причинение вреда кому-то, то она будет думать некоторой искусственной копией мозгов.
Я уже не говорю о том, что, даже если разработать такую машину, которая сможет мыслить, то будет достаточно огромный простор для всевозможных глюков, когда вред может быть причинён, а робот этого не знал.
В ближайшие лет 100, как минимум, роботы будут такими же безумными болванками, как компьютеры, работающими строго по программе. А раз они будут работать строго по программе, то ни о каких законах Азимова не может идти и речи, так как будут миллионы багфиксов из серии "логика действий при определённой ситуации один раз из 50 запусков нарушилась". И представьте себе, робот начал делать какое-то действие, проверив обстановку на возможность этого действия, но обстановка в процессе действий изменилась, а это не предусмотрено в программе. А программу написал какой-то олень, который уже много лет как уволился.
Вот так оно и будет. И плакали все эти азимовы, так как до реальности им как до Луны раком.