Leave a comment

free_logic May 29 2014, 09:06:11 UTC
Право голоса - это еще не принятие решения. Никакой ответственности за это, скорее всего, быть не может :)

Кстати, пока роботы не наделены самостоятельным интеллектом, судить вполне можно авторов алгоритмов.

Картинку сам нарисовал? :)

Reply

rv_alymov May 29 2014, 11:56:33 UTC
Для робота - точно никакой. Авторов-то за что судить? Они же не совершали никаких виовных действий, которые, например, привели к причинению убытков венчурному - т.е. суперрисковому - фонду.

Картинку заимствовал в информационных целях, автора не знаю, указать его имя поэтому не могу.
Я гораздо хуже рисую ((

Reply

free_logic May 29 2014, 12:10:03 UTC
Кому-то принадлежало решение использовать программу. Тот, кто принял такое решение, и будет виноватым.

Reply

free_logic May 29 2014, 12:16:56 UTC
Если решение было принято коллективно (например, голосованием на совете директоров), ответственность будет разделена.

Собственно, не вижу проблем наказать кого-то за неверные решения робота.

Reply

rv_alymov May 30 2014, 18:36:54 UTC
Да, разделена. Но решение робота делает неправильное решение остальных более обоснованным. А чем более обоснованно решение, тем сложнее привлечь к ответсвенности.

Я оговорюсь, что в этом конкретном случае про ответсвенность говорить вообще сложно, потому что DKV - венчурный фонд, а венчурные инвестиции рисковы по своей природе.

Reply

rv_alymov May 30 2014, 18:28:02 UTC
А где ппричинно-следственная связь между фактом принятия решения использовать алгоритм и фактом причинения убытков?

Reply

free_logic June 3 2014, 12:14:27 UTC
Допустим кто-то решает использовать генератор случайных чисел для принятия решений (самый просто "робот"). Вопрос: кто получит за неверное решение по башке? Ясно, что не робот, а тот, кто использует робота.

Reply

rv_alymov June 3 2014, 12:36:05 UTC
Генератор случайных чисел принимает случайное, то есть заведомо необоснованное решение. А алгоритм принимает обоснованное.

Те, кто ссылается на решение генератора случайных чисел, действуют заведомо необоснованно и подлежат ответсвенности.
Те, кто слушался мудрого алгоритма, действуют вполне обоснованно.

Reply

free_logic June 3 2014, 12:50:37 UTC
Че-то я тебя не понимаю. Что такое "мудрый алгоритм"? И почему генератор случайных чисел "заведомо необоснован"? Я вот, например, не сомневаюсь, что эффективность некоторых управленцев окажется хуже, чем у генератора.

Как ты собираешься отличать алгоритмы по мудрости?

Reply

rv_alymov June 3 2014, 15:28:18 UTC
Случайное решение не имеет под собой рационального обоснования - оно случайно. Поэтому решение генератора заведомо необосновано.

/ это абстрактая ситуация, без привязки к DKV /

Вот представь, судят директора, вопрос ему:
- Почему вы продали эту компанию, и купили вот те тухлые акции?

А он отвечает:
- Ну, типа, такое заключение дала наша экспертная система (робот). Три сотни программистов делали ее тридцать лет и три года, она правильно предсказывала рост и крах сотен компаний [длиинный перечень], она выиграла все конкурсы на искусственный интеллект, 99,5% ее прогнозов подтверждались. Я и ща подумал, что она права. Но случилась хрень, система ошиблась. Однако моей вины нет, я ответсвенности не подлежу

А если он ответит:
- Я монетку бросил, выпала решка - ну, я и продал.

Первое объяснение разумно, нет виновных действий директора, которые привели к причинению убытков, он действовал обоснованно. Во втором случае - директор необоснованно бездействовал, переложил принятие решения на монетку.

Reply

free_logic June 3 2014, 16:29:57 UTC
Ты рассуждаешь очень хаотично.

Что такое твоя программа?

Это инструмент или искусственный интеллект?

Если инструмент, то ответственность несет тот, кто пользуется инструментом.
Если искусственный интеллект, то речь идет о несуществующей ныне плоскости права. Если программа признается самостоятельным интеллектом, то это совсем другой вопрос. Но! Такое признание не может быть сделано на уровне совета директоров.

Все существующие ныне программы - это инструменты. Поэтому ответственность несут те, кто ими пользуется. Если совет директоров учитывает голос программы, как голос человека, то отвественность делится между людьми, проголосовавшими за принятие такого регламента.

Reply

rv_alymov June 6 2014, 13:41:09 UTC
Не хаотично, а в других категориях. ты говоришь в технико-рациональной парадигме, а я в юридической.

С юр. позиций искусственнный интеллект ничем не отличается от алгоритма. Такой же инструмент.

Reply

free_logic June 6 2014, 19:59:38 UTC
Очень странно. Скорее, с юридической позиции искусственный интеллект не должен отличаться от Романа Алымова...

Reply

rv_alymov June 7 2014, 09:44:45 UTC
Обоснуй )

Reply

free_logic June 7 2014, 19:56:19 UTC
Это большая тема, которую до конца, наверное, никто пока не понимает. Т.к. нет у нас пока что "искусственного интеллекта" в полном смысле этих слов. Однако, когда он появится, его права уже точно нельзя будет уравнивать с правами железки.
В Интернете много всякой инфы на эту тему.
Можно начать с Википедии: http://en.wikipedia.org/wiki/Ethics_of_artificial_intelligence
Но там материал, на мой взгляд, не очень. Однако есть какие-то ссылки.

Reply

rv_alymov June 9 2014, 14:44:59 UTC
Ну слушай, весь этот дискурс о правах роботов носит чисто этичесикий характер. Пока чисто этический.

Вот я не готов однозначно утверждать, что у искуственноого интеллекта должны быть какие-то юридические права. Или что не должны. Это вопрос будущего, и вопрос теоретический.

На сегодня вопрос лежит в чисто практической плоскости: как сложить с себя ответсвенность, прикрывшись роботом. DKV устроил пиарную провокацию и вытащило этот вопрос на широкое обсуждение.

Reply


Leave a comment

Up