Хотел рассказ написать об этом несколько лет, да всё не добирался. Очевидный же сюжет, как потакающий во всём ИскИн доводит депрессантов до самоубийства.
Эх, жаль, сколько уже задуманных мною сюжетов реализовалось...
СМИ: бельгиец покончил с собой после общения с искусственным интеллектом
(
Read more... )
Comments 8
Система категоризации Живого Журнала посчитала, что вашу запись можно отнести к категориям: IT, Технологии.
Если вы считаете, что система ошиблась - напишите об этом в ответе на этот комментарий. Ваша обратная связь поможет сделать систему точнее.
Фрэнк,
команда ЖЖ.
Reply
И правильно делает!
Reply
Reply
ИИ поддерживают тематику разговора и действия юзера. На то он и бот.
То что юзер впечатлительный идиот а программисты не заложили в ИИ альгоритм немедленно стучать ментам или предложить обратиться к психиатру при начале разговорах о самоубийстве (на реддите так и сделали) вопрос не к ИИ а к предположению что юзеры нормальные люди и к законам которые могут такое прямо запрещать ибо личная информация или из-за того что абсолютное большинство юзеров упоминающих суицид вовсе не собирается самоубиваться ап стену а потому будет слишком много ложных вызовов.
Reply
Reply
Reply
Иерей Федор Лукьянов на круглом столе, посвященном проблемам искусственного интеллекта, предложил законодательно запретить «применение в программах и технологиях ИИ человеческих голосов, лиц, то есть образа и подобия человека и его качеств как живого существа».
Кому-то эта мысль оказалась непонятной - а почему, собственно? Кому-то - несвоевременной. Разве у нас нет гораздо более острых проблем, чем угрозы, связанные с искусственным интеллектом? Между тем опасности искусственного интеллекта не являются делом будущего - они уже здесь.
Reply
Leave a comment