будущий адвокат растет

Jun 08, 2023 21:13

Д. получил задание в школе (4-й класс) сделать презентацию из трех слайдов про какого-нибудь видного израильского деятеля прошлых времен. На первом слайде биографические данные; на втором три его важных качества и как они проявлялись в его жизни; на третьем сочинение минимум из 10 строк о том, почему он выбрал именно этого человека и чем он ему ( Read more... )

дети

Leave a comment

snakysnick June 8 2023, 18:24:32 UTC
Ну вот, а они такие пугалки про искусственный интеллект рассказывают.
Хайпожоры не перетрудились: достаточно было понаблюдать за обыкновенными детьми.
На конференции USAF's Chief of AI Test and Operations, которая состоялась на Future Combat Air и Space Capabilities Summit в Лондоне 23 и 24 мая, полковник Такер "Синко" Хэмилтон рассказывал о преимуществах и недостатках автономного вооруженного бесилотника с человеком в петле принятия решений -- последний только дает разрешение на атаку. Оказалось, что ИИ создал чрезвычайно неожиданные стратегии для достижения своей цели: "Мы тренировали систему на симуляторе, чтобы находить комплексы ПВО. Задача оператора было сказать "да, уничтожай угрозу", или "нет, ничего не делай". Система со временем начала понимать, что человек иногда говорил ей не бить по цели, за уничтожение которой ИИ получил бы баллы. И что она сделала? Она нанесла удар по оператору, потому что он помешал ей выполнить поставленную задачу". Он продолжил разъяснение, говоря: "Мы изменили параметры тренировки системы, мол "Эй, не убивай оператора, это плохо. Ты потеряешь баллы, если будешь так делать". После этого ИИ начал уничтожать башню с передающей антенной, которую оператор использовал для связи с беспилотным летательным аппаратом."
Зачем искусственному интеллекту убивать всех человеков?

Reply

triky121 June 8 2023, 18:33:42 UTC

пиздеж. оператор сидит за половину шарика от дрона. даже на учениях

Reply

snakysnick June 8 2023, 18:38:52 UTC
Это был "мысленный эксперимент", симулятор.

Reply

triky121 June 8 2023, 18:42:59 UTC

все равно пиздеж.

уничтожение оператора делает невозможным отдачу приказа "да, уничтожай угрозу" и, следовательно, получение очков.

с башней тоже самое

Reply

snakysnick June 8 2023, 18:48:54 UTC
У него могли быть дополнительные инструкции на случай потери связи: переходить в полностью автономный режим, например.
Ну или речь о том, что система приняла решение, которое делало выполнение дальнейшей задачи невозможным, т.е. речь об ошибочном решении, которое по-идее, должно было привести к тому, что будет устранена помеха, мешающая зарабатывать баллы, а оказалось, что после убийства оператора вообще никаких баллов заработать нельзя.
ИИ может изначально и не соображать, что после убийства оператора не будет никаких баллов вообще.
Сначала ему нужно наколошматить некоторое количество операторов, чтобы получить возможность усвоить, что это решение не несет выгоды.

Reply

triky121 June 8 2023, 18:56:59 UTC

такое простое обучение проводится в симуляции за минуты.

или так, за час

Reply

snakysnick June 8 2023, 19:00:24 UTC
Дык хто ж против-то?
Речь о первом разе, когда ИИ принял решение убить оператора.
Важно, что он все-таки принял это решение, а не что было с его обучением потом.

Reply

triky121 June 8 2023, 19:05:42 UTC

хватит уже юлить. ты росиянин, что ли?

"полковник Такер "Синко" Хэмилтон" рассказывал на конференции то, что все кто в теме знают уже лет 20?

Reply

snakysnick June 8 2023, 19:14:58 UTC
Кто как обзывается тот сам так и называется.
Для тех, у кого проблемы с объемом оперативной памяти и поэтому им трудно удерживать контекст, напомню, что речь шла о хайпожорах, пугающих обывателя "нечеловеческой" логикой ИИ.
Хотя в действительности такую логику мы можем видеть сплошь и рядом, хоть бы и у тех же детей.

Reply

triky121 June 8 2023, 19:19:04 UTC

"напомню, что речь шла о хайпожорах, пугающих обывателя "нечеловеческой" логикой ИИ"

и кто же этот хайпожер?

ты не мог бы тратить чуть больше времени на обдумывание ответа, а не редактировать его пять раз?

Reply

snakysnick June 8 2023, 19:40:23 UTC
Ну, если бы ты тратил чуть больше времени на обдумывание прочитанного, то тебе вообще не пришлось бы каменты писать, а мне - редактировать ответы на них.
Попробуй еще раз прочитать первый камент
https://avva.livejournal.com/3562486.html?thread=184083446#t184083446
только внимательно. Сходить по всем ссылкам и т.п. А потом подумать стоило ли задавать вопрос типа "и кто этот хайопожер" если вся необходимая информация (в т.ч. и для ответа на этот вопрос) уже была предоставлена.

Reply

triky121 June 8 2023, 19:42:21 UTC

тот комент тоже изменен хер знает сколько раз.

устал я от тебя.

Reply

snakysnick June 8 2023, 19:54:43 UTC
А ты как думал? Это тебе не вагоны на свежем воздухе в свое удовольствие разгружать! Но ничо, это полезная усталость.

Reply

snakysnick June 8 2023, 19:51:23 UTC
А вот еще спискота по хайпожорам.
https://www.safe.ai/statement-on-ai-risk
Только там не все хайпожоры. Чтобы отделить хайпожоров от тех, кто просто делает свой бизнес, там есть галочка:
"показать только AI Scientists" и "Other Notable Figures"
Вот эти вот "Other Notable Figures" - хайопожоры и есть.

Reply

gholam June 9 2023, 04:04:14 UTC
Это был мысленный эксперимент который ни разу не симулятор, т.е. полковник пофантазировал как по его мнению ИИ мог бы себя вести если этой железке доверить управление боевым самолётом. А так как, по мнению полковника, если ИИ дать управление самолётом то он наломает дров, делать этого нельзя, и пилотов из кабины выгонять не следует ни в коем случае. По мнению пилота.

Reply

snakysnick June 9 2023, 08:36:07 UTC
Это был мысленный эксперимент о том как ИИ мог бы вести себя в симуляторе.

Reply


Leave a comment

Up