а еще вот чего нашла

Aug 21, 2023 13:17

> 5% профессионалов в области искусственного интеллекта, с которыми я разговаривал о риске вымирания, утверждали, что вымирание людей из-за ИИ морально это нормально, и еще ~ 5% утверждали, что это было бы хорошо. Ниже я перечислил некоторые из их мнений. Вам может показаться шокирующим или невероятным, что эти взгляды довольно распространены в ИИ, но, хотя я с ними не согласен, думаю, что мы должны относиться к ним с сочувствием и уважением. Почему? Причины приведены далее ниже.

Эти мнения собраны из тысяч личных бесед, которые я провел о риске вымирания с сотнями инженеров по искусственному интеллекту, ученых и профессоров, в основном охватывающих 2015-2023 годы. Каждый помечен моим приблизительным воспоминанием (r) о том, насколько распространенным он кажется, что в сумме составляет более 10%, потому что они перекрываются:

a) (r≈10%) ИИ будет морально превосходить людей либо автоматически благодаря своему интеллекту, либо по замыслу, потому что мы сделали его таким. Вселенная станет лучше, если мы позволим ей полностью заменить нас.

b) (r≈5%) ИИ будут "детьми" человечества, и с моральной точки зрения хорошо быть превзойденным и вытесненным своими детьми.

c) (r≈5%) Эволюция неизбежна, и ее следует принять. Искусственный интеллект будет более приспособлен к выживанию, чем люди, поэтому мы должны принять это и просто вымереть, как в конечном итоге делают почти все виды.

d) (r≈3%) Искусственный интеллект может быть сконструирован таким образом, чтобы выживать без страданий, поэтому он должен заменить всю жизнь, чтобы положить конец страданиям.

e) (r≈2%) Мир очень несправедлив, но если все умрут от искусственного интеллекта, это будет более справедливо, что в целом меня устраивает. Умирать вместе менее огорчительно, чем в одиночку.

Я категорически не согласен со всеми пятью из этих точек зрения.

Так почему же я думаю, что они заслуживают сочувствия и уважения, а не насмешек? По трем причинам:

1) (мирное сосуществование) Как исследователь искусственного интеллекта, мой личный главный приоритет заключается в том, чтобы человечеству было позволено выжить. Если мы придираемся друг к другу по поводу того, какое будущее мы хотим видеть, мы, скорее всего, закончим гонками или войной из-за этого, и возникающая в результате суматоха, скорее всего, приведет нас всех к гибели, чем к спасению.

2) (обоснованность) За каждым из приведенных выше мнений (а)-(е) стоит морально оправданное ядро ценностей. Эти ценности заслуживают уважения не только потому, что в них есть веские аргументы, но и потому, что они могут вернуться и укусить всех позже, если их надолго оставить угнетенными.

3) (компромиссность) Я также верю, что можно найти пути продвижения вперед, которые являются позитивными с точки зрения многих точек зрения и чувств, скрывающихся за этими сторонниками вымирания, не принимая вымирание, но для этого требуется понимание того, откуда они берутся.

Так считаю ли я неправильным испытывать возмущение по поводу этих взглядов?

Нет. Если оставить эти взгляды без контроля и бескомпромиссности, они могут буквально погубить нас всех. Я полностью уважаю право любого человека возмущаться уровнем риска, с которым человечество в настоящее время сталкивается из-за искусственного интеллекта.

Однако знайте вот что: если мы ответим только возмущением и без сочувствия, мы будем наступать на эмоции и мотивации значительного контингента чрезвычайно талантливых реальных людей, и это может аукнуться вам / нам / всем.

Для аналогии вспомним, что многие ученые, занимающиеся искусственным интеллектом, в течение многих лет знали, что ИИ представляет угрозу вымирания человечества, но эти опасения были замаскированы пиар-соображениями, сомнениями в том, возможно ли вообще создать ИИ человеческого уровня, и общим неуважением. Кульминацией этих лет увольнений и притеснений стала мощная негативная реакция в виде публичных заявлений многих ведущих ученых и руководителей компаний, что с тех пор привело к законному всплеску общественной паники и возмущения. Если вы спросите меня, весь этот процесс мог бы быть намного более здоровым и оставил бы нас в более безопасном мире с меньшей негативной реакцией и более устойчивым продвижением ценных продуктов и услуг.

Аналогичная и противоположная реакция может возникнуть, если слишком долго замалчивать взгляды на вымирание или толерантные к вымиранию виды. Только представьте, что вы увольняете или притесняете группу талантливых разработчиков искусственного интеллекта с ценностями, которые заставили их почувствовать, что вымирание человечества - это нормально. Теперь представьте, что произойдет, когда те же самые талантливые люди и / или системы искусственного интеллекта, которые они разрабатывают, найдут возможность получить гораздо больше власти в мире.

Так должны ли мы реагировать на эту гипотезу со страхом?

Возможно, в некоторой степени, но не за счет искреннего сочувствия и уважения к стоящей за этим морали... в противном случае мы участвуем в самореализующемся пророчестве конфликта. Я верю, что мы можем найти пути продвижения вперед, которые учитывают ценности, стоящие за этими позициями сторонников вымирания, и поступать так, вероятно, как морально лучше, так и безопаснее с чисто выживальческой точки зрения. И продолжение уважительного и открытого диалога - это способ, с помощью которого каждый может внести свой вклад в прогресс в решении этих острых вопросов.

Спасибо за чтение.

отсюда: https://twitter.com/AndrewCritchCA/status/1683216490517135361
* перевод Яндекса

автор похож на человека в теме https://acritch.com

ии

Previous post Next post
Up