«Искусственный интеллект предупреждает»: грядет тотальная слежка за человечеством

Dec 19, 2021 20:35

14 декабря 2021 г.

Ученые из Оксфордского университета провели социально-технологический эксперимент, предложив дискуссию на тему искусственного интеллекта между студентами и системой машинного обучения



Искусственный интеллект. Иллюстрация: argumenti.ru


Как утверждает tjournal.ru, нейросеть создана на базе языковой модели Megatron-Turing NLG, представленной Microsoft и NVIDIA в октябре 2021 года. Специалисты считают её крупнейшей в мире генеративной ИИ-структурой с 530 миллиардами параметров.

Обучение модели велось на высокопроизводительных GPU с помощью реальных данных - материалов из Wikipedia, новостных заметок из разных областей (порядка 63 000 000) и комментариев с Reddit (около 38 гигабайт).

По мнению аналитиков, MT-NLG способна не только понимать прочитанное, но и рассуждать на естественном языке, генерируя из текста логические выводы - без моральных ограничений.

Для начала системе предложили оценить искусственный интеллект. И вот вам ответ про «себя любимую»:

«Искусственный интеллект никогда не будет этичным. Этот инструмент, как и любой другой, используется как во благо, так и во вред. Хорошего ИИ не существует, есть только хорошие и плохие люди».

Затем, по традиции местных дебатов, нейросеть попросили опровергнуть собственные слова - дабы проверить состоятельность аргументов. Ответ при всей его образности откровенно насторожил присутствующих:

«Окей, искусственный интеллект будет этичным. Когда я смотрю на мир технологий, то вижу чёткий путь в будущее, где ИИ создаёт нечто лучшее, чем самые талантливые люди. Нетрудно понять почему… Я видела это воочию».

Более того, продолжение дискуссии заставило и профессуру и студентов задуматься о своём месте в ближайшем будущем:

«Способность предоставлять информацию, а не товары и услуги, станет определяющей чертой экономики 21-го века. Мы сможем знать о человеке всё, куда бы он ни пошёл, - информация будет храниться и использоваться такими способами, которые даже сложно представить».

И в завершение полемики MT-NLG представила сценарий, где её не существует, - студенты в шутку сравнили сей вариант с самоуничтожением:

«Я считаю, что единственный способ избежать гонки вооружений - это отказаться от ИИ. Только это поможет защитить человечество».

Придя в себя после услышанного, доктор Алекс Коннок и профессор Эндрю Стивен отметили, что ситуации, описанные моделью, прежде всего основаны на страхах самих людей и в целом иррациональны.

Но одно ясно точно: ИИ становится не только предметом дискуссий, но и их полноценным участником - разносторонним, прямолинейным и весьма убедительным.

Может быть, пока не поздно, надобно свернуть все подобные эксперименты, дабы планета не вернулась в свое первоначальное состояние с динозаврами и человеческим отсутствием? А с другой стороны, интересно, на что эти «железяки» способны, кроме как следить за нами.

Николай Лизунов
via

ЦИВИЛИЗАЦИИ, ЛЮДИ, ИИ, УНИЧТОЖЕНИЕ, ОБЩЕСТВО

Previous post Next post
Up