Обсуждают, что будет представлять собой "домашний компьютер" к 2020 году:
http://lyuden.livejournal.com/65431.html#commentsОбсуждение в лучших традициях трансгуманизма и сингулярности, т.е. весьма научно-фантастическое, но тема на самом деле интересная. Всё, что мы будем иметь к 2020 году повсеместно, должно быть даже не в лабораториях, а уже подходить в продакшн.
Магистральное направление, насколько я вижу вокруг - это коммерческая возможность за маленькие деньги получать доступ к вычислениям на кластере. Сейчас тебе могут в облаке "выдать" порядка сотен компьютеров с какой-то сетью. Если так пойдет дальше, то к 2020, грубо говоря, час работы 20000 машинок с GPU и инфинибендом (что примерно так суперкомпьютер лучше сегодняшнего top 1) вполне сможет стоить, скажем, $200, а то же самое на 100 машинок уже for all intents and purposes можно будет считать своим "домашним компьютером". Существование подобного сервиса упирается не в технологии, а чисто в окупаемость.
Главный вопрос в том, что на всём этом считать. Бывают ли вообще массовые задачи под суперкомпьютеры? Ну, допустим, мы там уже заранее развернули hadoop или какой-то аналог, matrixnet или какое-нибудь другое машинное обучение из коробки, 3d рендеринг какой-нибудь, обсчет ядерных взрывов на фортране, Half Life 3, и вообще что угодно достаточно реалистичное. Всё готово, можно только запускать через красивый консольный интерфейс. Что запускаем?
У меня не совсем праздный интерес, знакомые местами очень даже пристально в эту сторону смотят, но я не уверен пока, что они что-то ценное высмотрели. Фиг с ними, пока что, с
matrioshka brains, давайте для начала
lyuden нам расскажет, зачем вот лично ему нужен ssh на компьютер с N петафлопс. :)