Приношу извинения, что не нашел времени в прошлый раз изложить свою точку зрения на заданный вопрос. Впрочем, она таки повлияла на список предложенных вариантов
( Read more... )
Вообще, Максовы построения довольно наивны в силу того, что он старательно обходит стороной ту часть системы, которая для реализации всего этого хозяйства является критической и ключевой.
Это интернет-провайдеры.
Во-первых, у них довольно сильно ограничена ширина полосы магистральных каналов. На "вконтакты" ее хватает. На битторренты ее хватает со скрипом, если конфигурировать роутеры на минимальный приоритет торрентовых пакетов и заманивать юзеров на альтернативы в локальной сети. На полноценные "у нас все в облаке" приложения ее тупо не хватит (а если хватит - то стоить такой кусок полосы будет отнюдь не $20/месяц за безлимит).
Во-вторых, у них довольно сильно ограничен пинг. Пинг в 80 мс до почты и 100 мс до rss-ридера - это еще не критично, но уже заметно. С чем-нибудь навроде автокада или фотошопа оно будет уже невыносимо совершенно.
В-третьих, у них нет 100%-ого аптайма. Вот у нас, например, почта, багтрекер, вики и часть тестовых серверов стоят в Бостоне - и когда у нашей любимой Синтерры падает наш драгоценный VPN канал, работа не то, чтобы совсем останавливается, но замирает довольно основательно.
Так что, короче, научная фантастика это все, без особой связи с реальностью :-)
11,5 миллионам человек (и это очень сильно заниженная оценка) для работы в "облаке" уже несколько лет вполне хватает имеющейся пропускной способности канала.
Ты имеешь в виду Google Mail и аналоги?
По собственному опыту 2 мегабит вполне хватает для одновременной распределённой работы в Google Office с использованием отдельного сервиса для майнд мапов и скайпа едва ли не для хорового пения.
Видишь ли, те два мегабита, про которые ты говоришь - это ширина последней мили. А, и про это важно помнить, ширина последней мили - это не номинальный кусок магистрали, приходящийся на клиента, а пиковый.
Проще говоря, пока из клиентов твоего провайдера вас таких умных один процент - оно работает отлично. Но вот как оно осилит такую загрузку от, хотя бы, десяти процентов клиентов - никаких гарантий нету :-)
Да, фактор "инфраструктуры и пропускной способности Сети" -- самый важный в этом прогнозе. Но я ставлю на то, что увеличить этот показатель куда проще, чем показатель эффективности использования многоядерных машин отдельно взятым средним пользователем... То есть, при наличии выбора между 1) апгрейдом с 16-ядерной персоналки на 32-ядерную, который почти ничего не даст; 2) "даунгрейдом" до маленького, лёгкого и дешевого терминала, который даёт те же возможности везде, где есть Сеть; выбора нет.
Конечно, кому-то могут и персоналки понадобиться, но я говорю о массовой тенденции...
Это интернет-провайдеры.
Во-первых, у них довольно сильно ограничена ширина полосы магистральных каналов. На "вконтакты" ее хватает. На битторренты ее хватает со скрипом, если конфигурировать роутеры на минимальный приоритет торрентовых пакетов и заманивать юзеров на альтернативы в локальной сети. На полноценные "у нас все в облаке" приложения ее тупо не хватит (а если хватит - то стоить такой кусок полосы будет отнюдь не $20/месяц за безлимит).
Во-вторых, у них довольно сильно ограничен пинг. Пинг в 80 мс до почты и 100 мс до rss-ридера - это еще не критично, но уже заметно. С чем-нибудь навроде автокада или фотошопа оно будет уже невыносимо совершенно.
В-третьих, у них нет 100%-ого аптайма. Вот у нас, например, почта, багтрекер, вики и часть тестовых серверов стоят в Бостоне - и когда у нашей любимой Синтерры падает наш драгоценный VPN канал, работа не то, чтобы совсем останавливается, но замирает довольно основательно.
Так что, короче, научная фантастика это все, без особой связи с реальностью :-)
Reply
(The comment has been removed)
Ху из ит?
11,5 миллионам человек (и это очень сильно заниженная оценка) для работы в "облаке" уже несколько лет вполне хватает имеющейся пропускной способности канала.
Ты имеешь в виду Google Mail и аналоги?
По собственному опыту 2 мегабит вполне хватает для одновременной распределённой работы в Google Office с использованием отдельного сервиса для майнд мапов и скайпа едва ли не для хорового пения.
Видишь ли, те два мегабита, про которые ты говоришь - это ширина последней мили. А, и про это важно помнить, ширина последней мили - это не номинальный кусок магистрали, приходящийся на клиента, а пиковый.
Проще говоря, пока из клиентов твоего провайдера вас таких умных один процент - оно работает отлично. Но вот как оно осилит такую загрузку от, хотя бы, десяти процентов клиентов - никаких гарантий нету :-)
Reply
Но я ставлю на то, что увеличить этот показатель куда проще, чем показатель эффективности использования многоядерных машин отдельно взятым средним пользователем...
То есть, при наличии выбора между
1) апгрейдом с 16-ядерной персоналки на 32-ядерную, который почти ничего не даст;
2) "даунгрейдом" до маленького, лёгкого и дешевого терминала, который даёт те же возможности везде, где есть Сеть;
выбора нет.
Конечно, кому-то могут и персоналки понадобиться, но я говорю о массовой тенденции...
Reply
и мы приходим к краеугольному вопросу: кому надо повышать эту эффективность? :-)
Reply
(The comment has been removed)
Стоп. Как я понял из статьи в педовикии, алгоритм Нейгла сужает требуемую полосу за счет увеличения латентности.
А теперь постарайся объяснить, каким боком увеличивающий пинг алгоритм решает проблему и без того большого пинга! :-D
Нужно просто по-умному писать сетевое взаимодействие.
В качестве примера того, как "мы все сделаем в облаке и отдадим готовое тонкому клиенту", WoW еще смешнее, чем Google Mail :-)
Параллельте каналы! Если недостаточно - параллельте ещё.:-)
А я и не утверждаю, что это невозможно.
Но не по $20/месяц за безлимит ;-)
Reply
Leave a comment