Разбогатеет та команда программистов, которые придумают, как эффективно делать website updates tracking. То есть поиск обновлений на своих любимых сайтах
( Read more... )
за это платили бы люди, ищущие работу, специалисты в разных областях (патенты, ученые, журналисты-эксперты) и так далее. Например, как ученому, мне было бы интересно следить за всеми появляющимися публикацими, касающимися белка тирозин-киназа Src - поставить тракер-сервис на автопоиск и просто проверять гугл-ридер или емейл на предмет обновлений
Реализация такой фигни - дело довольно простое. Непростое дело - это реализания этой фигни для _произвольного_ сайта. И совсем непростое дело - трекинг меняющегося формата сайта - фактически ручная работа. Не вижу, как эту работу можно автоматизировать, ибо формат сайта меняется людьми-дизайнерами и прочими к ним приближенными.
Соотвественно, затраты на поддержание оного сервиса непомерно велики по отношению к тому, что смогут платить подписчики. Проще уж прийти к владельцам контента и тупо предложить приладить к их сайту RSS. Будут и волки сыты, и овцы целы, и вообще это архитектурно более правильное решение.
Не так уж непомерно велики. Человеку, поднаторевшему в регулярных выражениях, будет требоваться минут 30 (а иногда и намного меньше) для одного сайта. Если час работы стоит, скажем, 20 долларов, то можно сделать добавление сайта за 10 долларов.
Проблема не в том, чтобы сделать начальную реализацию, а в том, чтобы ее поддерживать. Что-то где-то слегка поменяли, и вся хрень перестала работать. Получаешь поток злобных писем от клиентов. И так каждый день (если, скажем, у тебя отслеживается сотенка сайтов). А платят клиенты мало, потому что тому, у кого есть деньги, такая штука не слишком-то и нужна.
И еще раз - это архитектурно неправильное решение. Проще договориться с сайтами и сделать им RSS.
slavka: a chto esli sdelat' robota kotoryi by gulial po sitam i klikal na vse postoianno, v tom chisle na obnovlenia - a dal'she - obychnym poiskovikom ... net? (eto esli ia pravil'no vrubaus v to kak rabotaut poiskoviki: chem bol'she klikov - tem luchshe nahodiat)
Робот должен быть настроен на конкретный формат сайта, на уровне html. Чуть что поменялось - зови программера, он будет менять код. А программеру надо платить.
Кроме того, некоторые сайты таких роботов сильно не любят. Помнится, я как-то wget'ом пытался выкачать imdb. Так они мигом это дело обнаружили и отключили всю контору от своего сайта. Оказалось, впрочем, что их базу можно по ftp тупо скачать :)
Я же говорю - нечего плодить уродов. Надо делать архитектурно правильно, а том потом получается такое, как мы имеем сейчас :)
Reply
Reply
Реализация такой фигни - дело довольно простое. Непростое дело - это реализания этой фигни для _произвольного_ сайта. И совсем непростое дело - трекинг меняющегося формата сайта - фактически ручная работа. Не вижу, как эту работу можно автоматизировать, ибо формат сайта меняется людьми-дизайнерами и прочими к ним приближенными.
Соотвественно, затраты на поддержание оного сервиса непомерно велики по отношению к тому, что смогут платить подписчики. Проще уж прийти к владельцам контента и тупо предложить приладить к их сайту RSS. Будут и волки сыты, и овцы целы, и вообще это архитектурно более правильное решение.
Reply
Reply
И еще раз - это архитектурно неправильное решение. Проще договориться с сайтами и сделать им RSS.
Reply
(eto esli ia pravil'no vrubaus v to kak rabotaut poiskoviki: chem bol'she klikov - tem luchshe nahodiat)
Reply
Кроме того, некоторые сайты таких роботов сильно не любят. Помнится, я как-то wget'ом пытался выкачать imdb. Так они мигом это дело обнаружили и отключили всю контору от своего сайта. Оказалось, впрочем, что их базу можно по ftp тупо скачать :)
Я же говорю - нечего плодить уродов. Надо делать архитектурно правильно, а том потом получается такое, как мы имеем сейчас :)
Reply
Reply
Ya kak-to s etim dryukalsya, no v itoge zabil
No navernyaka u tebya est' znakomye, kotorye umeyut eto delat'
Reply
Leave a comment