(Untitled)

Jan 03, 2010 06:10

Разбогатеет та команда программистов, которые придумают, как эффективно делать website updates tracking. То есть поиск обновлений на своих любимых сайтах ( Read more... )

Leave a comment

contik32 January 3 2010, 03:29:01 UTC
А кто за такое будет платить деньги?

Reply

berendenn January 3 2010, 04:11:14 UTC
за это платили бы люди, ищущие работу, специалисты в разных областях (патенты, ученые, журналисты-эксперты) и так далее. Например, как ученому, мне было бы интересно следить за всеми появляющимися публикацими, касающимися белка тирозин-киназа Src - поставить тракер-сервис на автопоиск и просто проверять гугл-ридер или емейл на предмет обновлений

Reply

contik32 January 3 2010, 04:21:03 UTC
И сколько ты за такой сервис согласна платить?

Реализация такой фигни - дело довольно простое. Непростое дело - это реализания этой фигни для _произвольного_ сайта. И совсем непростое дело - трекинг меняющегося формата сайта - фактически ручная работа. Не вижу, как эту работу можно автоматизировать, ибо формат сайта меняется людьми-дизайнерами и прочими к ним приближенными.

Соотвественно, затраты на поддержание оного сервиса непомерно велики по отношению к тому, что смогут платить подписчики. Проще уж прийти к владельцам контента и тупо предложить приладить к их сайту RSS. Будут и волки сыты, и овцы целы, и вообще это архитектурно более правильное решение.

Reply

adrianov January 3 2010, 09:14:43 UTC
Не так уж непомерно велики. Человеку, поднаторевшему в регулярных выражениях, будет требоваться минут 30 (а иногда и намного меньше) для одного сайта. Если час работы стоит, скажем, 20 долларов, то можно сделать добавление сайта за 10 долларов.

Reply

contik32 January 3 2010, 15:09:54 UTC
Проблема не в том, чтобы сделать начальную реализацию, а в том, чтобы ее поддерживать. Что-то где-то слегка поменяли, и вся хрень перестала работать. Получаешь поток злобных писем от клиентов. И так каждый день (если, скажем, у тебя отслеживается сотенка сайтов). А платят клиенты мало, потому что тому, у кого есть деньги, такая штука не слишком-то и нужна.

И еще раз - это архитектурно неправильное решение. Проще договориться с сайтами и сделать им RSS.

Reply

fiesta_sta January 3 2010, 15:55:03 UTC
slavka: a chto esli sdelat' robota kotoryi by gulial po sitam i klikal na vse postoianno, v tom chisle na obnovlenia - a dal'she - obychnym poiskovikom ... net?
(eto esli ia pravil'no vrubaus v to kak rabotaut poiskoviki: chem bol'she klikov - tem luchshe nahodiat)

Reply

contik32 January 3 2010, 16:53:37 UTC
Робот должен быть настроен на конкретный формат сайта, на уровне html. Чуть что поменялось - зови программера, он будет менять код. А программеру надо платить.

Кроме того, некоторые сайты таких роботов сильно не любят. Помнится, я как-то wget'ом пытался выкачать imdb. Так они мигом это дело обнаружили и отключили всю контору от своего сайта. Оказалось, впрочем, что их базу можно по ftp тупо скачать :)

Я же говорю - нечего плодить уродов. Надо делать архитектурно правильно, а том потом получается такое, как мы имеем сейчас :)

Reply

fiesta_sta January 3 2010, 21:18:39 UTC
hehe :)

Reply

kotovski January 3 2010, 17:49:14 UTC
Eto kak-to mozhno sdelat' -- nastroit' RSS feed cherez Web of Knowledge (ili Web of Science, ne pomnyu)

Ya kak-to s etim dryukalsya, no v itoge zabil

No navernyaka u tebya est' znakomye, kotorye umeyut eto delat'

Reply


Leave a comment

Up