» Веб-дизайн>Замучили спамеры в гостевой - оцените фильтр
o.i\# 17:17 05.10.2007
да и этого хватит за глаза, руками спамить гесту с pr0 никто не станет, а автомат на этих вопросах обломается
но страницу с формой парсеры всё равно дёргать будут, чтоб не дёргали можно запретить поисковикам индексирование конкретно страницы с гостевой через Robots.txt
[Ответ]
svga 20:36 05.10.2007
гадят в гостевую - значит любят =)
А и правда - каким неучам нулевой пэйджранк понадобился? Я боюсь, что такие недоспаммеры не умеют смотреть что в роботсах написано и запрет на индексацию не поможет.
Раз уж так не хочется постоянно чистить - сделайте премодерацию сообщений - и как бабушка пошепчет.
И нефиг всякую лабуду и вопросами придумывать - если не полный автомат, а есть минимальное участие человека, то капча-вопросы моментально пробиваются. А с премодерацией смысл теряется..
[Ответ]
svga 20:40 05.10.2007
+еще: папку с гостевухой из "gb" переименуйте в "vash_otziv" или еще как что-ли, а то слишком название для сбора по признакам жирненькое.
[Ответ]
Mark5 18:42 06.10.2007
1. мне думается, что написать робота который будет смотреть роботс.тхт и заходить на эти страницы которые владелец сайта запретил в нем (интересно почему?) - дело плёвое и как раз этот запрет явно указывает куда надо посмотреть
2. робот вряд ли собирает инфу по УРЛ, скорее всего пробегает по сайту в поисках форм и найдя их запоминает (потом либо на атомате происходит заспамливание, если поля формы называются достаточно стандартно - типа email, message/text, name и т.п., либо после некоторой ручной настройки)
3. я уж сказал что премодерация есть, но надо ведь руками разгр***** все сообщения, удаляя спам и добавляя нормальные отзывы посетителей, поэтому и была добавлена капча.
[Ответ]
Mark5 18:50 06.10.2007
4. кстати, эффект от такой простой капчи - 100% это радует.
[Ответ]
o.i\# 19:10 06.10.2007
блин, robots.txt не для спамеров, а для поисковиков - если гостевухи не будет в индексе, спамеры урл на её не найдут просто
а пока она в индексе - она будет находиться по запросам типа:
inurl:gb "Добавить сообщение"
и скачиваться для распознания формы парсером
если не напрягает расходуемый при этом траф и нагрузка на сервер то можно оставить как есть
[Ответ]
Andrei_K 21:19 06.10.2007
простоваты вопросы, надо бы посложнее, например как этот :
Изображения
Сообщение от Mark5:
1. мне думается, что написать робота который будет смотреть роботс.тхт и заходить на эти страницы которые владелец сайта запретил в нем (интересно почему?) - дело плёвое и как раз этот запрет явно указывает куда надо посмотреть
ну м нафига спамерам неиндексирующиеся страницы? не думал? или просто чтобы ты почитал и купил пару центнеров теток и виагры?
Сообщение от Mark5:
2. робот вряд ли собирает инфу по УРЛ, скорее всего пробегает по сайту в поисках форм и найдя их запоминает (потом либо на атомате происходит заспамливание, если поля формы называются достаточно стандартно - типа email, message/text, name и т.п., либо после некоторой ручной настройки)
робот собирает инфу через поисковую систему, в том же Директе посмотри крнкуренцию по "new topic" =) Думаешь это пользователям надо? =)
Сообщение от Mark5:
3. я уж сказал что премодерация есть, но надо ведь руками разгр***** все сообщения, удаляя спам и добавляя нормальные отзывы посетителей, поэтому и была добавлена капча.
думал над тем зачем вообще спамерам сайт с таким рейтингом как junost.ru
ничего не придумал..
думал зачем вообще спамить если книга премодерируемая, тоже мыслей нол т.е. савсем никакой
в спамороботах вообще не разбираюсь потому все мысли из области догадок
как очередная догадка - можно еще зайти через поисковик на любую страницу сайта по целевому запросу (который нужен спамеру) и потом пробежаться по сайту в поисках форм и добавить их в свою спам-базу.
т.е. вариант когда целенаправленно ищутся сразу страницы с гостевухами (который описал svga) - наиболее эффективен, но можно и так как я описал выше.
можно конечно генерить ссылку на гостевую случайно - типа /4rfRR43DFE09tyu/ и каждый раз разную, но я придерживаюсь принципа что интернет все таки для людей а не для роботов [Ответ]
Mark5 08:32 08.10.2007
мда - кстати на роботс.тхт некоторые (если не сказать многие) поисковики кладут.
[Ответ]
svga 10:37 08.10.2007
Сообщение от Mark5:
мда - кстати на роботс.тхт некоторые (если не сказать многие) поисковики кладут.
есть чем доказать подобные заявления?
я вот сейчас по статистике смотрю и вижу - поисковые боты первым делом этот файл запрашивают, а уж потом начинают по сайту лазить.
[Ответ]
DRON-ANARCHY 14:50 08.10.2007
Сообщение от Mark5:
ничего не придумал..
видимо потому что боты... а им все равно. че паук найдет, то и заспамят.
[Ответ]
Mark5 16:19 08.10.2007
Сообщение от svga:
есть чем доказать подобные заявления?
я вот сейчас по статистике смотрю и вижу - поисковые боты первым делом этот файл запрашивают, а уж потом начинают по сайту лазить.
нет.
роботы русских поисковиков в первой десятке популярных - да, начали учитывать этот файл с недавнего времени.
но рунет (а тем более весь интернет) ими не ограничивается.
[Ответ]