|
|
44px Свой |
Зарегистрирован: 25.02.2010
Сообщений: 3
|
Обратиться по нику
|
44px |
Ответить с цитатой | | |
|
Здравствуйте.
Есть у меня несколько необычный вопрос... =)
(Предисловие. Можно не читать)
Волею судеб в ближайшее время мне нужно будет вооружиться компилятором, взять в зубы отладчик и в итоге написать программу...
Студент я. А у студентов есть такая вещь как курсовые. Задание в этом семестре - написать небольшую информационную систему. В общем, эдакий каталог на несколько десятков записей с разными свойствами и возможностью их всячески сортировать/фильтровать и т.д.
Писать очередной "каталог дисков" или "каталог книг" не хочется (таких студенческих поделок уже тысячи), а вот сделать что-нибудь полезное было бы забавно =)
Сама суть
Собственно, вопрос мой заключается в следующем - нужна ли вам какая-нибудь подобная программа?
Технически для меня главное только то, чтобы у одного объекта набралось 5-7 разных свойств по которым их можно фильтровать и сортировать, и чтобы самих объектов было минимум 30-40.
А так это может быть почти что угодно - какой-то расширенный анализатор статистики Li.ru или какой-нибудь партнерки, или анализатор кейвордов. В общем, если у вас есть идея какой-нибудь подобной софтины, которая была бы вам полезна - высказывайте свои пожелания здесь =)
зы: программа, конечно же, будет фриварной. |
|
|
|
|
|
|
Yabuti V.I.P. |
Зарегистрирован: 28.11.2008
Сообщений: 16263
|
Обратиться по нику
|
Yabuti |
Ответить с цитатой | | |
|
44px, отличная идея!
Если это возможно, то вот такая софтина очень сильно нужна:
Типа, ТЗ :
Название: Анализатор конкуренции поисковой выдачи методом сравнения ключевых конкурентов.
Принцип работы: Программа получает список ключевых слов и по каждому ключевом слову проверяет выдачу поисковой системы (есть выбор между Яндекс и Гугл, остальные не нужны).
По каждому ключевому слову программа составляет аналитический отчет и дает свою "оценку" по сложности вывода в Топ-10 по данному ключевому слову.
Как работает программа - разберем на примере Яндекса:
1) Взяв очередной кейворд из списка исходных данных, программа отправляет его Яндексу. Получив результат (можно добавлять к механизму запроса дополнительные параметры (российская выдача \ региональная), программа копирует в буфер результат Яндекса - например: "Найдено 231 588 страниц по запросу "*******". А также создает временный список из адресов первых 50 сайтов в выдаче (тоже можно настроить глубину - от 3 до 100 адресов).
2) Программа проводит анализ каждого адреса: определяет тИЦ, PR, количество страниц в индексе Яндекса и Гугла, количество внешних ссылок (бэк-линки), наличие в ДМОЗ и Яндекс.Каталог.
3) На основании полученных данных программа вычисляет "рейтинг жирности" сайта (не знаю как сказать это - это сленг, но понятие такое, что нужно определить "крутость", "тяжелость", "массу", репутацию сайта в "глазах" поисковиков, что ли) и присваивает ему от 1 до 10 по такой системе:
1 - Сайт нетематический, в выдаче держится "чудом"
2 - Сайт нетематический, попал в выдачу из-за наличия бэков
3 - Сайт нетематический, в выдаче из-за количества околотематических бэков
4 - Сайт нетематический, в выдаче за счет "сильных" тематических бэков
5 - Сайт нетематический, в выдаче за счет бэков и нескольких ключевиков
6 - Сайт тематический, держится только из-за общей тематики сайта
7 - Сайт тематический, держится только за счет тематики и околотематичных бэков
8 - Сайт тематический, в выдаче из-за тематики, объема тематичного контента и некоторого количества тематичных бэков
9 - Сайт тематический, тематика + возраст + тематичные бэки
10 - Сайт тематический, тематика + возраст + тематичные бэки + постоянное обновление контента.
***
Мое примечание: Критерии, которые я написал - для примера, т.к. для реального анализа нужно почитать положения поисковиков по текущим алгоритмам ранжирования сайтов - для яшки, вроде, АГС-17,30 + "Снежинск", для Гугла - не знаю, наверное, "Флорида" и "Песочница".
***
4) Программа идет в wordstat.yandex.ru и, соответственно заданному параметру "россия\региональная выдача" (как в пункте #1), копирует количество запросов в месяц по кейворду.
Отчет программа выдает в таком виде:
кейворд | средний коэффициент "жирности" конкурентов в Топ-10 | ссылка на окно с коэффициентами на каждый сайт | общее количество страниц в выдаче | количество запросов в WordStat | количество запросов в Google.AdWords.
-------
Можно такую програму сделать?
PS: такую программу можно еще улучшать, например:
усложнить оценку сайта-конкурента - определять "тематичность" его бэков (проверяя сайт, содержащий бэк на место в выдаче по этому же кейворду и его тИЦ, PR), принимая во внимание наличие других ссылок и их количества на странице (линк-помойка\сателлит\белый сайт).
усложнить анализ выдачи WordStat'а - выдавать "перспективность" кейворда - на основе анализа количества запросов в течении года по месяцам, общем количестве запросов, содержащих этот кейворд.
усложнить анализ оценки конкурентов при помощи "списка Шиндлера" - предварительно составив базу по "трастовым", "жирным" сайтам на необходимую тематику (делается вручную 1 раз (при первом запуске или еженедельно) и анализируя попадание этих сайтов из списка в выдачу поисковой системы, а также ссылки с таких сайтов в качестве бэк-линков на сайты, не входящие в список, но находящиеся в поисковой выдаче.
Да много чего еще можно придумать, чтобы облегчить труд оптимизатора.
Если сделаешь такую программу, то, думаю, тебя с руками и ногами возьмут работать к Ашманову |
|
|
|
|
|
Ксен ВПС и выделенные серверы от PQCService.net с бесплатным администрированием в 7 локациях, icq: 87244588
-- |
44px Свой |
Зарегистрирован: 25.02.2010
Сообщений: 3
|
Обратиться по нику
|
44px |
Ответить с цитатой | | |
|
Yabuti, я аж сам захотел такую программу ))
В принципе, я все так и представлял, но кроме анализа сайта. Увы, это отдельная и большая тема и тут нужно больше знаний и ресурсов =) Особенно, если пытаться оценивать релевантность сайта запросу. ИМХО, это все целесообразней делать в форме некоторого веб-сервиса, который может хранить данные в базе, периодически их обновлять и т.д. Тем более, если учитывать алгоритмы поисковиков...
Для десктопной программки (и курсовой - ее же еще надо вовремя сдать =) ) может подойти такой вариант:
"Анализатор поисковых запросов"
1. Программа получает на вход запрос или список запросов.
2. Для каждого запроса выбираются данные - кол-во страниц / кол-во запросов по вордстату / количество запросов в адвордс
3. На каждый запрос из выдачи гугла и яндекса достается список первых 10/20/30 страниц
4. Для каждой из страниц выводятся данные:
URL, тИЦ сайта, PR, количество страниц сайта в индексе Яндекса, в индексе Гугла, количество внешних ссылок (бэк-линки), наличие сайта в ДМОЗ, наличие в Яндекс.Каталог
Можно сделать фильтр по поисковикам: гугл/яндекс/оба. Можно сортировать сайты по их параметрам (правда, я не вижу смысла в такой сортировке - хоть и делать ее надо будет).
В общем, вся сложность в том, что у меня есть некое абстрактное ТЗ на курсовую - какие функции должны быть в программе, и хочется под эти функции придумать как можно более полезную софтину.
Я еще посматривал в сторону ли.ру - у них появились интересные отчеты на основе которых можно сделать что-то хорошее (например, как "Перспектива" Тормоза: brokenbrake.biz/2009/11/16/perspective). Что если расширить ее, добавив к каждому запросу дополнительные данные - количество страниц в выдаче, количество запросов, прогнозируемый прирост посещаемости для анализируемого сайта при выходе в топ 3/5/10...
Если правильно обрабатывать те данные, что дает ли.ру - можно сделать неплохой анализатор перспективных для продвижения ключевиков. Вроде тоже неплохая штука =) |
|
|
|
|
|
|
Soeti Профессионал |
Зарегистрирован: 05.06.2009
Сообщений: 616
|
Обратиться по нику
|
|
|
оо.....какие быстрые машинки!(переходя на Красный) |
Soeti Профессионал |
Зарегистрирован: 05.06.2009
Сообщений: 616
|
Обратиться по нику
|
Soeti |
Ответить с цитатой | | |
|
адамант, такие проги уже существуют. Сеомонитор, кажется, выполняет аналогичное ТЗ |
|
|
|
|
|
оо.....какие быстрые машинки!(переходя на Красный) |
adamant V.I.P. |
Зарегистрирован: 20.03.2008
Сообщений: 11494
|
Обратиться по нику
|
|
|
EvaPharmacy. Чтобы мазать хлеб икоркой, Ева – лучшая партнёрка! Инвайты Jabber: evasupport@jabber.org и ICQ: 750000
Unlimited on 1Gbs port | |
Yabuti V.I.P. |
Зарегистрирован: 28.11.2008
Сообщений: 16263
|
Обратиться по нику
|
|
|
Ксен ВПС и выделенные серверы от PQCService.net с бесплатным администрированием в 7 локациях, icq: 87244588
-- |
|
|
Партнеры
|