АРМАДА
Пароль на страницу через .htaccess
На страницу 1, 2  След.
Новая тема Написать ответ Advanced Hosters - профессиональный хостинг

AlexGr
Свой
Зарегистрирован: 12.10.2014
Сообщений: 32
Обратиться по нику
# Добавлено:Вс Окт 12, 2014 3:04 pmДобавить в избранноеОтветить с цитатой
Здравствуйте.
Никак не могу понять как поставить пароль на html страницу.
Сайт сделан в Adobe Muse. На данный момент есть три страницы, одну из которых надо запаролить.
Все три страницы располагаются в основной директории сайта, то есть нету никаких папок(директорий) с вложенными страницами.
На страницу alexgr.html надо поставить пароль.

Мои действия:

1. создал файл .htaccess
с содержимым
Код:
<Files alexgr.html?gt;
AuthType Basic
AuthName "Thats protected Area!"
AuthUserFile /.htpasswd
Require valid-user
</Files>



2. создал файл .htpasswd
с содержимым
Код:
admin:123



В результате при попытке открыть страницу http://имясайта/alexgr.html выскакивает окно с просьбой ввести логин и пароль.
Я ввожу логин admin, пароль 123, но страница не открывается, снова появляется это окно. Такое ощущение что пароль не верный или что-то еще.

exolon
V.I.P.
Зарегистрирован: 22.11.2007
Сообщений: 2397
Обратиться по нику
# Добавлено:Вс Окт 12, 2014 3:12 pmОтветить с цитатой
Пароль в файл пишут не в открытом виде 123, а его хэш.
Попробуй этот генератор

http://www.htaccesstools.com/htpasswd-generator/

AlexGr
Свой
Зарегистрирован: 12.10.2014
Сообщений: 32
Обратиться по нику
# Добавлено:Вс Окт 12, 2014 3:15 pmОтветить с цитатой
Пробовал этот генератор и несколько других.
Вместо 123 вставлял сгенерированный $apr1$85MQW6QD$6fRMqJCcTJaHQ4zhnrLMl0
Но результат в итоге тот же.

exolon
V.I.P.
Зарегистрирован: 22.11.2007
Сообщений: 2397
Обратиться по нику
# Добавлено:Вс Окт 12, 2014 6:11 pmОтветить с цитатой
Попробуй тогда вот этот:
https://htmlweb.ru/service/htpasswd.php

Поиграйся с типом хэша: MD5, crypt, SHA
И с путем к файлу .htpasswd - укажи полный путь от корня.

AlexGr
Свой
Зарегистрирован: 12.10.2014
Сообщений: 32
Обратиться по нику
# Добавлено:Вс Окт 12, 2014 10:10 pmОтветить с цитатой
Голова уже кругом. Перепробовал все что можно перепробовать и с путями и с хэшами.
Ерунда какая-то. Ничего не получается(

Вообще моя изначальная цель была спрятать от любопытных файл роботс.
Что бы никто не видел какие страницы я прячу на сайте. Вот я и решил не прятать робот,
а поставить пароль на страницу. Мне так же посоветовали удалить вообще роботс файл,
и страницы которые нужны для индексации записать в ситемап. Только вот не знаю
правильно это будет или нет.

exolon
V.I.P.
Зарегистрирован: 22.11.2007
Сообщений: 2397
Обратиться по нику
# Добавлено:Вс Окт 12, 2014 11:08 pmОтветить с цитатой
Если ты поставишь basic авторизацию на robots, то он станет недоступен для роботов яндекса и гугла. Тогда нет смысле его вообще создавать. Ведь роботы поисковых систем не смогут его получить. Для них он не будет существовать.

Glueon +
Свой
Зарегистрирован: 26.08.2014
Сообщений: 57
Обратиться по нику
# Добавлено:Пн Окт 13, 2014 12:22 pmОтветить с цитатой
Не нужно скрывать robots.txt. Скрывайте тот контент, который не хотите индексировать. Для этого можно держать все в директории /private/ и уже на нее ставит запрет индексации:
Код:
User-Agent: *
Disallow: /private/


Это проще и эффективнее, чем собирать в robots все пути.
ContactRoot: админим и кодим.

AlexGr
Свой
Зарегистрирован: 12.10.2014
Сообщений: 32
Обратиться по нику
# Добавлено:Пн Окт 13, 2014 12:37 pmОтветить с цитатой
Glueon писал(а):
.. /private/..


Вы правы, как вариант можно делать так. Но тут есть один нюанс. Как я писал выше, делаю сайт в Adobe Muse, который напрочь отказывается создавать директории самостоятельно. Поэтому я и спрашивал выше - если совсем удалить роботс файл, и все страницы которые мне нужны для индексации прописать в сайтмап(в Adobe Muse это реализовывается очень просто и удобно). Роботы в таком случае будут действовать как? Они будут понимать, что им нужно обращать внимание на сайтмап, а не на роботс файл которого вовсе нет? Вот мой сайтмап
http://alexgrachev.ru/sitemap.xml

exolon
V.I.P.
Зарегистрирован: 22.11.2007
Сообщений: 2397
Обратиться по нику
# Добавлено:Пн Окт 13, 2014 2:12 pmОтветить с цитатой
Sitemap указывает какие страницы нужно индексировать. Но он не указывает страницы, которые не нужно индексировать.

Роботы понимают это так: если страницы нет в sitemap, это еще не значит, что ее нельзя индексировать.

PS. покажи супер-заголовки Smile

AlexGr
Свой
Зарегистрирован: 12.10.2014
Сообщений: 32
Обратиться по нику
# Добавлено:Пн Окт 13, 2014 3:55 pmОтветить с цитатой
Правильно.
Но если роботу не показывать то что ему не надо индексировать, так он и не будет этого делать, просто не будет знать о таких страницах.
В сайтмап указать конкретно что я хочу что бы было проиндексировано. Не показывать остальные страницы - робот и не будет о них знать.
Или я опять мимо?)

exolon
V.I.P.
Зарегистрирован: 22.11.2007
Сообщений: 2397
Обратиться по нику
# Добавлено:Пн Окт 13, 2014 4:31 pmОтветить с цитатой
Не очень надежный метод. Даже если ты не сослешься на эту страница с других страниц сата Яндекс (как и гугл) найдут способы найти эту страницу.

Яндекс индексирует все что плохо лежит

Варианты:
1. На другом сайте появится ссылка на страницу.
2. Пользователь получает ссылку по почте.
3. На странице стоит Яндекс метрика.
4. Пользователь заходит с Яндекс.Браузера или в браузере установлены элементы яндекса.
и т.д.

AlexGr
Свой
Зарегистрирован: 12.10.2014
Сообщений: 32
Обратиться по нику
# Добавлено:Пн Окт 13, 2014 4:34 pmОтветить с цитатой
Значит оптимальный вариант это:
Glueon писал(а):
Не нужно скрывать robots.txt. Скрывайте тот контент, который не хотите индексировать. Для этого можно держать все в директории /private/ и уже на нее ставит запрет индексации:
Код:
User-Agent: *
Disallow: /private/


Это проще и эффективнее, чем собирать в robots все пути.


exolon
V.I.P.
Зарегистрирован: 22.11.2007
Сообщений: 2397
Обратиться по нику
# Добавлено:Пн Окт 13, 2014 4:38 pmОтветить с цитатой
AlexGr, да.

Особо любопытные посмотрят в robots.txt и узнают, что есть такая папка с секретами Smile Но точное имя секретных файлов они узнать не смогут Smile

Если muse не дает делать папки, то попробуй, например, отдавать секретные пдф с заголовками с поддомена files.site.ru. А в корне поддомена robots.txt c Disallow: /

AlexGr
Свой
Зарегистрирован: 12.10.2014
Сообщений: 32
Обратиться по нику
# Добавлено:Пн Окт 13, 2014 5:12 pmОтветить с цитатой
Если я пропишу в роботс вот эту одну строку
Код:
Disallow: /


То сайт(поддомен) не будет индексироваться полностью(директории файлы)?

exolon
V.I.P.
Зарегистрирован: 22.11.2007
Сообщений: 2397
Обратиться по нику
# Добавлено:Пн Окт 13, 2014 5:24 pmОтветить с цитатой
Да. 2 строчки.

Код:
User-agent: *
Disallow: /

Новая тема Написать ответ    ГЛАВНАЯ ~ ТЕХНИЧЕСКИЕ ВОПРОСЫ

Перейти:  





Генеральный спонсор



Партнеры