opusdei.us 27.07.2016

Анализ сайта opusdei.us

Обновлено 08.08.2016 (UTC +3)
Рейтинг сайта: 0

Поисковые системы

{{isCollapsedanalise?'Открыть':'Закрыть'}}
  • Кол-во зеркал домена: нет
  • Тиц: 0
  • Страниц в индексе Яндекса: 77
    Страниц в индексе поисковой системы Яндекс
  • DMOZ:
    Наличие сайта в Open Directory Project
    нет

Usability

{{isCollapsedusability?'Открыть':'Закрыть'}}
  • Наличие тега viewport: нет
  • Всего изображений:
    Количество кариинок определяется по тегу img
    28
  • Изображений без title или alt:
    Наличие этих атрибутов, при условии что они уникальны и читаемы, может продвинуть ваш сайт например в выдаче Яндекс.Картинок.
    нет
  • Изображений без src:
    картинок без атрибута src
    нет
  • Favicon: нет
  • Наличие Flash-элементов: нет

Оптимизация

{{isCollapsedoptimisation?'Открыть':'Закрыть'}}
  • title:
    Заголовок страницы в браузере. Обязательно должен быть указан. Влияет на ранжирование ключевым образом.
    Opus Dei - Finding God in daily life
  • keywords: нет
  • description: нет

Статистика

{{isCollapsedstatistic?'Открыть':'Закрыть'}}
  • Счетчик тИЦ:
    Если необходимо записывать историю тИЦ вашего сайта, установите счетчик тИЦ - https://teveg.com/counter/
    нет
  • Яндекс.Метрика: нет
  • Google Analytics: есть
  • LiveInternet: нет

Ссылки

{{isCollapsedlink?'Открыть':'Закрыть'}}
  • Кол-во получателей (доменов, на которые ссылается данный хост): 103
  • Кол-во найденных анкоров: 155
  • Кол-во исходящих анкоров: 102
  • Кол-во ссылающихся подсетей: 100
  • iGood доноров (LinkPad): 199350/4641823
  • Кол-во ссылок на домен : 6 135
  • Кол-во доноров (всего): 228

Информация о сервере

{{isCollapsedserver?'Открыть':'Закрыть'}}
  • Статус страницы: 200
  • Страница 404:
    Правильная обработка 404 страницы, поможет избежать дублей в выдаче поисковых систем.
    есть
  • www:
    Доступность сайта с префиксом www. Многие пользователи считают, что без префикса www вход в интернет невозможен.
    есть
  • Доменов на этом ip-адресе:
    Количество доменов используемых на 1 ip-адресе. Значение не влияет на ранжирование.
    нет
  • SSL:
    Наличие ssl-соединения является фактором ранжирования в Google. Для сайтов работающих с персональными данными пользователей: интернет-магазины с онлайн оплатой, сайты с обработкой фамилий и имен, данный сертификат поможет поднять доверие в глазах посетителей, а так же обеспечит безопасность передачи данных.
    нет

Информация о сайте

{{isCollapsedsite?'Открыть':'Закрыть'}}
  • Кодировка: CP1251
  • Реестр запрещенных в России сайтов:
    Проверка блокировки сайта по решению суда, генеральной прокуратуры, Роскомнадзора, Роспотребнадзора, федеральной налоговой службы, Федеральной службы по контролю за оборотом наркотиков (упразднена).
    нет
  • Время загрузки страницы: быстро (0,00 сек.)
  • Размер страницы: 0 кб.

Прочее

{{isCollapsedprochee?'Открыть':'Закрыть'}}
  • robots.txt:
    Обязательно используйте корректный файл robots.txt, это поможет настроить индексирование, решит проблему с зеркалами и избавит от дублей в выдаче поисковых систем.
    User-agent: Orthogaffe
    Disallow: /
    
    User-agent: sqlmap
    Disallow: /
    
    # Crawlers that are kind enough to obey, but which we'd rather not have
    # unless they're feeding search engines.
    User-agent: UbiCrawler
    Disallow: /
    
    User-agent: DOC
    Disallow: /
    
    User-agent: Zao
    Disallow: /
    
    User-agent: Twiceler
    Disallow: /
    
    # Some bots are known to be trouble, particularly those designed to copy
    # entire sites or download them for offline viewing. Please obey robots.txt.
    #
    User-agent: sitecheck.internetseer.com
    Disallow: /
    
    User-agent: Zealbot
    Disallow: /
    
    User-agent: MSIECrawler
    Disallow: /
    
    User-agent: SiteSnagger
    Disallow: /
    
    User-agent: WebStripper
    Disallow: /
    
    User-agent: WebCopier
    Disallow: /
    
    User-agent: Fetch
    Disallow: /
    
    User-agent: Offline Explorer
    Disallow: /
    
    User-agent: Teleport
    Disallow: /
    
    User-agent: TeleportPro
    Disallow: /
    
    User-agent: WebZIP
    Disallow: /
    
    User-agent: linko
    Disallow: /
    
    User-agent: HTTrack
    Disallow: /
    
    User-agent: Microsoft.URL.Control
    Disallow: /
    
    User-agent: Xenu
    Disallow: /
    
    User-agent: larbin
    Disallow: /
    
    User-agent: libwww
    Disallow: /
    
    User-agent: ZyBORG
    Disallow: /
    
    User-agent: Download Ninja
    Disallow: /
    
    User-agent: Nutch
    Disallow: /
    
    User-agent: spock
    Disallow: /
    
    User-agent: OmniExplorer_Bot
    Disallow: /
    
    User-agent: TurnitinBot
    Disallow: /
    
    User-agent: BecomeBot
    Disallow: /
    
    User-agent: genieBot
    Disallow: /
    
    User-agent: dotbot
    Disallow: /
    
    User-agent: MLBot
    Disallow: /
    
    User-agent: 80bot
    Disallow: /
    
    User-agent: Linguee Bot
    Disallow: /
    
    User-agent: aiHitBot
    Disallow: /
    
    User-agent: Exabot
    Disallow: /
    
    User-agent: SBIder/Nutch
    Disallow: /
    
    User-agent: Jyxobot
    Disallow: /
    
    User-agent: mAgent
    Disallow: /
    
    User-agent: MJ12bot
    Disallow: /
    
    User-agent: Speedy Spider
    Disallow: /
    
    User-agent: ShopWiki
    Disallow: /
    
    User-agent: Huasai
    Disallow: /
    
    User-agent: DataCha0s
    Disallow: /
    
    User-agent: Baiduspider
    Disallow: /
    
    User-agent: Atomic_Email_Hunter
    Disallow: /
    
    User-agent: Mp3Bot
    Disallow: /
    
    User-agent: WinHttp
    Disallow: /
    
    User-agent: betaBot
    Disallow: /
    
    User-agent: core-project
    Disallow: /
    
    User-agent: panscient.com
    Disallow: /
    
    User-agent: Java
    Disallow: /
    
    User-agent: libwww-perl
    Disallow: /
    
    # Sorry, wget in its recursive mode is a frequent problem.
    # Please read the man page and use it properly; there is a
    # --wait option you can use to set the delay between hits,
    # for instance.
    #
    User-agent: wget
    Disallow: /
    
    User-agent: curl
    Disallow: /
    
    #
    # A capture bot, downloads gazillions of pages with no public benefit
    # http://www.webreaper.net/
    User-agent: WebReaper
    Disallow: /
    
    # Poorly behaved Crawlers, some of these ignore
    # robots.txt but...
    #
    # The 'grub' distributed client has been *very* poorly behaved.
    
    User-agent: grub-client
    Disallow: /
    
    User-agent: k2spider
    Disallow: /
    
    User-agent: bingbot
    Disallow: /
    
    User-agent: msnbot
    Disallow: /
    
    # Hits many times per second, not acceptable
    # http://www.nameprotect.com/botinfo.html
    User-agent: NPBot
    Disallow: /
    
    User-agent: *
    Disallow: /tool/
    есть
  • sitemap.xml: есть