Перейти к содержимому


× Быстрый вопрос
Пользователь месяца
Андрей WPM Андрей WPM 1-й за Июль
Очков активности: 2 142 4 темы, 90 сообщений, 14 баллов репутации
Сайт: wpmaster.kz
ТОП самых активных за этот месяц
  • Фотография Rodiola
    #1

    Rodiola (rukodelkovo.ru)
    Очков активности: 802.5 3 темы, 98 сообщений, 5 баллов репутации

  • Фотография maxnik
    #2

    maxnik (konovalovpavel.ru)
    Очков активности: 378 0 тем, 42 сообщения, 6 баллов репутации

  • Фотография Андрей WPM
    #3

    Андрей WPM (wpmaster.kz)
    Очков активности: 150 Вне конкурса за определение пользователя месяца

  • Фотография IxMaster
    #4

    IxMaster (site.ru)
    Очков активности: 139.5 3 темы, 22 сообщения, 3 балла репутации

  • Фотография lena220678
    #5

    lena220678
    Очков активности: 108 4 темы, 24 сообщения, 2 балла репутации

  • Фотография Megoydagi
    #6

    Megoydagi (24ho.ru)
    Очков активности: 93 5 тем, 16 сообщений, 2 балла репутации

  • Фотография annabum
    #7

    annabum
    Очков активности: 75 2 темы, 19 сообщений, 2 балла репутации

  • Фотография Vmir
    #8

    Vmir
    Очков активности: 57 Вне конкурса за определение пользователя месяца

  • Фотография FIvYUr
    #9

    FIvYUr (moy-evroopt.ru)
    Очков активности: 36 0 тем, 8 сообщений, 3 балла репутации

  • Фотография Constantine
    #10

    Constantine (constantine.video.blog)
    Очков активности: 31.5 3 темы, 12 сообщений, 1 балл репутации

  • Показать весь ТОП 10
Поддержите форум! =)
Апдейты
  • Яндекс ИКС: 30.07.2019
  • Яндекс выдача: 23.08.2019
Топ 5 участников по репутации


Оптимизация сайта для мобильных устройств под Google

#1 lena220678

lena220678
  • Пользователь
  • 74 сообщений
  • Репутация: 3
0

Отправлено 16 Июль 2019 - 20:45

Яндекс считает, что мой сайт оптимизирован для мобильных устройств, а гугл утверждает, что нет (см. скрины). 

Реально страницы моего сайта выглядят на мобильнике вполне прилично. Но как убедить в этом гугл?

 

Прикрепленные изображения

  • 10.png
  • 11.png

 

 

  • 0

#2 BLIK

BLIK
  • Супермодератор
  • 4 475 сообщений
  • Репутация: 1016

Отправлено 16 Июль 2019 - 21:59

@lena220678,Можете шрифт сделать например больше, если ему мало. И в целом посмотрите, на какие страницы он ругается и что не нравится.


  • 0

Качественный хостинг   Тут может быть ваша ссылка.



#3 Андрей WPM

Андрей WPM
  • Пользователь
  • 844 сообщений
  • Репутация: 115

Отправлено 16 Июль 2019 - 22:50

@lena220678, по моему минимальный размер шрифта который гугл хавает это 14px или 16px, точно не помню. У вас явно пикселей 10 от силы.

 

Интерактивные элементы это близко расположенные ссылки. Гугл требует чтобы обычный человек, мог спокойно нажать на ссылки и при этом не промахнуться. У вас честно говоря это сделать трудно, хотя у меня пальцы тоненькие, не представляю как люди с большими руками будут юзать ваш сайт.

 

Резюме: Нужно увеличить весь шрифт на мобильной версии и разъединить ссылки хотя бы свойством пэддинг.

 

Ааааа! Ну и самая грубая ошибка у Вас это robots.txt. Закрыто всё что отвечает за адаптивность. Не удивительно, что гугл это не одобряет.

 

Сейчас нельзя закрывать уже то, что закрывали несколько лет назад. 

 

Сохраненное изображение 2019-7-17_1-44-19.981.jpg

 

Советую почитать статейку про robots.txt. Вы закрыли доступ к файлам стилей, поэтому Гугл и ругается. Сейчас Гугл видит ваш сайт вот так:

 

Сохраненное изображение 2019-7-17_1-47-45.231.jpg

 

Отсюда и на ссылки ругается, что они близко друг к другу. И шрифт без уточнения размеров. Короче, одно из другого вытекает.


Сообщение отредактировал Андрей WPMasterKZ: 16 Июль 2019 - 22:50

  • 0


#4 lena220678

lena220678
    Topic Starter
  • Пользователь
  • 74 сообщений
  • Репутация: 3

Отправлено 16 Июль 2019 - 22:55

@Андрей WPMasterKZ, у меня, вроде тема с адаптивным дизайном, т.е я не задаю параметры отдельно для основной версии сайта, отдельно для мобильной. Если их настройки можно разделить, подскажите как.

разъединить ссылки хотя бы свойством пэддинг
- это для меня вообще китайская грамота. Нужно объяснение на уровне чайника, плиз... 

  • 0

#5 Андрей WPM

Андрей WPM
  • Пользователь
  • 844 сообщений
  • Репутация: 115

Отправлено 16 Июль 2019 - 23:08

@lena220678, вам бы сначала с роботсом разобраться. Что бы вы сейчас не сделали со стилями, гугл их не увидит. Но всё же подскажу:

 

Открываете файл style.css в корне вашей темы по пути wp-content > themes > название_темы.

Вставляете в самом конце вот такой код:

@media (max-width: 767px){
article{
font-size:120%;
}
}

С процентами поиграться придется, не знаю как у вас базовый размер прописан.

Этот стиль сработает только на планшетах и телефонах. Если не сработает, то попробуйте поставить после % но перед точкой с запятой !important.

 

С ссылками всё гораздо сложнее будет, сначала надо будет Гуглу показать эти стили (удалить из файла роботс запреты). Подождать пока он пару страниц переиндексирует и увидеть что он покажет, тогда уже и с ссылками заморачиваться.


  • 0


#6 web-coder

web-coder
  • Пользователь
  • 118 сообщений
  • Репутация: 19

Отправлено 17 Июль 2019 - 00:33

@lena220678, @Андрей WPMasterKZ,  

Расстояние между заголовком и строкой ссылок слишком маленькое (даже на десктопной версии). А заголовок, кстати, тоже ссылка.

Нужно добавить в конец css файла

.entry-title {
  margin: 5px 0 10px;
}
.entry-byline{
  margin-bottom: 10px;
}
.single-view .entry-byline {
  margin-bottom: 15px;
}

  • 0

#7 lena220678

lena220678
    Topic Starter
  • Пользователь
  • 74 сообщений
  • Репутация: 3

Отправлено 17 Июль 2019 - 14:36

@Андрей WPMasterKZ, мой robots.txt был создан 4 года назад и то в ходе тренинга, а не самостоятельно. Не удивительно, что он безнадежно устарел. 

 

Статью Вашу я прочитала внимательно, но вопросов у меня от этого не поубавилось.

 

Заменить "портянку" на Ваш образец, конечно, не сложно, но перед этим  "нужно настроить закрытие не нужных страниц тегом robots". А это уже вызывает трудности, мне в этой теме еще разбираться и разбираться. 

 

Если править файл точечно, то тоже не понятно, что именно надо убирать. Никаких "js и css" я у себя не обнаружила. Приложу свой robots.txt, может подскажите, какие строчки в нем отвечают за закрытие стилей и скриптов. И что еще можно убрать сразу и абсолютно безболезненно?

 

Прикрепленные файлы

  • Прикрепленный файл  robots new.txt   1000байт   Количество загрузок: 3

  • 0

#8 Андрей WPM

Андрей WPM
  • Пользователь
  • 844 сообщений
  • Репутация: 115

Отправлено 17 Июль 2019 - 14:54

Заменить "портянку" на Ваш образец, конечно, не сложно, но перед этим  "нужно настроить закрытие не нужных страниц тегом robots". А это уже вызывает трудности, мне в этой теме еще разбираться и разбираться.
 

Понял вас.

 

Никаких "js и css" я у себя не обнаружила. Приложу свой robots.txt, может подскажите, какие строчки в нем отвечают за закрытие стилей и скриптов.
 

Все директории wp-... нужно убрать с файла.

 

Disallow: /wp-login.php
Disallow: /wp-register.php

Эти директории не имеет смысла закрывать, потому-что ВП им автоматически проставляет тег роботс.

 

Disallow: /feed/

Disallow: */*/feed/*/
Disallow: */feed

Никогда не будут индексироваться поисковиками. Фидов нет в поиске, значит они не будут конкурировать с вашими статьями.

 

Disallow: /wp-admin
Disallow: /wp-includes

Это технические страницы ВП, к которым не имеют доступа не авторизованные пользователи, в том числе и краулер поисковиков.

 

Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes

Вот эти директории как раз и отвечают за js и css файлы вашего сайта.

 

Disallow: /trackback

Disallow: */trackback
Disallow: */*/trackback

Это добро отключается в настройках вордпресс - Настройки > Обсуждение > Снять галочки с первых двух пунктов.

 

Disallow: */comments
Disallow: /category/*/*

Disallow: /*?*
Disallow: /?s=

Тут на ваше усмотрение, зависит от индивидуальных требований.

 

Поотключать ещё больше хлама плагином Clearfy Pro или бесплатным его аналогом.


  • 0


#9 lena220678

lena220678
    Topic Starter
  • Пользователь
  • 74 сообщений
  • Репутация: 3

Отправлено 17 Июль 2019 - 15:39

@Андрей WPMasterKZ, если я все правильно поняла, мой robots.txt будет вполне прилично выглядеть следующим образом:
 
User-agent: *
Disallow: /cgi-bin
Disallow: */comments
Disallow: /category/*/*
Disallow: /*?*
Disallow: /?s=
 
User-agent: Yandex
Disallow: /cgi-bin
Disallow: */comments
Disallow: /category/*/*
Disallow: /*?*
Disallow: /?s=
 
 
При этом ко мне не относится фраза "нужно настроить закрытие не нужных страниц тегом robots"?
 
Вы ничего не сказали про строку: 
Disallow: /cgi-bin
Что это за зверь и нужен ли?
 
Нужна ли мне эта строка из Вашего образца:
Disallow: /files ?
 
Также мне нужно убрать эти две галочки (см. скрин)?
 
И какой еще ужасный хлам мне нужно закрывать дополнительным плагином  :blink: ?

Прикрепленные изображения

  • 12.png

  • 0

#10 Андрей WPM

Андрей WPM
  • Пользователь
  • 844 сообщений
  • Репутация: 115

Отправлено 17 Июль 2019 - 15:49

Disallow: /cgi-bin Что это за зверь и нужен ли?

Это серверная директория, вообще не понимаю почему её все вдруг прописывать начали. Может я с серверами не особо, поэтому не понимаю. Для хостинга точно эта директория не нужна.

 

Disallow: /files ?

Это моя личная папка на моём сайте. К вашему она никак не относиться.  :)

 

Также мне нужно убрать эти две галочки (см. скрин)?

Угу!  :)

 

И какой еще ужасный хлам мне нужно закрывать дополнительным плагином

 

Расписывать очень долго. Это нужно понимать принцип работы ВП. Эт я с дуру ляпнул, не подумав. Можете не брать это во внимание.


Сообщение отредактировал Андрей WPMasterKZ: 17 Июль 2019 - 15:51

  • 0


#11 lena220678

lena220678
    Topic Starter
  • Пользователь
  • 74 сообщений
  • Репутация: 3

Отправлено 17 Июль 2019 - 16:02

@Андрей WPMasterKZ, т.е. Disallow: /cgi-bin  убрать и забыть.

 

Мне в связи с вносимыми изменениями не нужно закрывать какие-то страницы тегом robots".

 

Теперь я устанавливаю обновленный robots.txt и жду как отреагирует Гугл в плане оптимизации для мобильных устройств.

 

Все верно?


  • 0

#12 Андрей WPM

Андрей WPM
  • Пользователь
  • 844 сообщений
  • Репутация: 115

Отправлено 17 Июль 2019 - 16:07

т.е. Disallow: /cgi-bin  убрать и забыть.

Да.

 

Мне в связи с вносимыми изменениями не нужно закрывать какие-то страницы тегом robots".

Нет, в роботсе пользовательских страниц не было. За исключением /comments и  /category/*/* это явно пользовательская настройка.

 

Теперь я устанавливаю обновленный robots.txt и жду как отреагирует Гугл в плане оптимизации для мобильных устройств.   Все верно?

 

Да, только директиву отдельно для Яндекса тоже можно удалить полностью, он не тупой, поймёт и общие правила. 


  • 0


#13 lena220678

lena220678
    Topic Starter
  • Пользователь
  • 74 сообщений
  • Репутация: 3

Отправлено 17 Июль 2019 - 16:43

User-agent: *
Disallow: /cgi-bin
Disallow: */comments
Disallow: /category/*/*
Disallow: /*?*
Disallow: /?s=
 
 
Так?

  • 0

#14 Андрей WPM

Андрей WPM
  • Пользователь
  • 844 сообщений
  • Репутация: 115

Отправлено 17 Июль 2019 - 16:45

@lena220678, да.


  • 0


#15 Rodiola

Rodiola
  • Пользователь
  • 484 сообщений
  • Репутация: 36

Отправлено 17 Июль 2019 - 19:31

Роботс-то роботсом. Но насколько я правильно поняла, не так давно в Гугле что-то поменялось. Просто у меня вроде как тоже адаптивный шаблон и все везде видно нормально. И Гугл раньше не ругался. А вот недавно все проверила (вот когда решила порядок навести) и приофигела чуток. Гугл пишет: страница адаптирована, но когда заходишь, как видит гугл-бот, то вылазят ошибки. Ошибки, как я понимаю, в стилях. Гугл-бот не может прочитать какие-то из них. 

 

Но прикол даже не в том. Прикол в том, что он мне одну страницу видит нормальной и не показывает никаких ошибок, а другую отображает черти как. Как такое вообще возможно. Я ведь ничего не меняю на каждой странице. Все совершенно одинаково делаю: текст, картинки, все. Так что тоже не знаю, как это понять и что делать, еще с этим не разобралась. Тоже хотела такую тему создать, меня опередили.  :rolleyes:


Сообщение отредактировал Rodiola: 17 Июль 2019 - 19:32

  • 0

#16 Андрей WPM

Андрей WPM
  • Пользователь
  • 844 сообщений
  • Репутация: 115

Отправлено 17 Июль 2019 - 19:39

Прикол в том, что он мне одну страницу видит нормальной и не показывает никаких ошибок, а другую отображает черти как. Как такое вообще возможно. Я ведь ничего не меняю на каждой странице.
 

 

Единственное логичное объяснения этому, в Гугле алгоритмы меняются динамически (то есть не как в Яндексе месячными апами). Вероятно что алгоритм в очередной день апнулся, а переиндексировались не все страницы сайта. Отсюда и разные показатели, на одной странице всё норм, на другой трешняк. За такими наплывами нужно следить, если же долгое время не исчезает ошибка и вы точно уверены что страница уже переиндексировалась, вот тогда нужно искать причину.


  • 0


#17 lena220678

lena220678
    Topic Starter
  • Пользователь
  • 74 сообщений
  • Репутация: 3

Отправлено 17 Июль 2019 - 21:55

@Андрей WPMasterKZ, установила обновленный robots.txt и сразу получила ошибку. Ругаются и гугл и яндекс (см. скрины).

Сделала откат назад и установила версию, которая соответствует моей прежней, но с убранными тремя строками:

Disallow: /wp-content/plugins

Disallow: /wp-content/cache

Disallow: /wp-content/themes

 

Все равно ругается. Что делать?

Прикрепленные изображения

  • 13.png
  • 14.png

  • 0

#18 Андрей WPM

Андрей WPM
  • Пользователь
  • 844 сообщений
  • Репутация: 115

Отправлено 17 Июль 2019 - 22:07

@lena220678, Ну вы же видите на скринах перед user-agent красная точка стоит. Очевидно пробел какой-то поставили перед этим. 

Тут недавно эту ошибку обсуждали по-моему. Ребята bom из файла рекомендовали удалять. Не помню в какой теме. Файл сохраняли как? Каким инструментом?


  • 0


#19 lena220678

lena220678
    Topic Starter
  • Пользователь
  • 74 сообщений
  • Репутация: 3

Отправлено 17 Июль 2019 - 22:25

@Андрей WPMasterKZ, видимо, Вы говорите о моей теме https://www.masterwe...-i-indeksaciei/

Проблема была в переходе с http на https и благополучно разрешилась добавлением "s" в нескольких строчках robots.txt. Никакого лишнего пробела в первой строке не было и ничего непосредственно в первой строке исправлять не пришлось. Сегодняшние исправления в файл внесены аккуратно, только удалены лишние строки, первая не затронута.

Проблема в чем-то другом...


  • 0

#20 Андрей WPM

Андрей WPM
  • Пользователь
  • 844 сообщений
  • Репутация: 115

Отправлено 17 Июль 2019 - 22:33

Проблема была в переходе с http на https и благополучно разрешилась добавлением "s" в нескольких строчках robots.txt. Никакого лишнего пробела в первой строке не было и ничего непосредственно в первой строке исправлять не пришлось.

 

Ну так это же не означает, что проблема не в bomе. Прошлая ошибка это прошлая. Попробуйте заменить свой файл вот этим. 

 

Прикрепленный файл  robots.txt   204байт   Количество загрузок: 6


  • 0


robot

robot
  • Пользователь PRO
  • 2 652 сообщений
  • Репутация: 85


Похожие темы

  Название темы Автор Статистика Последнее сообщение

Оформление форума – IPBSkins.ru