Как сделать сайт видимым для роботов?

  • Автор темы Автор темы Ержан
  • Дата начала Дата начала

Ержан

Новичок
Регистрация
06.03.2024
Сообщения
7
Реакции
0
Баллы
1
Добрый день! Подскажите пожалуйста как сделать сайт видимым для роботов поисковых систем?
Сайт написан на react. Можно ли обойтись без node.js или next.js?
 
Можно: поисковые роботы работают лучше всего со статическим HTML-контентом. React сам по себе выполняет рендеринг на стороне клиента, что делает его невидимым для ботов. Вам нужно использовать технологию вроде ReactDOMServer для выполнения рендеринга на сервере и отправки готового HTML роботам.
Или Альтернативой SSR является использование предварительного рендеринга, когда статический HTML генерируется на этапе сборки. Это можно сделать с помощью таких инструментов, как React Snap или Prerender.

Как то так
 
  • Спасибо
Реакции: Ержан
Буду пробовать
Можно: поисковые роботы работают лучше всего со статическим HTML-контентом. React сам по себе выполняет рендеринг на стороне клиента, что делает его невидимым для ботов. Вам нужно использовать технологию вроде ReactDOMServer для выполнения рендеринга на сервере и отправки готового HTML роботам.
Или Альтернативой SSR является использование предварительного рендеринга, когда статический HTML генерируется на этапе сборки. Это можно сделать с помощью таких инструментов, как React Snap или Prerender.

Как то так

Да, спасибо. Как раз сейчас разбираюсь над тем, как вести работу с ReactDOMServer. Если ничего не выйдет и работы станет больше, тогда придется все таки использовать в next.js.
 
Чтобы сайт на React был заметен поисковыми системами, используй статический генератор сайтов, например, Gatsby. Он позволяет заранее преобразовывать страницы в статический HTML, что делает их индексируемыми, тогда тебе не нужен Node.js или Next.js. Надо организовать HTML-структуру, добавить соответствующие заголовки, мета-теги и семантическую разметку и создать URL-адреса с помощью React Router. Потом настроить файл robots.txt, иначе не разрешить индексацию важных страниц, и создать карту сайта для сканирования контента поисковыми системами.
 
  • Спасибо
Реакции: Ержан
Чтобы сайт на React был заметен поисковыми системами, используй статический генератор сайтов, например, Gatsby. Он позволяет заранее преобразовывать страницы в статический HTML, что делает их индексируемыми, тогда тебе не нужен Node.js или Next.js. Надо организовать HTML-структуру, добавить соответствующие заголовки, мета-теги и семантическую разметку и создать URL-адреса с помощью React Router. Потом настроить файл robots.txt, иначе не разрешить индексацию важных страниц, и создать карту сайта для сканирования контента поисковыми системами.
Работа у меня затянулась порядком. Спасибо за своевременный совет.
 
Обычно это делается с помощью серверного рендеринга. Если не хотите использовать Node.js или Next.js, тогда пререндеринг – лучший вариант.
 
Можно: поисковые роботы работают лучше всего со статическим HTML-контентом. React сам по себе выполняет рендеринг на стороне клиента, что делает его невидимым для ботов. Вам нужно использовать технологию вроде ReactDOMServer для выполнения рендеринга на сервере и отправки готового HTML роботам.
Или Альтернативой SSR является использование предварительного рендеринга, когда статический HTML генерируется на этапе сборки. Это можно сделать с помощью таких инструментов, как React Snap или Prerender.

Как то так
Спасибо за рекомендацию! Пробовали рендертрон, но из-за объемного сайта, работал с перебоями. Неделю индексирует хорошо, начинает показываться в поисковых системах, потом возникает ошибка при индексации, а именно не полностью считывается информация. Сейчас добавляем некст. Пока еще работы много
 

Кто просматривает тему: (Всего: 0, Пользователи: 0, Гости: 0)