aboutsummaryrefslogtreecommitdiffstats
diff options
context:
space:
mode:
authorkruall <kruall@yandex-team.ru>2022-02-18 17:23:36 +0300
committerkruall <kruall@yandex-team.ru>2022-02-18 17:23:36 +0300
commitaec1f4113b4d3ea39772bbeda19ab4e95454a1df (patch)
tree58ecfc5a4d73edb979561a5e30b0680604c907ac
parent42d1083f5b8457931cd4d0ca5ec1970097adc310 (diff)
downloadydb-aec1f4113b4d3ea39772bbeda19ab4e95454a1df.tar.gz
Add index to maintenance/manual, KIKIMR-13082
ref:d8748c2fefbf46dc37b575b62150aaf785e58416
-rw-r--r--ydb/docs/ru/core/maintenance/embedded_monitoring/hive.md2
-rw-r--r--ydb/docs/ru/core/maintenance/manual/balancing_load.md54
-rw-r--r--ydb/docs/ru/core/maintenance/manual/change_vslot_count.md31
-rw-r--r--ydb/docs/ru/core/maintenance/manual/cluster_expansion.md (renamed from ydb/docs/ru/core/maintenance/manual/cluster_expasion.md)0
-rw-r--r--ydb/docs/ru/core/maintenance/manual/disk_end_space.md (renamed from ydb/docs/ru/core/maintenance/manual/solving_disk_issues.md)36
-rw-r--r--ydb/docs/ru/core/maintenance/manual/failure_model.md22
-rw-r--r--ydb/docs/ru/core/maintenance/manual/index.md26
-rw-r--r--ydb/docs/ru/core/maintenance/manual/moving_vdisks.md2
-rw-r--r--ydb/docs/ru/core/maintenance/toc_i.yaml17
9 files changed, 119 insertions, 71 deletions
diff --git a/ydb/docs/ru/core/maintenance/embedded_monitoring/hive.md b/ydb/docs/ru/core/maintenance/embedded_monitoring/hive.md
new file mode 100644
index 0000000000..e931563254
--- /dev/null
+++ b/ydb/docs/ru/core/maintenance/embedded_monitoring/hive.md
@@ -0,0 +1,2 @@
+# Web-viewer Hive
+
diff --git a/ydb/docs/ru/core/maintenance/manual/balancing_load.md b/ydb/docs/ru/core/maintenance/manual/balancing_load.md
new file mode 100644
index 0000000000..20a0b260d1
--- /dev/null
+++ b/ydb/docs/ru/core/maintenance/manual/balancing_load.md
@@ -0,0 +1,54 @@
+# Балансировка нагрузки на диски
+
+В YDB нагрузку на диски можно распределить двумя способами:
+
+## Распределить нагрузку равномерно по группам
+
+На странице [web-мониторинга хайва](../embedded_monitoring/hive.md), в нижней части экрана есть кнокп "Reassign Groups".
+При нажатии на нее появится окно с параметрамми для балансировки:
+
+* **Storage pool** - пулл групп хранения для балансировки
+* **Storage group** - в случае если не указан предыдущий пункт, можно указать отдельно только одну группу
+* **Type** - тип таблеток для которых будет производиться балансировка
+* **Channels** - диапазон каналов, для которых будет производиться балансировка
+* **Percent** - процент от общего количества каналов таблеток которые переедут в результате балансировки
+* **Inflight** - количество одновременно переезжающих на другие группы таблеток
+
+После указания всех параметров, следует нажать сначала "Query", который покажет количество каналов попавшие под переезде и разблокирует кнопку "Reassign".
+При нажатии которой начнется балансировка.
+
+## Разложить вдиски равномерно по устройствам
+
+В случае, если вдиски расположены на блочных устройствах не равномерно, можно [перевезти их](moving_vdisks.md#moving_vdisk) по одному с перегруженных устройств.
+
+## Изменение количествa слотов для вдисков на пдисках
+
+Для добавления групп хранения требуется переопределить конфиг хоста, увеличив для него количество слотов на дисках.
+
+Перед этим требуется получить изменяемые конфиг, это можно сделать следующей командой:
+
+```proto
+Command {
+ TReadHostConfig{
+ HostConfigId: <host-config-id>
+ }
+}
+```
+
+```
+kikimr -s <ендпоинт> admin bs config invoke --proto-file ReadHostConfig.txt
+```
+
+Требуется вставить полученный конфиг в протобуф ниже и поменять в нем поле **PDiskConfig/ExpectedSlotCount**.
+
+```proto
+Command {
+ TDefineHostConfig {
+ <хост конфиг>
+ }
+}
+```
+
+```
+kikimr -s <ендпоинт> admin bs config invoke --proto-file DefineHostConfig.txt
+```
diff --git a/ydb/docs/ru/core/maintenance/manual/change_vslot_count.md b/ydb/docs/ru/core/maintenance/manual/change_vslot_count.md
deleted file mode 100644
index bbdbd53e2e..0000000000
--- a/ydb/docs/ru/core/maintenance/manual/change_vslot_count.md
+++ /dev/null
@@ -1,31 +0,0 @@
-# Изменение количествa слотов для вдисков на пдисках
-
-Для добавления групп хранения требуется переопределить конфиг хоста, увеличив для него количество слотов на дисках.
-
-Перед этим требуется получить изменяемые конфиг, это можно сделать следующей командой:
-
-```proto
-Command {
- TReadHostConfig{
- HostConfigId: <host-config-id>
- }
-}
-```
-
-```
-kikimr -s <ендпоинт> admin bs config invoke --proto-file ReadHostConfig.txt
-```
-
-Требуется вставить полученный конфиг в протобуф ниже и поменять в нем поле **PDiskConfig/ExpectedSlotCount**.
-
-```proto
-Command {
- TDefineHostConfig {
- <хост конфиг>
- }
-}
-```
-
-```
-kikimr -s <ендпоинт> admin bs config invoke --proto-file DefineHostConfig.txt
-```
diff --git a/ydb/docs/ru/core/maintenance/manual/cluster_expasion.md b/ydb/docs/ru/core/maintenance/manual/cluster_expansion.md
index 67aa10ec28..67aa10ec28 100644
--- a/ydb/docs/ru/core/maintenance/manual/cluster_expasion.md
+++ b/ydb/docs/ru/core/maintenance/manual/cluster_expansion.md
diff --git a/ydb/docs/ru/core/maintenance/manual/solving_disk_issues.md b/ydb/docs/ru/core/maintenance/manual/disk_end_space.md
index 901a242142..152c9a97be 100644
--- a/ydb/docs/ru/core/maintenance/manual/solving_disk_issues.md
+++ b/ydb/docs/ru/core/maintenance/manual/disk_end_space.md
@@ -1,22 +1,10 @@
-## Решение проблем неработоспособности кластера {#cluster_liveness_issues}
-
-### Отказало не более 2 дисков входящих в группу хранения block-4-2{#storage_group_lost_two_disk}
-
-При таком отказе потери данных не происходит, система сохраняет работоспособность, успешно выполняются запросы на чтение и запись. Возможно падение производительности вызванное переносом нагрузки обрабатываемой отказавшими дисками на оставшиеся в строю.
-
-При одновременной недоступности 2 дисков по возможности рекомендуется восстановить работоспособность хотя бы одного из них, либо заменить один диск для начала процесса репликации. Это сохранит пространство для маневра в случае отказа третьего диска до завершения репликации.
-
-### Отказало более 2 дисков входящих в группу хранения block-4-2{#exceeded_the_failure_modele}
-
-Доступность и работоспособность системы может быть нарушена. Необходимо восстановить работоспособность хотя бы одного из дисков без потери хранившихся на нем данных.
-
-## Проблемы с дисковой подсистемой {#storage_issues}
+# Способы освобождения места на физических устройствах
При исчерпании места на дисках база данных может отвечать ошибками на все запросы. Для сохранения работоспособности рекомендуется удалить часть данных или расширить кластер блочными устройствами.
Ниже приведены инструкции которые могут помочь добавить или освободить место на дисках.
-### Дефрагменировать вдиск
+## Дефрагменировать вдиск
В ходе эксплуатации возникает внутренняя фрагментация вдиска. Узнать степень фрагментации можно на странице мониторинга вдиска. Дефрагментация дисков, фрагментированных на 20 и менее процентов не рекомендуется.
@@ -68,22 +56,6 @@
sudo systemctl start kikimr
```
-### Разложить вдиски равномерно по устройствам
-
-В случае, если вдиски расположены на блочных устройствах не равномерно, можно [перевезти их](#moving_vdisks) по одному с перегруженных устройств.
-
-### Распределить нагрузку равномерно по группам
-
-На странице web-мониторинга хайва, в нижней части экрана есть кнокп "Reassign Groups".
-При нажатии на нее появится окно с параметрамми для балансировки:
-
-* **Storage pool** - пулл групп хранения для балансировки
-* **Storage group** - в случае если не указан предыдущий пункт, можно указать отдельно только одну группу
-* **Type** - тип таблеток для которых будет производиться балансировка
-* **Channels** - диапазон каналов, для которых будет производиться балансировка
-* **Percent** - процент от общего количества каналов таблеток которые переедут в результате балансировки
-* **Inflight** - количество одновременно переезжающих на другие группы таблеток
-
-После указания всех параметров, следует нажать сначала "Query", который покажет количество каналов попавшие под переезде и разблокирует кнопку "Reassign".
-При нажатии которой начнется балансировка.
+## Перевоз отдельных дисков с заполненных устройствах
+Если дефрагментация не помогает освободить место на устройстве, то можно [перевозить](moving_vdisks.md#moving_disk) отдельные виртуальные диски.
diff --git a/ydb/docs/ru/core/maintenance/manual/failure_model.md b/ydb/docs/ru/core/maintenance/manual/failure_model.md
new file mode 100644
index 0000000000..f543d1b24f
--- /dev/null
+++ b/ydb/docs/ru/core/maintenance/manual/failure_model.md
@@ -0,0 +1,22 @@
+# Способы предотвращения выхода за модель отказа
+
+**Ссылка на статью в концептах о модели отказа скоро будет**
+
+## Отказал один диск в группе хранения {#storage_group_lost_one_disk}
+
+При включенном SelfHeal данная ситуация счиается штатной. SelfHeal перевезет виртуальный диск за указанное в настройках время, после чего начнется процесс репликации данных на новом физическом диске.
+
+Если же SelfHeal отключен, то перевоз диска потребуется провести вручную. Для это перед перевозом требуется убедиться в отказе **только одного** диска в группе хранения.
+После чего воспользоваться [инструкцией](moving_vdisks.md#removal_from_a_broken_device).
+
+## Отказало более одного диска в одной группе хранения без превышения модели {#storage_group_lost_more_than_one_disk}
+
+При таком отказе потери данных не происходит, система сохраняет работоспособность, успешно выполняются запросы на чтение и запись. Возможно падение производительности вызванное переносом нагрузки обрабатываемой отказавшими дисками на оставшиеся в строю.
+
+При отказе более одного диска в группе SelfHeal перестает перевозить диски. В случае если количество отказавших дисков находится на грани модели отказа, то рекомендуеся восстановить работоспособность хотя бы одного из дисков, прежде чем начинать [перевоз](moving_vdisks.md#removal_from_a_broken_device) виртуальных дисков на новые физические диски. Так же возможно потребуется более осторожно [перевозить диски по одноми](moving_vdisks.md#moving_vdisk).
+
+При одновременной недоступности 2 дисков по возможности рекомендуется восстановить работоспособность хотя бы одного из них, либо заменить один диск для начала процесса репликации. Это сохранит пространство для маневра в случае отказа третьего диска до завершения репликации.
+
+## Отказало более 2 дисков входящих в группу хранения block-4-2{#exceeded_the_failure_modele}
+
+Доступность и работоспособность системы может быть нарушена. Необходимо восстановить работоспособность хотя бы одного из дисков без потери хранившихся на нем данных.
diff --git a/ydb/docs/ru/core/maintenance/manual/index.md b/ydb/docs/ru/core/maintenance/manual/index.md
index 9cf188097f..a136001861 100644
--- a/ydb/docs/ru/core/maintenance/manual/index.md
+++ b/ydb/docs/ru/core/maintenance/manual/index.md
@@ -1,3 +1,27 @@
# Обслуживание дисковой подсистемы кластера
-**WILL BE SOON**
+## Решение проблем неработоспособности кластера
+
+Кластер может быть неработоспособен по ряду причин:
+
+* Возможен [выход за модель отказа](failure_model.md) из-за которого чтение и запись в группу хранения полностью останавливавется.
+
+* Так же не сбалансированная нагрузка на диски может сильно повлиять на летенси обработки запросов. Способы балансироваки написаны в следующей [статье](balancing_load.md).
+
+* Окончание свободного места на нескольких физических дисках тоже может остановить запись, которое можно решить [освобождением места](disk_end_space.md) либо [расширением кластера](cluster_expansion.md) блочными устройствами.
+
+Не санкционированный вывод узлов может повлечь за собой выше описанные проблемы, для предотвращения возможных проблем следует правильно [выводить узлы в обслужнивание](node_restarting.md).
+
+Профилактикой тоже будет служить включение [Scrubbing](scrubbing.md) и [SelfHeal](selfheal.md).
+
+## Изменение конфигурации кластера
+
+Кластер YDB позволяет проводить [расширение](cluster_expansion.md) и [декомиссию](cluster_decomision.md) устройств и узлов.
+
+[Конфигурировать](change_actorsystem_configs.md) акторсистему на нодах.
+
+Изменять конфиги через [CMS](cms.md).
+
+[Добавлять](adding_storage_groups.md) новые группы хранения.
+
+
diff --git a/ydb/docs/ru/core/maintenance/manual/moving_vdisks.md b/ydb/docs/ru/core/maintenance/manual/moving_vdisks.md
index 742cf60e35..83166758c2 100644
--- a/ydb/docs/ru/core/maintenance/manual/moving_vdisks.md
+++ b/ydb/docs/ru/core/maintenance/manual/moving_vdisks.md
@@ -1,4 +1,4 @@
-# Перевоз ВДисков
+# Перевоз виртуальных дисков
## Увезти один вдиск с блочного устройтства {#moving_vdisk}
diff --git a/ydb/docs/ru/core/maintenance/toc_i.yaml b/ydb/docs/ru/core/maintenance/toc_i.yaml
index 1be4a6fcbc..f9897b2815 100644
--- a/ydb/docs/ru/core/maintenance/toc_i.yaml
+++ b/ydb/docs/ru/core/maintenance/toc_i.yaml
@@ -10,6 +10,9 @@ items:
when: false
- name: YDB Monitoring
href: embedded_monitoring/ydb_monitoring.md
+ - name: Hive web-viewera
+ when: audience == "tech"
+ href: embedded_monitoring/hive.md
- name: Обзор соединений
href: embedded_monitoring/interconnect_overview.md
# when: false
@@ -22,23 +25,25 @@ items:
items:
- name: Обзор
href: manual/index.md
+ - name: Способы предотвращения выхода за модель отказа
+ href: manual/failure_model.md
+ - name: Балансировка нагрузки на диски
+ href: manual/balancing_load.md
+ - name: Способы освобождения места на физических устройствах
+ href: manual/disk_end_space.md
- name: Расширение кластера
- href: manual/cluster_expasion.md
+ href: manual/cluster_expansion.md
- name: Декоммиссия узлов и дисков
href: manual/cluster_decomision.md
- name: Добавление групп хранения
href: manual/adding_storage_groups.md
- - name: Изменение количествa слотов для вдисков на пдисках
- href: manual/change_vslot_count.md
- name: Безопасные рестарт и выключение узлов
href: manual/node_restarting.md
- - name: Решение проблем неработоспособности кластера
- href: manual/solving_disk_issues.md
- name: Включение/выключение SelfHeal
href: manual/selfheal.md
- name: Включение/выключение Scrubbing
href: manual/scrubbing.md
- - name: Перевоз ВДисков
+ - name: Перевоз виртуальных дисков
href: manual/moving_vdisks.md
- name: Изменение конфигураций через CMS
href: manual/cms.md