aboutsummaryrefslogtreecommitdiffstats
diff options
context:
space:
mode:
authorbazeltsev <bazeltsev@ydb.tech>2023-01-20 13:33:54 +0300
committerbazeltsev <bazeltsev@ydb.tech>2023-01-20 13:33:54 +0300
commit7b19515d3ab24df987624b9011cb5e9630adb8b2 (patch)
tree92247d9421b30a46742733d9f2b1da8c63094951
parent7b2b58f884db5056c37957fc070a64a2bb7ead82 (diff)
downloadydb-7b19515d3ab24df987624b9011cb5e9630adb8b2.tar.gz
Hide ydb dstool revert
updated
-rw-r--r--ydb/docs/presets.yaml1
-rw-r--r--ydb/docs/ru/core/administration/decommissioning.md6
-rw-r--r--ydb/docs/ru/core/maintenance/manual/adding_storage_groups.md38
-rw-r--r--ydb/docs/ru/core/maintenance/manual/balancing_load.md8
-rw-r--r--ydb/docs/ru/core/maintenance/manual/index.md4
-rw-r--r--ydb/docs/ru/core/maintenance/manual/moving_vdisks.md46
-rw-r--r--ydb/docs/ru/core/maintenance/manual/scrubbing.md11
-rw-r--r--ydb/docs/ru/core/maintenance/manual/selfheal.md102
-rw-r--r--ydb/docs/ru/core/maintenance/manual/toc_i.yaml4
9 files changed, 3 insertions, 217 deletions
diff --git a/ydb/docs/presets.yaml b/ydb/docs/presets.yaml
index d282d8ff370..6c160cd8d05 100644
--- a/ydb/docs/presets.yaml
+++ b/ydb/docs/presets.yaml
@@ -13,7 +13,6 @@ default:
feature_group_by_rollup_cube: true
feature_window_functions: true
feature_user_and_group: true
- feature_ydb-tool: false
# feature_logbroker: true
ydb-full-name: YDB
ydb-short-name: YDB
diff --git a/ydb/docs/ru/core/administration/decommissioning.md b/ydb/docs/ru/core/administration/decommissioning.md
index 09fe99c41d1..c3d5ada99fa 100644
--- a/ydb/docs/ru/core/administration/decommissioning.md
+++ b/ydb/docs/ru/core/administration/decommissioning.md
@@ -37,14 +37,10 @@
>
>Описанные шаги повторяются для следующего набора оборудования в ЦОД-1 до тех пор, пока все оборудование не будет перемещено.
-{% if feature_ydb-tool %}
-
Чтобы задать нужное состояние декомиссии диска, можно воспользоваться командой ```ydb-dstool``. Например, следующая команда
```
ydb-dstool.py -e ydb.endpoint pdisk set --decommit-status DECOMMIT_IMMINENT --pdisk-ids "[1:1000]"
```
-задает декомит статутс ```DECOMMIT_IMMINENT``` диску с айди ```1000``` на ноде с айди ```1```.
-
-{% endif %}
+задает декомит статутс ```DECOMMIT_IMMINENT``` диску с айди ```1000``` на ноде с айди ```1```. \ No newline at end of file
diff --git a/ydb/docs/ru/core/maintenance/manual/adding_storage_groups.md b/ydb/docs/ru/core/maintenance/manual/adding_storage_groups.md
index 514e39c1c2e..204c7c5e5fd 100644
--- a/ydb/docs/ru/core/maintenance/manual/adding_storage_groups.md
+++ b/ydb/docs/ru/core/maintenance/manual/adding_storage_groups.md
@@ -1,7 +1,5 @@
# Добавление групп хранения
-{% if feature_ydb-tool %}
-
Добавить новые группы можно с помощью команды ```dstool group add```. Количество новых групп
задается с помощью опции ```--groups```. Например, чтобы добавить 10 групп в пул ```/ydb_pool```,
нужно ввести команду:
@@ -22,39 +20,3 @@ ydb-dstool.py --dry-run -e ydb.endpoint group add --pool-name /ydb_pool --groups
```
Опция ```dry-run``` позволяет, например, оценить какое максимальное число групп можно добавить в пул.
-
-{% else %}
-
-Для добавления групп хранения требуется переопределить конфиг пула в котором требуется расширить.
-
-Перед этим требуется получить конфиг интересуемого пула, это можно сделать следующей командой:
-
-```proto
-Command {
- ReadStoragePool{
- BoxId: <box-id>
- // StoragePoolId: <storage-pool-id>
- Name: <имя пула>
- }
-}
-```
-
-```
-kikimr -s <endpoint> admin bs config invoke --proto-file ReadStoragePool.txt
-```
-
-Требуется вставить полученный конфиг пула в protobuf ниже и поменять в нем поле **NumGroups**.
-
-```proto
-Command {
- DefineStoragePool {
- <конфиг пула>
- }
-}
-```
-
-```
-kikimr -s <endpoint> admin bs config invoke --proto-file DefineStoragePool.txt
-```
-
-{% endif %}
diff --git a/ydb/docs/ru/core/maintenance/manual/balancing_load.md b/ydb/docs/ru/core/maintenance/manual/balancing_load.md
index 2995c4538e4..ccf57bd58b5 100644
--- a/ydb/docs/ru/core/maintenance/manual/balancing_load.md
+++ b/ydb/docs/ru/core/maintenance/manual/balancing_load.md
@@ -8,8 +8,6 @@
## Разложить VDisk'и равномерно по устройствам
-{% if feature_ydb-tool %}
-
Когда VDisk'и расположены на блочных устройствах неравномерно, можно улучшить равноменость двумя способами: ручным и полуавтоматическим.
В ручном случае можно [перевезти VDisk'и](moving_vdisks.md#moving_vdisk) по одному с перегруженных устройств. В полуавтоматическом случае
@@ -21,12 +19,6 @@ ydb-dstool.py -e ydb.endpoint cluster balance
Команда перевозит не более одного VDisk'а за запуск.
-{% else %}
-
-В случае, если VDisk'и расположены на блочных устройствах не равномерно, можно [перевезти их](moving_vdisks.md#moving_vdisk) по одному с перегруженных устройств.
-
-{% endif %}
-
## Изменение количествa слотов для VDisk'ов на PDisk'ах
Для добавления групп хранения требуется переопределить конфиг хоста, увеличив для него количество слотов на PDisk'ах.
diff --git a/ydb/docs/ru/core/maintenance/manual/index.md b/ydb/docs/ru/core/maintenance/manual/index.md
index 129d1521893..09ac03c6e98 100644
--- a/ydb/docs/ru/core/maintenance/manual/index.md
+++ b/ydb/docs/ru/core/maintenance/manual/index.md
@@ -1,11 +1,7 @@
# Обслуживание дисковой подсистемы кластера
-{% if feature_ydb-tool %}
-
Управлять дисковой подсистемой кластера помогает утилита [ydb-dstool.py](ydb-dstool.md).
-{% endif %}
-
## Решение проблем неработоспособности кластера
Кластер может быть неработоспособен по ряду причин:
diff --git a/ydb/docs/ru/core/maintenance/manual/moving_vdisks.md b/ydb/docs/ru/core/maintenance/manual/moving_vdisks.md
index a55c3fccecb..5e388b3515f 100644
--- a/ydb/docs/ru/core/maintenance/manual/moving_vdisks.md
+++ b/ydb/docs/ru/core/maintenance/manual/moving_vdisks.md
@@ -1,7 +1,5 @@
# Перевоз VDisk'ов
-{% if feature_ydb-tool %}
-
## Увезти один из VDisk'ов с блочного устройства {#moving_vdisk}
Для того чтобы перевезти VDisk'и с блочного устройства, надо зайти на узел по ssh и выполнить следующую команду.
@@ -57,47 +55,3 @@ ydb-dstool.py -e ydb.endpoint vdisk list --format tsv --columns VDiskId --no-hea
```bash
ydb-dstool.py -e ydb.endpoint pdisk set --status ACTIVE --pdisk-ids "[NodeId:PDiskId]"
```
-
-{% else %}
-
-## Увезти один из VDisk'ов с блочного устройства {#moving_vdisk}
-
-Для того чтобы перевезти VDisk'и с блочного устройства, надо зайти на узел по ssh и выполнить следующую команду.
-
-```bash
-kikimr admin bs config invoke --proto 'Command { ReassignGroupDisk { GroupId: <ID группы хранения> GroupGeneration: <Поколение группы хранения> FailRealmIdx: <FailRealm> FailDomainIdx: <FailDomain> VDiskIdx: <Номер слота> } }'
-```
-
-Нужную информацию для выполнения команды можно посмотреть во вьювере (ссылка).
-
-## Перевезти VDisk'и со сломанного/отсутствующего устройства {#removal_from_a_broken_device}
-
-В случае если SelfHeal выключен или не перевозит VDisk'и, данную операцию придется выполнить вручную.
-
-1. Убедиться в мониторинге, что VDisk действительно в нерабочем состоянии.
-
- Записать fqdn узла, ic-port, путь до VDisk'а, pdisk-id
-
-2. Зайти на любой узел кластера
-
-3. Выполнить перевоз VDisk'а
-
- ```bash
- kikimr admin bs config invoke --proto 'Command { UpdateDriveStatus { HostKey: { Fqdn: "<host>" IcPort: <ic-port>} Path: "<Путь до партлейбла устройства>" PDiskId: <pdisk-id> Status: BROKEN } }'
- ```
-
-## Вернуть PDisk после развоза {#return_a_device_to_work}
-
-1. Убедиться в мониторинге, что PDisk в рабочем состоянии
-
- Записать fqdn узла, ic-port, путь до устройства, pdisk-id
-
-2. Зайти на любой узел кластера
-
-3. Вернуть PDisk
-
- ```bash
- kikimr admin bs config invoke --proto 'Command { UpdateDriveStatus { HostKey: { Fqdn: "<host>" IcPort: <ic-port>} Path: "<Путь до партлейбла устройства>" PDiskId: <pdisk-id> Status: ACTIVE } }'
- ```
-
-{% endif %}
diff --git a/ydb/docs/ru/core/maintenance/manual/scrubbing.md b/ydb/docs/ru/core/maintenance/manual/scrubbing.md
index f34223e6ebb..bc42548a11f 100644
--- a/ydb/docs/ru/core/maintenance/manual/scrubbing.md
+++ b/ydb/docs/ru/core/maintenance/manual/scrubbing.md
@@ -1,7 +1,5 @@
# Включение/выключение Scrubbing
-{% if feature_ydb-tool %}
-
Scrubbing процесс работает на кластере в бэкграунде. Он читает данные, проверяет их на целостность и, если нужно, востанавливает их целостность. Scrubbing работает циклами. У пользователя есть возможность регулировать интервал времени, который проходит от начала предыдущего цикла диска до начала следующего. Например, чтобы задать интервал равный 48 часам, введите команду:
```
@@ -19,12 +17,3 @@ ydb-dstool.py -e ydb.endpoint cluster set --scrub-periodicity disable
```
ydb-dstool.py -e ydb.endpoint cluster set --max-scrubbed-disks-at-once
```
-
-{% else %}
-
-Настройки Scrub позволяют регулировать интервал времени, который проходит от начала предыдущего цикла скраббинга диска до начала следующего, а также максимальное число дисков, которые могут скрабиться одновременно. Значение по умолчанию — 1 месяц.
-`$ kikimr admin bs config invoke --proto 'Command { UpdateSettings { ScrubPeriodicitySeconds: 86400 MaxScrubbedDisksAtOnce: 1 } }'`
-
-В случае, если ScrubPeriodicitySeconds равен 0, то Scrubbing выключен.
-
-{% endif %}
diff --git a/ydb/docs/ru/core/maintenance/manual/selfheal.md b/ydb/docs/ru/core/maintenance/manual/selfheal.md
index 19b21b663da..236d0911bb4 100644
--- a/ydb/docs/ru/core/maintenance/manual/selfheal.md
+++ b/ydb/docs/ru/core/maintenance/manual/selfheal.md
@@ -12,8 +12,6 @@ SelfHeal позволяет:
## Включение и выключение SelfHeal {#on-off}
-{% if feature_ydb-tool %}
-
{% list tabs %}
- Включить SelfHeal
@@ -34,86 +32,6 @@ SelfHeal позволяет:
{% endlist %}
-{% else %}
-
-{% list tabs %}
-
-- Включить SelfHeal
-
- 1. Чтобы включить обнаружение неисправных элементов, откройте страницу `http://localhost:8765/cms#show=config-items-25`.
- 1. Зайдите на любой узел.
- 1. Составьте файл обновленной конфигурации с включенным параметром `SentinelConfig { Enable: true }`.
-
- Пример файла `config.txt`:
-
- ```text
- Actions {
- AddConfigItem {
- ConfigItem {
- Config {
- CmsConfig {
- SentinelConfig {
- Enable: true
- }
- }
- }
- }
- }
- }
- ```
-
- 1. Выполните команду:
-
- ```bash
- kikimr admin console configs update config.txt
- ```
-
- 1. Чтобы включить перенос данных, выполните команду:
-
- ```bash
- kikimr -s <endpoint> admin bs config invoke --proto 'Command{EnableSelfHeal{Enable: true}}'
- ```
-
-- Выключить SelfHeal
-
- 1. Чтобы выключить обнаружение неисправных элементов, откройте страницу `http://localhost:8765/cms#show=config-items-25`.
- 1. Зайдите на любой узел.
- 1. Составьте файл обновленной конфигурации с выключенным параметром `SentinelConfig { Enable: false }`.
-
- Пример файла `config.txt`:
-
- ```text
- Actions {
- AddConfigItem {
- ConfigItem {
- Config {
- CmsConfig {
- SentinelConfig {
- Enable: false
- }
- }
- }
- }
- }
- }
- ```
-
- 1. Выполните команду:
-
- ```bash
- kikimr admin console configs update config.txt
- ```
-
- 1. Чтобы выключить перенос данных, выполните команду:
-
- ```bash
- kikimr -s <endpoint> admin bs config invoke --proto 'Command{EnableSelfHeal{Enable: false}}'
- ```
-
-{% endlist %}
-
-{% endif %}
-
## Настройки SelfHeal {#settings}
Вы можете настроить SelfHeal в **Viewer** → **Cluster Management System** → **CmsConfigItems**.
@@ -152,8 +70,6 @@ SelfHeal позволяет:
## Работа с дисками-донорами {#disks}
-{% if feature_ydb-tool %}
-
Диск-донор — это предыдущий VDisk после переноса данных, который продолжает хранить свои данные и отвечает только на запросы чтения от нового VDisk'а. При переносе с включенными дисками-донорами предыдущие VDisk'и продолжают функционировать до тех пор, пока данные не будут полностью перенесены на новые диски. Чтобы предотвратить потерю данных при переносе VDisk'а, включите возможность использования дисков-доноров:
```bash
@@ -165,21 +81,3 @@ ydb-dstool.py -e ydb.endpoint cluster set --enable-donor-mode
```bash
ydb-dstool.py -e ydb.endpoint cluster set --disable-donor-mode
```
-
-{% else %}
-
-Чтобы предотвратить потерю данных при переносе VDisk'а, включите возможность использования дисков-доноров:
-
-```bash
-kikimr admin bs config invoke --proto 'Command { UpdateSettings { EnableDonorMode: true } }'
-```
-
-Чтобы выключить диски-доноры, укажите `false` в параметре `EnableDonorMode` той же команды:
-
-```bash
-kikimr admin bs config invoke --proto 'Command { UpdateSettings { EnableDonorMode: false } }'
-```
-
-Диск-донор — это предыдущий VDisk после переноса данных, который продолжает хранить свои данные и отвечает только на запросы чтения от нового VDisk'а. При переносе с включенными дисками-донорами предыдущие VDisk'и продолжают функционировать до тех пор, пока данные не будут полностью перенесены на новые диски.
-
-{% endif %}
diff --git a/ydb/docs/ru/core/maintenance/manual/toc_i.yaml b/ydb/docs/ru/core/maintenance/manual/toc_i.yaml
index 859c6e8d1dd..d368bd817bd 100644
--- a/ydb/docs/ru/core/maintenance/manual/toc_i.yaml
+++ b/ydb/docs/ru/core/maintenance/manual/toc_i.yaml
@@ -1,6 +1,6 @@
items:
-# - name: Установка ydb-dstool
-# href: ydb-dstool.md
+- name: Установка ydb-dstool
+ href: ydb-dstool.md
- name: Способы предотвращения выхода за модель отказа
href: failure_model.md
- name: Балансировка нагрузки на диски