diff options
author | kruall <kruall@yandex-team.ru> | 2022-02-22 23:52:26 +0300 |
---|---|---|
committer | kruall <kruall@yandex-team.ru> | 2022-02-22 23:52:26 +0300 |
commit | 247d6fd6b3d5749c45dd7361ae66e8408240bcaa (patch) | |
tree | f1eb211794428b70479dfd9d0644cd1de2b4cd54 | |
parent | ff703ee84a375b7c0ef2049701d8767334374122 (diff) | |
download | ydb-247d6fd6b3d5749c45dd7361ae66e8408240bcaa.tar.gz |
Fix typos, KIKIMR-13082
ref:f77e71bad9128bb8b5ce5af8ea7df250886ea66c
14 files changed, 66 insertions, 64 deletions
diff --git a/ydb/docs/ru/core/concepts/cluster/_includes/distributed_storage/intro.md b/ydb/docs/ru/core/concepts/cluster/_includes/distributed_storage/intro.md index 08897363658..a70bbb9e245 100644 --- a/ydb/docs/ru/core/concepts/cluster/_includes/distributed_storage/intro.md +++ b/ydb/docs/ru/core/concepts/cluster/_includes/distributed_storage/intro.md @@ -2,4 +2,4 @@ YDB BlobStorage -- подсистема YDB, которая отвечает за надёжное хранение данных. -Позволяет хранить *блобы* (бинарный фрагмент размером от 1 байта до 10 мегабайт) c уникальным индитификатором. +Позволяет хранить *блобы* (бинарный фрагмент размером от 1 байта до 10 мегабайт) c уникальным идентификатором. diff --git a/ydb/docs/ru/core/maintenance/embedded_monitoring/hive.md b/ydb/docs/ru/core/maintenance/embedded_monitoring/hive.md index dff1d342caf..b5dd7d0f99b 100644 --- a/ydb/docs/ru/core/maintenance/embedded_monitoring/hive.md +++ b/ydb/docs/ru/core/maintenance/embedded_monitoring/hive.md @@ -1,6 +1,6 @@ # Hive web-viewer -Web-viewer Hive предоставляет инерфейс работы с Hive. +Web-viewer Hive предоставляет интерфейс работы с Hive. Hive бывает общим на кластер и тенантный. Попасть на страницу Web-viewer Hive можно из {{ ydb-short-name }} Monitoring. @@ -15,7 +15,7 @@ Hive бывает общим на кластер и тенантный. * **Boot Queue** - количество таблеток находятся в очереди на запуск * **Wait Queue** - количество таблеток не имеющие возможность подняться * **Resource Total** - потребление ресурсов таблетками (cpu, net) -* **Resource StDev** - cреднеквадратическое отклонение потребления ресурсов (cnt, cpu, mem, net) +* **Resource StDev** - среднеквадратическое отклонение потребления ресурсов (cnt, cpu, mem, net) После идет таблица, где каждая строка представляет из себя один из узлов под управлением Hive, и имеющая следующие столбцы: @@ -42,23 +42,23 @@ Hive бывает общим на кластер и тенантный. Ниже таблицы представлены дополнительные страницы: * **Bad tablets** - список таблеток имеющие проблемы или ошибки -* **Heavy tablets** - список таблеток поребляющие значетиельное количество ресурсов +* **Heavy tablets** - список таблеток потребляющие значительное количество ресурсов * **Waiting tablets** - список таблеток без возможности подняться * **Resources** - потребление ресурсов каждой таблеткой * **Tenants** - список тенантов с указанием их локальных Hive таблеток * **Nodes** - список узлов -* **Storage** - список пуллов групп хранения +* **Storage** - список пулов групп хранения * **Groups** - список групп хранения для каждой таблетки * **Settings** - страница конфигураций Hive * **Reassign Groups** - страница перераспределения групп хранения между таблетками -Так же можно посмотреть какие таблетки используют конкретную группу и наоборот, какие группы используюся в конкретной таблетке. +Так же можно посмотреть какие таблетки используют конкретную группу и наоборот, какие группы используются в конкретной таблетке. ## Reassign Groups {#reassign_groups} -При нажатии на кнопку **Reassign Groups** появится окно с параметрамми для балансировки: +При нажатии на кнопку **Reassign Groups** появится окно с параметрами для балансировки: -* **Storage pool** - пулл групп хранения для балансировки +* **Storage pool** - пул групп хранения для балансировки * **Storage group** - в случае если не указан предыдущий пункт, можно указать отдельно только одну группу * **Type** - тип таблеток для которых будет производиться балансировка * **Channels** - диапазон каналов, для которых будет производиться балансировка @@ -66,4 +66,4 @@ Hive бывает общим на кластер и тенантный. * **Inflight** - количество одновременно переезжающих на другие группы таблеток После указания всех параметров, следует нажать сначала "Query", который покажет количество каналов попавшие под переезде и разблокирует кнопку "Reassign". -При нажатии которой начнется перераспредление. +При нажатии которой начнется перераспределение. diff --git a/ydb/docs/ru/core/maintenance/manual/adding_storage_groups.md b/ydb/docs/ru/core/maintenance/manual/adding_storage_groups.md index 80313488788..562c86c665d 100644 --- a/ydb/docs/ru/core/maintenance/manual/adding_storage_groups.md +++ b/ydb/docs/ru/core/maintenance/manual/adding_storage_groups.md @@ -15,10 +15,10 @@ Command { ``` ``` -kikimr -s <ендпоинт> admin bs config invoke --proto-file ReadStoragePool.txt +kikimr -s <endpoint> admin bs config invoke --proto-file ReadStoragePool.txt ``` -Требуется вставить полученный конфиг пула в протобуф ниже и поменять в нем поле **NumGroups**. +Требуется вставить полученный конфиг пула в protobuf ниже и поменять в нем поле **NumGroups**. ```proto Command { @@ -29,5 +29,5 @@ Command { ``` ``` -kikimr -s <ендпоинт> admin bs config invoke --proto-file DefineStoragePool.txt +kikimr -s <endpoint> admin bs config invoke --proto-file DefineStoragePool.txt ``` diff --git a/ydb/docs/ru/core/maintenance/manual/balancing_load.md b/ydb/docs/ru/core/maintenance/manual/balancing_load.md index dc97122bf98..9fa7cdc3216 100644 --- a/ydb/docs/ru/core/maintenance/manual/balancing_load.md +++ b/ydb/docs/ru/core/maintenance/manual/balancing_load.md @@ -4,7 +4,7 @@ ## Распределить нагрузку равномерно по группам -На странице [web-мониторинга хайва](../embedded_monitoring/hive.md#reassign_groups), в нижней части экрана есть кнокпа "Reassign Groups". +На странице [Hive web-viewer](../embedded_monitoring/hive.md#reassign_groups), в нижней части экрана есть кнопка "Reassign Groups". ## Разложить VDisk'и равномерно по устройствам @@ -25,7 +25,7 @@ Command { ``` ``` -kikimr -s <ендпоинт> admin bs config invoke --proto-file ReadHostConfig.txt +kikimr -s <endpoint> admin bs config invoke --proto-file ReadHostConfig.txt ``` Требуется вставить полученный конфиг в протобуф ниже и поменять в нем поле **PDiskConfig/ExpectedSlotCount**. @@ -39,5 +39,5 @@ Command { ``` ``` -kikimr -s <ендпоинт> admin bs config invoke --proto-file DefineHostConfig.txt +kikimr -s <endpoint> admin bs config invoke --proto-file DefineHostConfig.txt ``` diff --git a/ydb/docs/ru/core/maintenance/manual/change_actorsystem_configs.md b/ydb/docs/ru/core/maintenance/manual/change_actorsystem_configs.md index d74e4a6cc06..c5e66b57b6f 100644 --- a/ydb/docs/ru/core/maintenance/manual/change_actorsystem_configs.md +++ b/ydb/docs/ru/core/maintenance/manual/change_actorsystem_configs.md @@ -1,15 +1,15 @@ -# Изменение конфигурации акторсистемы +# Изменение конфигурации актор-системы -## На статических нода +## На статических узлах -Статические ноды берут конфигурацию акторсистемы из файла расположенного kikimr/cfg/sys.txt. +Статические ноды берут конфигурацию актор-системы из файла расположенного kikimr/cfg/sys.txt. -После замены конфигурации требуется перезапустить ноду. +После замены конфигурации требуется перезапустить узел. -## На динамических нодых +## На динамических узлах -Динамические ноды берут конфигурацию из cms, чтобы изменить ее можно воспользоаться следуюшей командой. +Динамические ноды берут конфигурацию из cms, чтобы изменить ее можно воспользоваться следующей командой. ```proto ConfigureRequest { @@ -29,5 +29,5 @@ ConfigureRequest { } ``` -kikimr -s <ендпоинт> admin console execute --domain=<domain> --retry=10 actorsystem.txt +kikimr -s <endpoint> admin console execute --domain=<domain> --retry=10 actorsystem.txt ``` diff --git a/ydb/docs/ru/core/maintenance/manual/cluster_expansion.md b/ydb/docs/ru/core/maintenance/manual/cluster_expansion.md index 032c060a11f..819e8d5dbce 100644 --- a/ydb/docs/ru/core/maintenance/manual/cluster_expansion.md +++ b/ydb/docs/ru/core/maintenance/manual/cluster_expansion.md @@ -35,7 +35,7 @@ 3) Добавить новые узлы в DefineBox - Пример протофайла для DefineBox + Пример protobuf для DefineBox ``` Command { @@ -74,5 +74,5 @@ Применение команды ``` - kikimr -s <ендпоинт> admin bs config invoke --proto-file DefineBox.txt + kikimr -s <endpoint> admin bs config invoke --proto-file DefineBox.txt ``` diff --git a/ydb/docs/ru/core/maintenance/manual/cms.md b/ydb/docs/ru/core/maintenance/manual/cms.md index 3436c462447..11ad36cad8f 100644 --- a/ydb/docs/ru/core/maintenance/manual/cms.md +++ b/ydb/docs/ru/core/maintenance/manual/cms.md @@ -5,11 +5,11 @@ Следующая команда позволит получить текущие настройки по кластеру или по тенанту. ``` -./kikimr -s <ендпоинт> admin console configs load --out-dir <папка-для-конфигов> +./kikimr -s <endpoint> admin console configs load --out-dir <config-folder> ``` ``` -./kikimr -s <ендпоинт> admin console configs load --out-dir <папка-для-конфигов> --tenant <имя-тенанта> +./kikimr -s <endpoint> admin console configs load --out-dir <config-folder> --tenant <tenant-name> ``` ## Обновить настройки @@ -20,15 +20,15 @@ Actions { AddConfigItem { ConfigItem { - Cookie: "<куки>" + Cookie: "<cookie>" UsageScope { TenantAndNodeTypeFilter { - Tenant: "<имя-тенанта>" + Tenant: "<tenant-name>" } } Config { - <имя-конфига> { - <полный конфиг> + <config-name> { + <full-config> } } } @@ -39,5 +39,5 @@ Actions { Поле UsageScope необязательно, и нужно для применения настроек для определенного тенанта. ``` -./kikimr -s <ендпоинт> admin console configs update <файл-с-настройками> +./kikimr -s <endpoint> admin console configs update <protobuf-file> ``` diff --git a/ydb/docs/ru/core/maintenance/manual/disk_end_space.md b/ydb/docs/ru/core/maintenance/manual/disk_end_space.md index 397bab4d432..dc31c4dd19b 100644 --- a/ydb/docs/ru/core/maintenance/manual/disk_end_space.md +++ b/ydb/docs/ru/core/maintenance/manual/disk_end_space.md @@ -12,31 +12,31 @@ В процессе репликации данных нагрузка на все VDisk'и группы будет увеличена, возможно ухудшение времени отклика. -1. Посмотреть коэффициент фрагментации на странице VDisk'а во вьювере (ссылка). +1. Посмотреть коэффициент фрагментации на странице VDisk'а во вьювере. Если значение превышает 20%, то дефрагментация позволит освободить место на VDisk'е. -2. Проверить состояние группы в которую входит VDisk. В группе не должно быть недосупных VDisk'ов, VDisk'ов в состоянии ошибки или репликации. +2. Проверить состояние группы в которую входит VDisk. В группе не должно быть недоступных VDisk'ов, VDisk'ов в состоянии ошибки или репликации. - Посмотреть состояние группые можно во вьювере (ссылка). + Посмотреть состояние группы можно во вьювере. 3. Выполнить команду wipe для VDisk'а. Все данные хранимые VDisk'ом будут необратимо удалены, после чего VDisk начнет восстанавливать данные читая их с остальных VDisk'ов группы. ```bash - kikimr admin blobstorage group reconfigure wipe --domain <Номер домена> --node <ID узла> --pdisk <PDiskID> --vslot <Номер слота> + kikimr admin blobstorage group reconfigure wipe --domain <Номер домена> --node <ID узла> --pdisk <pdisk-id> --vslot <Номер слота> ``` - Посмотреть нужную информацию для команды можно во вьювере (ссылка). + Посмотреть нужную информацию для команды можно во вьювере. -В случае заканчивающегося места на блочном устройстве, можно применить дефрагментацию на все устрйоство. +В случае заканчивающегося места на блочном устройстве, можно применить дефрагментацию на все устройство. 1. Проверить состояние групп в кластере. Не должно быть проблемных групп которые находятся на том же узле, что и проблемное устройство. 2. Зайти по ssh на узел где находится этот устройство -3. Проверить, можно ли перезапустить процесс (ссылка на файл maintanence) +3. Проверить, можно ли [перезапустить процесс](node_restarting.md#restart_process). 4. Остановить процесс diff --git a/ydb/docs/ru/core/maintenance/manual/failure_model.md b/ydb/docs/ru/core/maintenance/manual/failure_model.md index 74b4396055c..743ac1b8568 100644 --- a/ydb/docs/ru/core/maintenance/manual/failure_model.md +++ b/ydb/docs/ru/core/maintenance/manual/failure_model.md @@ -2,7 +2,7 @@ ## Отказал один VDisk в группе хранения {#storage_group_lost_one_disk} -При включенном SelfHeal данная ситуация счиается штатной. SelfHeal перевезет VDisk за указанное в настройках время, после чего начнется процесс репликации данных на другом PDisk'е. +При включенном SelfHeal данная ситуация считается штатной. SelfHeal перевезет VDisk за указанное в настройках время, после чего начнется процесс репликации данных на другом PDisk'е. Если же SelfHeal отключен, то перевоз VDisk'а потребуется провести вручную. Для это перед перевозом требуется убедиться в отказе **только одного** VDisk'а в группе хранения. После чего воспользоваться [инструкцией](moving_vdisks.md#removal_from_a_broken_device). @@ -11,8 +11,8 @@ При таком отказе потери данных не происходит, система сохраняет работоспособность, успешно выполняются запросы на чтение и запись. Возможно падение производительности вызванное переносом нагрузки обрабатываемой отказавшими дисками на оставшиеся в строю. -При отказе более одного VDisk'а в группе SelfHeal перестает перевозить VDisk'и. В случае если количество отказавших VDisk'ов находится на грани модели отказа, то рекомендуеся восстановить работоспособность хотя бы одного из VDisk'ов, прежде чем начинать [перевоз VDisk'ов](moving_vdisks.md#removal_from_a_broken_device). Так же возможно потребуется более осторожно [перевозить VDisk'и по одному](moving_vdisks.md#moving_vdisk). +При отказе более одного VDisk'а в группе SelfHeal перестает перевозить VDisk'и. В случае если количество отказавших VDisk'ов находится на грани модели отказа, то рекомендуется восстановить работоспособность хотя бы одного из VDisk'ов, прежде чем начинать [перевоз VDisk'ов](moving_vdisks.md#removal_from_a_broken_device). Так же возможно потребуется более осторожно [перевозить VDisk'и по одному](moving_vdisks.md#moving_vdisk). -## Количество отказавших VDisk'ов превысело модель отказа {#exceeded_the_failure_modele} +## Количество отказавших VDisk'ов превысило модель отказа {#exceeded_the_failure_model} Доступность и работоспособность системы может быть нарушена. Необходимо восстановить работоспособность хотя бы одного из VDisk'ов без потери хранившихся на нем данных. diff --git a/ydb/docs/ru/core/maintenance/manual/index.md b/ydb/docs/ru/core/maintenance/manual/index.md index 33c065ab7b4..f35e7853f91 100644 --- a/ydb/docs/ru/core/maintenance/manual/index.md +++ b/ydb/docs/ru/core/maintenance/manual/index.md @@ -4,13 +4,13 @@ Кластер может быть неработоспособен по ряду причин: -* Возможен [выход за модель отказа](failure_model.md) из-за которого чтение и запись в группу хранения полностью останавливавется. +* Возможен [выход за модель отказа](failure_model.md) из-за которого чтение и запись в группу хранения полностью останавливается. -* Несбалансированная нагрузка на диски может сильно повлиять на летенси обработки запросов. Способы балансировки написаны в следующей [статье](balancing_load.md). +* Несбалансированная нагрузка на диски может сильно повлиять на время обработки запросов. Способы балансировки написаны в следующей [статье](balancing_load.md). * Окончание свободного места на нескольких физических дисках тоже может остановить запись, которое можно решить [освобождением места](disk_end_space.md) либо [расширением кластера](cluster_expansion.md) блочными устройствами. -Не санкционированный вывод узлов может повлечь за собой выше описанные проблемы, для предотвращения возможных проблем следует правильно [выводить узлы в обслужнивание](node_restarting.md). +Не санкционированный вывод узлов может повлечь за собой выше описанные проблемы, для предотвращения возможных проблем следует правильно [выводить узлы в техническое обслуживание](node_restarting.md). Профилактикой тоже будет служить включение [Scrubbing](scrubbing.md) и [SelfHeal](selfheal.md). @@ -19,6 +19,6 @@ Кластер YDB позволяет: * проводить [расширение](cluster_expansion.md) устройств и узлов. -* [Конфигурировать](change_actorsystem_configs.md) акторсистему на нодах. +* [Конфигурировать](change_actorsystem_configs.md) актор-систему на узлах. * Изменять конфиги через [CMS](cms.md). * [Добавлять](adding_storage_groups.md) новые группы хранения. diff --git a/ydb/docs/ru/core/maintenance/manual/moving_vdisks.md b/ydb/docs/ru/core/maintenance/manual/moving_vdisks.md index 8554f205d6d..0285cfffb0a 100644 --- a/ydb/docs/ru/core/maintenance/manual/moving_vdisks.md +++ b/ydb/docs/ru/core/maintenance/manual/moving_vdisks.md @@ -2,7 +2,7 @@ ## Увезти один VDisk'ов с блочного устройтства {#moving_vdisk} -Для того чтобы перевезти VDisk'и с блочного устройства, надо зайти на ноду по ssh и выполнить следующую команду. +Для того чтобы перевезти VDisk'и с блочного устройства, надо зайти на узел по ssh и выполнить следующую команду. ```bash kikimr admin bs config invoke --proto 'Command { ReassignGroupDisk { GroupId: <ID группы хранения> GroupGeneration: <Поколение группы хранения> FailRealmIdx: <FailRealm> FailDomainIdx: <FailDomain> VDiskIdx: <Номер слота> } }' @@ -16,7 +16,7 @@ kikimr admin bs config invoke --proto 'Command { ReassignGroupDisk { GroupId: <I 1. Убедиться в мониторинге, что VDisk действительно в нерабочем состоянии. - Записать fqdn узла, ic-port, путь до VDisk'а, pdiskId + Записать fqdn узла, ic-port, путь до VDisk'а, pdisk-id 2. Зайти на любой узел кластера @@ -30,12 +30,12 @@ kikimr admin bs config invoke --proto 'Command { ReassignGroupDisk { GroupId: <I 1. Убедиться в мониторинге, что PDisk в рабочем состоянии - Записать fqdn узла, ic-port, путь до устройства, pdiskId + Записать fqdn узла, ic-port, путь до устройства, pdisk-id 2. Зайти на любой узел кластера 3. Вернуть PDisk ```bash - kikimr admin bs config invoke --proto 'Command { UpdateDriveStatus { HostKey: { Fqdn: "<host>" IcPort: <ic-pord>} Path: "<Путь до партлейбла устройства>" PDiskId: <pdisk-id> Status: ACTIVE } }' + kikimr admin bs config invoke --proto 'Command { UpdateDriveStatus { HostKey: { Fqdn: "<host>" IcPort: <ic-port>} Path: "<Путь до партлейбла устройства>" PDiskId: <pdisk-id> Status: ACTIVE } }' ``` diff --git a/ydb/docs/ru/core/maintenance/manual/node_restarting.md b/ydb/docs/ru/core/maintenance/manual/node_restarting.md index 75c97a699d1..35ef9dbe854 100644 --- a/ydb/docs/ru/core/maintenance/manual/node_restarting.md +++ b/ydb/docs/ru/core/maintenance/manual/node_restarting.md @@ -2,9 +2,9 @@ ## Остановка/рестарт процесса ydb на узле {#restart_process} -Чтобы убедиться, что процесс можно остановить, надо выполнить следуюшие шаги. +Чтобы убедиться, что процесс можно остановить, надо выполнить следующие шаги. -1. Перейти на ноду по ssh. +1. Перейти в узел по ssh. 1. Выполнить команду @@ -32,9 +32,9 @@ При длительном отсутствии стоит перед этим перевезти все VDisk'и с данного узла и дождаться окончания репликации. После окончания репликации узел можно безопасно выключать. -Для отключения динамической узлы так же може потребоваться провести дрейн таблеток, дабы избежать эффекта на работающие запросы. +Для отключения динамической узлы так же может потребоваться выполнить мягкий увоз таблеток с узла(Drain), дабы избежать эффекта на работающие запросы. -Стоит перейти на страницу [web-мониторинга хайва](../embedded_monitoring/hive.md) или тенантного хайва. -После нажатия на кнопку "View Nodes" отобразится список всех узлов под руководством данного хайва. +Стоит перейти на страницу [Hive web-viewer](../embedded_monitoring/hive.md). +После нажатия на кнопку "View Nodes" отобразится список всех узлов. Перед отключением узла, сначала требуется отключить перевоз таблеток через кнопку Active, после чего нажать Drain и дождаться увоза всех таблеток. diff --git a/ydb/docs/ru/core/maintenance/manual/scrubbing.md b/ydb/docs/ru/core/maintenance/manual/scrubbing.md index 00b1172344f..0221e2cb6f7 100644 --- a/ydb/docs/ru/core/maintenance/manual/scrubbing.md +++ b/ydb/docs/ru/core/maintenance/manual/scrubbing.md @@ -3,4 +3,4 @@ Настройки Scrub позволяют регулировать интервал времени, который проходит от начала предыдущего цикла скраббинга диска до начала следующего, а также максимальное число дисков, которые могут скрабиться одновременно. Значение по умолчанию — 1 месяц. `$ kikimr admin bs config invoke --proto 'Command { UpdateSettings { ScrubPeriodicitySeconds: 86400 MaxScrubbedDisksAtOnce: 1 } }'` -В случае, если ScrubPeriodicitySeconds равен 0, то Scrubbing выключен. +В случае, если ScrubPeriodicitySeconds равен 0, то Scrubbing выключен. diff --git a/ydb/docs/ru/core/maintenance/manual/selfheal.md b/ydb/docs/ru/core/maintenance/manual/selfheal.md index 8ac692ba5de..827be98fbb6 100644 --- a/ydb/docs/ru/core/maintenance/manual/selfheal.md +++ b/ydb/docs/ru/core/maintenance/manual/selfheal.md @@ -9,7 +9,7 @@ 1. Включение детектирования - Открыть сртраницу + Открыть страницу ```http://localhost:8765/cms#show=config-items-25``` @@ -21,7 +21,7 @@ * Зайти на любой узел - * Составить файл с измененными конфигами + * Составить файл с измененными конфигурациями Пример файла config.txt @@ -50,9 +50,11 @@ 2. Включение перевоза ```bash - kikimr -s <ендпоинт> admin bs config invoke --proto 'Command{EnableSelfHeal{Enable: true}}' + kikimr -s <endpoint> admin bs config invoke --proto 'Command{EnableSelfHeal{Enable: true}}' ``` +Выключение аналогично, с установкой значения false. + ### Настройки SelfHeal viewer -> Cluster Management System -> CmsConfigItems @@ -76,22 +78,22 @@ viewer -> Cluster Management System -> CmsConfigItems * **InitialSysLogRead** - PDisk читает системный лог. Переход в FAULTY. * **InitialSysLogReadError** - PDisk получил ошибку при чтении системного лога. Переход в FAULTY. * **InitialSysLogParseError** - PDisk получил ошибку при парсинге или проверке консистентности системного лога. Переход в FAULTY. -* **InitialCommonnLogRead** - PDisk читает общий лог VDisk'ов. Переход в FAULTY. -* **InitialCommonnLogReadError** - PDisk получил ошибку при чтении общего лога VDisk'ов. Переход в FAULTY. -* **InitialCommonnLogParseError** - PDisk получил ошибку при парсинге или проверке консистентности общего лога. Переход в FAULTY. +* **InitialCommonLogRead** - PDisk читает общий лог VDisk'ов. Переход в FAULTY. +* **InitialCommonLogReadError** - PDisk получил ошибку при чтении общего лога VDisk'ов. Переход в FAULTY. +* **InitialCommonLogParseError** - PDisk получил ошибку при парсинге или проверке консистентности общего лога. Переход в FAULTY. * **CommonLoggerInitError** - PDisk получил ошибку при инициализации внутренних структур предназначенных для записи в общий лог. Переход в FAULTY. -* **Normal** - PDisk завершил иницализацию и работает нормально. Переход в ACTIVE произойдет через это количество Циклов (т.е. по умолчанию если Normal держится 5 минут, переводим диск в ACTIVE) +* **Normal** - PDisk завершил инициализацию и работает нормально. Переход в ACTIVE произойдет через это количество Циклов (т.е. по умолчанию если Normal держится 5 минут, переводим диск в ACTIVE) * **OpenFileError** - PDisk получил ошибку при открытии файла диска. Переход в FAULTY. * **Missing** - Нода отвечает, но в её списке нет данного PDisk. Переход в FAULTY. * **Timeout** - Нода не ответила за отведенный таймаут. Переход в FAULTY. -* **NodeDisconnected** - Дисконнект ноды. Переход в FAULTY. +* **NodeDisconnected** - Отключение ноды. Переход в FAULTY. * **Unknown** - Что-то неожиданное, например ответ TEvUndelivered на запрос состояния. Переход в FAULTY. ## Включение/выключение дисков-доноров При выключенных дисках донорах, при перевозе VDisk'а, его данные теряются, и их приходится восстанавливать согласно выбранному erasure. -Операция восстановления дороже, чем обычный перевоз данных. Так же происходит потеря данных, что може повлечь за собой потерю данных при выходе за рамки модели отказа. +Операция восстановления дороже, чем обычный перевоз данных. Так же происходит потеря данных, что может повлечь за собой потерю данных при выходе за рамки модели отказа. Для предотвращения выше перечисленных проблем, существуют диски доноры. |