diff options
author | alexv-smirnov <alexv-smirnov@yandex-team.ru> | 2022-06-03 19:38:06 +0300 |
---|---|---|
committer | alexv-smirnov <alexv-smirnov@yandex-team.ru> | 2022-06-03 19:38:06 +0300 |
commit | c9dd291baf359e5f853dc7a102b0c5cbe9435828 (patch) | |
tree | 44ba377592d41a92a8a96c987838c2627ddcaabf | |
parent | 590166cc49d2e64006a75a9d1468c817ae97f109 (diff) | |
download | ydb-c9dd291baf359e5f853dc7a102b0c5cbe9435828.tar.gz |
ydb docs cluster configs - domain eng/rus
ref:2faa33fb8e038f43966cb9b4411748ca3b872bad
-rw-r--r-- | ydb/docs/en/core/deploy/_includes/index.md | 2 | ||||
-rw-r--r-- | ydb/docs/en/core/deploy/configuration/config.md | 267 | ||||
-rw-r--r-- | ydb/docs/ru/core/deploy/configuration/config.md | 251 |
3 files changed, 396 insertions, 124 deletions
diff --git a/ydb/docs/en/core/deploy/_includes/index.md b/ydb/docs/en/core/deploy/_includes/index.md index 8f4be109e61..32621349b11 100644 --- a/ydb/docs/en/core/deploy/_includes/index.md +++ b/ydb/docs/en/core/deploy/_includes/index.md @@ -4,7 +4,7 @@ This section provides information on the deployment and configuration of multipl - [Deployment in Kubernetes](../orchestrated/concepts.md) - [Deployment on virtual machines and baremetal servers](../manual/deploy-ydb-on-premises.md) -- [Configuaration](../configuration/config.md) +- [Configuration](../configuration/config.md) Step-by-step instructions for rapid deployment of a local single-node cluster for the purposes of development and functional teseting are given in the [Getting started](../../getting_started/self_hosted/index.md) section. diff --git a/ydb/docs/en/core/deploy/configuration/config.md b/ydb/docs/en/core/deploy/configuration/config.md index a563bd59dff..95d2b4294fb 100644 --- a/ydb/docs/en/core/deploy/configuration/config.md +++ b/ydb/docs/en/core/deploy/configuration/config.md @@ -24,7 +24,7 @@ host_configs: The `host_config_id` attribute sets a numeric template identifier. The `drive` attribute contains a collection of attached disks descriptions. Each description contains two attributes: - `path` : Path to a mounted block device, for instance `/dev/disk/by-partlabel/ydb_disk_ssd_01` -- `type` : Device physical media type: `ssd`, `nvme` или `rot` (rotational - HDD) +- `type` : Device physical media type: `ssd`, `nvme` or `rot` (rotational - HDD) **Examples** @@ -76,7 +76,7 @@ Such section is already included in the configuration example files supplied wit This group contains a list of cluster static nodes where storage processes are running, and sets its attributes: -- Numeric node identified +- Numeric node identifier - DNS hostname and port where connection over IP network can be estalished - [Host configuration template](#host-configs) identifier - Placement in a particular rack and availability zone @@ -89,8 +89,8 @@ hosts: - host: <DNS hostname> host_config_id: <numeric host configuration template identifier> port: <port> # 19001 by default - location: - unit: <string representing a server serial number> + walle_location: + body: <string representing a server serial number> data_center: <string representing an availability zone identifier> rack: <string representing a rack identifier> - host: <DNS hostname> @@ -105,16 +105,16 @@ hosts: host_config_id: 1 node_id: 1 port: 19001 - location: - unit: '1' + walle_location: + body: '1' data_center: '1' rack: '1' - host: hostname2 host_config_id: 1 node_id: 2 port: 19001 - location: - unit: '1' + walle_location: + body: '1' data_center: '1' rack: '1' ``` @@ -125,77 +125,214 @@ The whole section `hosts` content is generated automatically when using YDB Kube ## domains_config - Cluster domain {#domains-config} -Specify the domain name, storage types, the numbers of the hosts that will be included in `StateStorage`, and the `nto_select` parameter. -In the storage configuration, specify the type of storage and the type of storage fault tolerance (`erasure`), which will be used to initialize the database storage. -You should also specify what types of disks this storage type will correspond to. The following models of storage fault tolerance are available: +This sections contains root domain configuration for the YDB cluster, including Blob Storage and State Storage configurations. -* The `block-4-2` configuration assumes deployment in 8 fail domains (by default, fail domains are racks) and can withstand a failure of no more than 2 fail domains. -* The `mirror-3-dc` configuration assumes deployment in 3 data centers, each of which has 3 fault tolerance domains and can withstand a failure of one data center and one more fault tolerance domain (rack). -* The `none` configuration doesn't provide fault tolerance but is convenient for functional testing. +**Syntax** +``` yaml +domains_config: + domain: + - name: <root domain name> + storage_pool_types: <Blob Storage configuration> + state_storage: <State Storage configuration> +``` -The `StateStorage` fault tolerance is defined by the `nto_select` parameter. The `StateStorage` configuration is fault-tolerant if any subset of `nto_select` servers that are part of `StateStorage` is fault-tolerant. -`StateStorage` remains available if most hosts are available for any subset of `nto_select` servers that are part of `StateStorage`. +There can be only one root domain in a cluster, named as specified in the `domains_config.domain.name` attribute. Default configurations use the `Root` domain name. -For example, if a cluster uses the `block-4-2` fault tolerance model for its storage, to make `StateStorage` fault-tolerant, set the `nto_select` parameter to 5 and place the hosts in 5 different availability domains. -If the cluster uses the `mirror-3-dc` fault tolerance model, to make `StateStorage` fault-tolerant, set the `nto_select` parameter to 9 and place the hosts in 3 data centers with 3 availability domains in each of them. +### Blob Storage configuration {#domains-blob} -{% note warning %} +This sections defines one or more storage pool types available in the cluster for data in the databases, with the following configuration options: -Make sure the NToSelect value is odd. For the proper operation of `StateStorage`, make sure that most of the NToSelect replicas are available for an arbitrary set of NToSelect hosts in `StateStorage`. +- Storage pool name +- Device properties (e.g. type of disks) +- Data encryption (on/off) +- Fault tolerance mode -{% endnote %} +There are three fault tolerance modes currently supported: -For example, you can use the following configuration for functional testing on a single server: +|Mode name|Storage<br>overhead|Min number<br>of nodes|Description| +|---------|-|-----------|-| +| none | 1 | 1 | No data redundancy, any hardware fault leads to the unavailability of the storage pool. This mode may be useful for functional testing. | +| block-4-2 | 1.5 | 8 | [Erasure coding](https://en.wikipedia.org/wiki/Erasure_code) is applied with 2 redundancy blocks added to 4 chunks of original data. Storage nodes are assigned to at least 8 fail domains (usually racks). Storage pool is available when any of 2 domains are lost, writing all 6 parts of data to the remaining domains. This mode is applicable for storage pools within a single availability zone (usually a data center). | +| mirror-3-dc | 3 | 9 | Data is replicated in 3 availability zones using 3 fail domains (usually racks) inside each zone. Storage pool is available upon a failure of any availability zone and one failure domain in any of the remaining zones. | -```bash -domains_config: - domain: - - name: Root - storage_pool_types: - - kind: ssd - pool_config: - box_id: 1 - erasure_species: none - kind: ssd - pdisk_filter: - - property: - - type: SSD - vdisk_kind: Default - state_storage: - - ring: - node: - - 1 - nto_select: 1 - ssid: 1 +Storage overhead shown above is for the fault tolerance factor only. When planning capacity, additional significant factors must be considered, including fragmentation and slot granularity. + +**Syntax** + +``` yaml + storage_pool_types: + - kind: <storage pool name> + pool_config: + box_id: 1 + encryption: <optional, set to 1 for data encryption at rest> + erasure_species: <fault tolerance mode name - none, block-4-2, or mirror-3-dc> + kind: <storage pool name - assign the same value as above> + pdisk_filter: + - property: + - type: <device type to match host_configs.drive.type> + vdisk_kind: Default + - kind: <storage pool name> + ... ``` -In this case, a domain is named `Root` and storage of the `SSD` type is created in it. This type of storage corresponds to disks with the `type` parameter set to `SSD`. -The `erasure_species: none` line in the parameter indicates that storage is created without fault tolerance. -If a cluster is located in three availability zones with 3 servers available in each of them, it may have the following configuration: +Each database in a cluster is assigned to at least one of available storage pools, chosen in a database creation operation. Pool kind names among those assigned can be referred to in a `DATA` parameter when defining column families in a [`CREATE TABLE`](../../yql/reference/syntax/create_table.md#column-family)/[`ALTER TABLE`](../../yql/reference/syntax/alter_table.md#column-family) YQL statement. -```bash -domains_config: - domain: - - name: global - storage_pool_types: - - kind: ssd - pool_config: - box_id: 1 - erasure_species: mirror-3-dc - kind: ssd - pdisk_filter: - - property: - - type: SSD - vdisk_kind: Default - state_storage: - - ring: - node: [1, 2, 3, 4, 5, 6, 7, 8, 9] - nto_select: 9 - ssid: 1 +### State Storage configuration {#domains-state} + +State Storage is an independent in-memory storage for volatile data which is being used in YDB internal processes. It keeps full data replicas across a set of assigned nodes. + +State Storage usually does not require scaling for performance, so number of nodes should be as small as possible yet fault tolerant. + +State Storage availability is crucial for a YDB cluster, as it affects all databases regardless of the underlying Blob Storage pools. To ensure State Storage fault tolerance, the nodes must be selected in a way which guarantees a majority of working nodes in case of any expected failure. You may use the following guidelines to choose nodes for State Storage: + +|Cluster type|Min number<br>of nodes|Choice guidelines| +|---------|-----------------------|-----------------| +|Fault-intolerant|1|Choose any single node of the cluster's Blob Storage.| +|Single availability zone|5|Choose five nodes in different fail domains of a block-4-2 Blob Storage pool to guarantee that 3 working nodes making up the majority (of 5) remain on any of two domains failure.| +|Geodistributed|9|Choose three nodes in different fail domains inside every of three availability zones of a mirror-3-dc Blob Storage pool to guarantee that 5 working nodes making up the majority (of 9) remain on failure of any availability zone + a fail domain.| + +When deploying State Storage on a cluster which employs number of storage pools with possible mix of fault tolerance modes, consider increasing number of nodes to scatter across various storage pools, as unavailability of State Storage leads to unavailability of the whole cluster. + +**Syntax** +``` yaml +state_storage: +- ring: + node: <array of State Storage nodes> + nto_select: <number of data replicas in State Storage> + ssid: 1 ``` -In this case, a domain is named `global` and storage of the `SSD` type is also created in it. The `erasure_species: mirror-3-dc` line indicates that storage is created with the `mirror-3-dc` fault tolerance model. `StateStorage` will include 9 servers with the `nto_select` parameter set to 9. +Each State Storage client (for instance, a DataShard tablet) use `nto_select` nodes to replicate its data in State Storage. If State Storage contains more nodes than `nto_select`, different nodes can be used for different clients, so make sure that any subset of `nto_select` nodes within State Storage satisfy the fault tolerance criteria. + +Use odd values for `nto_select`, as using even ones won't add to fault tolerance comparing to the nearest lesser odd value. + +### Examples {#domains-examples} + +{% list tabs %} + +- Block-4-2 + + ``` yaml + domains_config: + domain: + - name: Root + storage_pool_types: + - kind: ssd + pool_config: + box_id: 1 + erasure_species: block-4-2 + kind: ssd + pdisk_filter: + - property: + - type: SSD + vdisk_kind: Default + state_storage: + - ring: + node: [1, 2, 3, 4, 5, 6, 7, 8] + nto_select: 5 + ssid: 1 + +- Mirror-3-dc + + ``` yaml + domains_config: + domain: + - name: global + storage_pool_types: + - kind: ssd + pool_config: + box_id: 1 + erasure_species: mirror-3-dc + kind: ssd + pdisk_filter: + - property: + - type: SSD + vdisk_kind: Default + state_storage: + - ring: + node: [1, 2, 3, 4, 5, 6, 7, 8, 9] + nto_select: 9 + ssid: 1 + ``` + +- None + + ``` yaml + domains_config: + domain: + - name: Root + storage_pool_types: + - kind: ssd + pool_config: + box_id: 1 + erasure_species: none + kind: ssd + pdisk_filter: + - property: + - type: SSD + vdisk_kind: Default + state_storage: + - ring: + node: + - 1 + nto_select: 1 + ssid: 1 + ``` + +- Multiple pools + + ``` yaml + domains_config: + domain: + - name: Root + storage_pool_types: + - kind: ssd + pool_config: + box_id: '1' + erasure_species: block-4-2 + kind: ssd + pdisk_filter: + - property: + - {type: SSD} + vdisk_kind: Default + - kind: rot + pool_config: + box_id: '1' + erasure_species: block-4-2 + kind: rot + pdisk_filter: + - property: + - {type: ROT} + vdisk_kind: Default + - kind: rotencrypted + pool_config: + box_id: '1' + encryption_mode: 1 + erasure_species: block-4-2 + kind: rotencrypted + pdisk_filter: + - property: + - {type: ROT} + vdisk_kind: Default + - kind: ssdencrypted + pool_config: + box_id: '1' + encryption_mode: 1 + erasure_species: block-4-2 + kind: ssdencrypted + pdisk_filter: + - property: + - {type: SSD} + vdisk_kind: Default + state_storage: + - ring: + node: [1, 16, 31, 46, 61, 76, 91, 106] + nto_select: 5 + ssid: 1 + ``` + +{% endlist %} ## actor_system_config - Actor system {#actor-system} diff --git a/ydb/docs/ru/core/deploy/configuration/config.md b/ydb/docs/ru/core/deploy/configuration/config.md index 04140a90164..2f29231a506 100644 --- a/ydb/docs/ru/core/deploy/configuration/config.md +++ b/ydb/docs/ru/core/deploy/configuration/config.md @@ -125,78 +125,213 @@ hosts: ## domains_config - Домен кластера {#domains-config} -Необходимо указать имя домена и типы хранилища, также необходимо указать номера хостов, которые будут входить `StateStorage` и параметр `nto_select`. -В конфигурации хранилища необходимо указать имя типа хранилища и тип отказоустойчивости хранилища (`erasure`), который будет использоваться для инициализации хранилища баз данных. -Также необходимо указать, каким типам дисков данный тип хранилища будет соответствовать. Доступны следующие схемы отказоустойчивости хранилища: +Данный раздел содержит конфигурацию корневого домена кластера YDB, включая конфигурации Blob Storage (хранилища бинарных объектов) и State Storage (хранилища состояний). -* Конфигурация `block-4-2` предполагает развертывание в 8 доменах отказа (по умолчанию доменом отказа является стойка) и выдерживает отказ не более чем 2 доменов отказа. -* Конфигурация `mirror-3-dc` предполагает развертывание в 3 ЦОД-ах, в каждом из которых располагается 3 домена отказоустойчивости и выдерживает отказ одного ЦОД-а и еще одного домена отказоустойчивости (стойки) -* Конфигурация `none` не предполагает отказоустойчивости, но удобна для функционального тестирования. +**Синтаксис** +``` yaml +domains_config: + domain: + - name: <имя корневого домена> + storage_pool_types: <конфигурация Blob Storage> + state_storage: <конфигурация State Storage> +``` -Отказоустойчивость `StateStorage` определяется параметром `nto_select`. Конфигурация `StateStorage` является отказоустойчивой, если любое подмножество из `nto_select` серверов, входящих в `StateStorage`, является отказоустойчивым. -`StateStorage` остается доступным, если для произвольного подмножества из `nto_select` серверов, входящих в `StateStorage`, доступно большинство из хостов. +### Конфигурация Blob Storage {#domains-blob} -Например, если в кластере используется модель отказоустойчивости `block-4-2` для хранилища, то чтобы `StateStorage` был отказоустойчивым, необходимо в качестве параметра `nto_select` выбрать 5, а хосты разместить в 5 различных доменах доступности. -Если в кластере используется модель отказоустойчивости `mirror-3-dc`, то чтобы `StateStorage` был отказоустойчивым, необходимо в качестве параметра `nto_select` выбрать 9, а хосты разместить в 3 ЦОД-ах, по 3 домена доступности в каждом ЦОД-е. +Данный раздел определяет один или более типов пулов хранения, доступных в кластере для данных в базах данных, со следующими возможностями конфигурации: -{% note warning %} +- Имя пула хранения +- Свойства устройств (например, тип дисков) +- Шифрование данных (вкл/выкл) +- Режим отказоустойчивости -NToSelect должен быть нечетным. Для корректной работы `StateStorage` также необходимо, чтобы большинство из NToSelect реплик были доступны для произвольного набора из NToSelect хостов `StateStorage`. +В настоящее время поддерживаются три режима отказоустойчивости: -{% endnote %} +|Название режима|Множитель<br>объема хранения|Минимальное<br>количество<br>узлов|Описание| +|---------|-|-----------|-| +| none | 1 | 1 | Избыточность отсутствует, любой сбой оборудования приводит к недоступности пула хранения. Этот режим может быть полезен для функционального тестирования. | +| block-4-2 | 1.5 | 8 | Применяется [Erasure coding](https://ru.wikipedia.org/wiki/Стирающий_код) с двумя блоками избыточности, добавляемыми к четырем блокам исходных данных. Узлы хранилища размещаются в не менее чем 8 доменах отказа (обычно стойках). Пул хранения доступен при потере любых двух доменов, продолжая запись всех 6 частей данных в оставшихся доменах. Этот режим применим для пулов хранения в пределах одной зоны доступности (обычно центра обработки данных). | +| mirror-3-dc | 3 | 9 | Данные реплицируются в 3 зоны доступности, использующие 3 домена отказа (ообычно стойки) внутри каждой зоны. Пул хранения доступен при сбое одной зоны доступности и одного домена отказа в оставшихся зонах. | -Например, для функционального тестирования на одном сервере может использоваться данная конфигурация: +Приведенный выше множитель объема хранения относится только к фактору обеспечения отказоустойчивости. Для планирования размера хранилища необходимо учитывать другие значительные факторы, в частности фрагментацию и гранулярность слотов. -```bash -domains_config: - domain: - - name: Root - storage_pool_types: - - kind: ssd - pool_config: - box_id: 1 - erasure_species: none - kind: ssd - pdisk_filter: - - property: - - type: SSD - vdisk_kind: Default - state_storage: - - ring: - node: - - 1 - nto_select: 1 - ssid: 1 +**Синтаксис** + +``` yaml + storage_pool_types: + - kind: <имя пула хранения> + pool_config: + box_id: 1 + encryption: <опциональный, укажите 1 для шифрования данных на диске> + erasure_species: <имя режима отказоустойчивости - none, block-4-2, or mirror-3-dc> + kind: <имя пула хранения - укажите то же значение, что выше> + pdisk_filter: + - property: + - type: <тип устройства для сопоставления с указанным в host_configs.drive.type> + vdisk_kind: Default + - kind: <имя пула хранения> + ... ``` -В таком случае домен будет иметь имя `Root`, а в нем будет создан тип хранилища `ssd`. Данный тип хранилища будет соответствовать дискам, у которых параметр `type` будет равен значению `SSD`. -В параметре `erasure_species: none` означает, что хранилище будет создано без отказоустойчивости. +Каждой базе данных в кластере назначается как минимум один из доступных пулов хранения, выбираемый в операции создания базы данных. Имена пулов хранения среди назначенных могут быть использованы в атрибуте `DATA` при определении групп колонок в операторах YQL [`CREATE TABLE`](../../yql/reference/syntax/create_table.md#column-family)/[`ALTER TABLE`](../../yql/reference/syntax/alter_table.md#column-family). -В случае, если кластер расположен в трех зонах доступности а в каждой из зон доступно по 3 сервера, то в таком случае конфигурация может такой: +### Конфигурация State Storage {#domains-state} -```bash -domains_config: - domain: - - name: global - storage_pool_types: - - kind: ssd - pool_config: - box_id: 1 - erasure_species: mirror-3-dc - kind: ssd - pdisk_filter: - - property: - - type: SSD - vdisk_kind: Default - state_storage: - - ring: - node: [1, 2, 3, 4, 5, 6, 7, 8, 9] - nto_select: 9 - ssid: 1 +State Storage (хранилище состояний) -- это независимое хранилище в памяти для изменяемых данных, поддерживающее внутренние процессы YDB. Оно хранит реплики данных на множестве назначенных узлов. + +Обычно State Storage не требует масштабирования в целях повышения производительности, поэтому количество узлов в нём следует делать как можно меньшим с учетом необходимого уровня отказоустойчивости. + +Доступность State Storage является ключевой для кластера YDB, так как влияет на все базы данных, независимо от того какие пулы хранения в них используются.Для обеспечения отказоустойчивости State Storate его узлы должны быть выбраны таким образом, чтобы гарантировать рабочее большинство в случае ожидаемых отказов. + +Для выбора узлов State Storage можно воспользоваться следующими рекомендациями: + +|Тип кластера|Мин количество<br>узлов|Рекомендации по выбору| +|---------|-----------------------|-----------------| +|Без отказоустойчивости|1|Выберите один произвольный узел.| +|В пределах одной зоны доступности|5|Выберите пять узлов в разных доменах отказа пула хранения block-4-2, для гарантии, что большинство в 3 работающих узла (из 5) остается при сбое двух доменов.| +|Геораспределенный|9|Выберите три узла в разных доменах отказа внутри каждой из трех зон доступности пула хранения mirror-3-dc для гарантии, что большинство в 5 работающих узлов (из 9) остается при сбое зоны доступности + домена отказа.| + +При развертывании State Storage на кластерах, в которых прменяется несколько пулов хранения с возможным сочетанием режимов отказоустойчивости, рассмотрите возможность увеличения количества узлов с распространением их на разные пулы хранения, так как недоступность State Storage приводит к недоступности всего кластера. + +**Syntax** +``` yaml +state_storage: +- ring: + node: <массив узлов StateStorage> + nto_select: <количество реплик данных в StateStorage> + ssid: 1 ``` -В таком случае домен будет иметь имя `global`, в нем также будет создан тип хранилища `ssd`. `erasure_species: mirror-3-dc` означает, что хранилище будет создано со схемой отказоустойчивости -`mirror-3-dc`. `StateStorage` будет растянут на 9 серверов с параметром `nto_select` равным 9. +Каждый клиент State Storage (например, таблетка DataShard) использует `nto_select` узлов для записи копий его данных в State Storage. Если State Storage состоит из большего количества узлов чем `nto_select`, то разные узлы могут быть использованы для разных клиентов, поэтому необходимо обеспечить, чтобы любое подмножество из `nto_select` узлов в пределах State Storage отвечало критериям отказоустойчивости. + +Для `nto_select` должны использоваться нечетные числа, так как использование четных чисел не улучшает отказоустойчивость по сравнению с ближайшим меньшим нечетным числом. + +### Примеры {#domains-examples} + +{% list tabs %} + +- Block-4-2 + + ``` yaml + domains_config: + domain: + - name: Root + storage_pool_types: + - kind: ssd + pool_config: + box_id: 1 + erasure_species: block-4-2 + kind: ssd + pdisk_filter: + - property: + - type: SSD + vdisk_kind: Default + state_storage: + - ring: + node: [1, 2, 3, 4, 5, 6, 7, 8] + nto_select: 5 + ssid: 1 + +- Mirror-3-dc + + ``` yaml + domains_config: + domain: + - name: global + storage_pool_types: + - kind: ssd + pool_config: + box_id: 1 + erasure_species: mirror-3-dc + kind: ssd + pdisk_filter: + - property: + - type: SSD + vdisk_kind: Default + state_storage: + - ring: + node: [1, 2, 3, 4, 5, 6, 7, 8, 9] + nto_select: 9 + ssid: 1 + ``` + +- None + + ``` yaml + domains_config: + domain: + - name: Root + storage_pool_types: + - kind: ssd + pool_config: + box_id: 1 + erasure_species: none + kind: ssd + pdisk_filter: + - property: + - type: SSD + vdisk_kind: Default + state_storage: + - ring: + node: + - 1 + nto_select: 1 + ssid: 1 + ``` + +- Несколько пулов + + ``` yaml + domains_config: + domain: + - name: Root + storage_pool_types: + - kind: ssd + pool_config: + box_id: '1' + erasure_species: block-4-2 + kind: ssd + pdisk_filter: + - property: + - {type: SSD} + vdisk_kind: Default + - kind: rot + pool_config: + box_id: '1' + erasure_species: block-4-2 + kind: rot + pdisk_filter: + - property: + - {type: ROT} + vdisk_kind: Default + - kind: rotencrypted + pool_config: + box_id: '1' + encryption_mode: 1 + erasure_species: block-4-2 + kind: rotencrypted + pdisk_filter: + - property: + - {type: ROT} + vdisk_kind: Default + - kind: ssdencrypted + pool_config: + box_id: '1' + encryption_mode: 1 + erasure_species: block-4-2 + kind: ssdencrypted + pdisk_filter: + - property: + - {type: SSD} + vdisk_kind: Default + state_storage: + - ring: + node: [1, 16, 31, 46, 61, 76, 91, 106] + nto_select: 5 + ssid: 1 + ``` + +{% endlist %} ## actor_system_config - Акторная система {#actor-system} |