Я постоянно размышлял над одним вопросом: самая сложная часть в блокчейне и децентрализованных сетях — это вовсе не начальный этап. Тогда данных было мало, и всё было проще. Настоящие проблемы начинаются, когда объем данных достигает определенного уровня.
Когда исторические данные становятся всё тяжелее, награды делятся всё мельче, а количество операторов, способных выдержать всю нагрузку, практически не растет, система начинает неосознанно тянуться к централизации. Это не чья-то злонамеренная игра, а неизбежная судьба, обусловленная экономикой и архитектурой системы.
Моя основная мотивация при создании проекта WAL — доказать, что огромные объемы данных вполне могут поддерживаться без зависимости от централизованных сил. По сути, это вопрос экономического дизайна, а не производительности.
**Чем тяжелее данные, тем длиннее рука централизованных структур**
Многие сети в итоге становятся централизованными, и причина очень проста — данные слишком тяжелы. Стоимость хранения стремительно растет, и всё меньше узлов способно синхронизировать полные данные цепочки. Право на подтверждение транзакций не отбирается силой у кого-то, а естественным образом концентрируется в руках тех немногих крупных игроков, у которых есть капитал и ресурсы.
На первый взгляд, сеть продолжает работать нормально: блоки создаются, данные доступны для проверки. Но если вы хотите проверить транзакцию? Простите, только несколько крупных операторов действительно могут это сделать — разве это децентрализация? На мой взгляд, это не компромисс, а провал дизайна.
**Шардинг — это ключ, а не необходимость хранить полную копию всем**
Традиционный способ — полное копирование: каждый узел хранит полные данные, безопасность обеспечивается множественными резервными копиями. На начальном этапе это казалось стабильным, но по мере роста данных эта схема автоматически смещается в сторону тех, у кого достаточно ресурсов — маленькие узлы просто не могут справиться с аппаратными затратами.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Я постоянно размышлял над одним вопросом: самая сложная часть в блокчейне и децентрализованных сетях — это вовсе не начальный этап. Тогда данных было мало, и всё было проще. Настоящие проблемы начинаются, когда объем данных достигает определенного уровня.
Когда исторические данные становятся всё тяжелее, награды делятся всё мельче, а количество операторов, способных выдержать всю нагрузку, практически не растет, система начинает неосознанно тянуться к централизации. Это не чья-то злонамеренная игра, а неизбежная судьба, обусловленная экономикой и архитектурой системы.
Моя основная мотивация при создании проекта WAL — доказать, что огромные объемы данных вполне могут поддерживаться без зависимости от централизованных сил. По сути, это вопрос экономического дизайна, а не производительности.
**Чем тяжелее данные, тем длиннее рука централизованных структур**
Многие сети в итоге становятся централизованными, и причина очень проста — данные слишком тяжелы. Стоимость хранения стремительно растет, и всё меньше узлов способно синхронизировать полные данные цепочки. Право на подтверждение транзакций не отбирается силой у кого-то, а естественным образом концентрируется в руках тех немногих крупных игроков, у которых есть капитал и ресурсы.
На первый взгляд, сеть продолжает работать нормально: блоки создаются, данные доступны для проверки. Но если вы хотите проверить транзакцию? Простите, только несколько крупных операторов действительно могут это сделать — разве это децентрализация? На мой взгляд, это не компромисс, а провал дизайна.
**Шардинг — это ключ, а не необходимость хранить полную копию всем**
Традиционный способ — полное копирование: каждый узел хранит полные данные, безопасность обеспечивается множественными резервными копиями. На начальном этапе это казалось стабильным, но по мере роста данных эта схема автоматически смещается в сторону тех, у кого достаточно ресурсов — маленькие узлы просто не могут справиться с аппаратными затратами.