Новая парадигма экономики данных AI: амбиции DIN и продажа узлов с точки зрения модульной предварительной обработки данных
В настоящее время искусственный интеллект (AI) без сомнения является одним из самых популярных направлений в мире: как стартапы и крупные компании в Силиконовой долине, такие как OpenAI, так и китайские представители, такие как Moonshot и Zhipu Qingyan, активно присоединяются к этой AI-революции.

Введение
В современном мире AI, без сомнения, является одной из самых горячих областей, будь то OpenAI из Силиконовой долины или Moonshot и Zhiyu Qingyan в Китае — как новые стартапы, так и крупные корпорации активно участвуют в этой AI-революции. Искусственный интеллект не только задаёт тренды в технологической сфере, но и является одной из самых ярких областей на криптовалютном рынке в этом году. Если посмотреть на проекты, размещённые на крупных CEX в этом году, несмотря на недавнюю рыночную турбулентность, лидер AI-сектора Bittensor (TAO) по-прежнему лидирует среди всех новых токенов этого года с доходностью более чем в 5 раз. С развитием и применением AI-технологий роль данных как основы для развития AI становится всё более значимой.
В эпоху AI важность и потенциальная ценность данных достигли беспрецедентных высот
По статистике, ведущие компании по разработке AI-моделей ежегодно обрабатывают и используют сотни миллионов наборов данных, и эффективность и точность этих данных напрямую влияют на результаты обучения AI-моделей. Однако стоимость получения данных также постоянно растёт, становясь серьёзным вызовом для всех AI-компаний.
Оптимизация производительности поддерживается постоянно растущим объёмом потребляемых данных
На современном рынке компании, разрабатывающие большие модели, ежегодно обрабатывают и используют огромные объёмы данных. Например, для обучения модели GPT-3 OpenAI использовала около 45 ТБ текстовых данных, а стоимость обучения GPT-4 достигла 78 миллионов долларов; вычислительные затраты на обучение модели Gemini Ultra от Google составили примерно 191 миллион долларов. Такая огромная потребность в данных характерна не только для OpenAI — другие AI-компании, такие как Google и Meta, также должны обрабатывать огромные объёмы данных при обучении своих крупных моделей.
Необходимость уделять внимание эффективности данных
Эффективные данные должны быть высокого качества, не содержать искажений и обладать богатой информацией о признаках, чтобы AI-модель могла учиться и делать точные прогнозы. Например, при обучении GPT-3 OpenAI использовала текстовые данные из различных источников, включая книги, статьи и веб-сайты, чтобы обеспечить разнообразие и репрезентативность данных. Однако эффективность данных зависит не только от их источника, но и от этапов очистки, разметки и предварительной обработки, которые требуют значительных человеческих и ресурсных затрат.
Экономическая составляющая, которую нельзя игнорировать: стоимость сбора и обработки данных
На практике расходы на сбор, разметку и обработку данных для обучения AI-моделей часто недооцениваются, но они могут быть весьма значительными. В частности, разметка данных — это трудоёмкий и дорогостоящий процесс, часто требующий ручного труда. После сбора данные необходимо очистить, организовать и обработать, чтобы AI-алгоритмы могли эффективно их использовать. Согласно отчёту McKinsey, стоимость обучения крупной AI-модели может достигать нескольких миллионов долларов. Кроме того, строительство и обслуживание дата-центров и вычислительной инфраструктуры AI-компаний также требует огромных затрат.
В целом, обучение больших AI-моделей требует огромного количества качественных данных, и объём, эффективность и стоимость получения этих данных напрямую определяют производительность и успех AI-моделей. В будущем, по мере развития AI-технологий, эффективное получение и использование данных станет ключевым фактором конкурентоспособности AI-компаний.
Модульный слой предварительной обработки данных: децентрализованное AI-решение на основе блокчейна
В этом контексте DIN (ранее Web3Go) появился как первый модульный AI-нативный слой предварительной обработки данных. DIN стремится с помощью децентрализованной валидации данных и векторной обработки позволить каждому предоставлять данные для AI и получать за это вознаграждение, открывая эру, когда каждый может монетизировать свои личные данные, а компании — более эффективно и экономично получать данные. В настоящее время DIN получил 4 миллиона долларов посевных инвестиций от Binance Labs, а также дополнительные 4 миллиона долларов pre-listing инвестиций от других институтов, сообщества и сети KOL, текущая оценка составляет 80 миллионов долларов, что свидетельствует о высокой оценке его потенциала и будущего развития рынком. Среди его партнёров — Polkadot, BNB Chain, Moonbeam Network и Manta Network.
Узел предварительной обработки данных DIN – Chipper Node
Позиционирование DIN на рынке очень чёткое — создание децентрализованной интеллектуальной сети данных в области AI и данных.Chipper Node играет важную роль в экосистеме DIN,отвечая за валидацию данных, векторную обработку и расчёт вознаграждений, являясь ключевым компонентом слоя предварительной обработки данных DIN.
Дисклеймер: содержание этой статьи отражает исключительно мнение автора и не представляет платформу в каком-либо качестве. Данная статья не должна являться ориентиром при принятии инвестиционных решений.
Вам также может понравиться
Почему BlackRock до сих пор не подал заявку на XRP ETF, несмотря на тесные связи с Ripple
Цена KAS выросла на 66%: сможет ли импульс подтолкнуть Kaspa к более крупным целям декабря?

Цена VIRTUAL выросла на 17%, прорыв нисходящего клина сигнализирует о росте в декабре

