💬 ИИ с открытым исходным кодом-не в конечном итоге, в которой Ай Ончейн-это | Мнение

ИИ с открытым исходным кодом-не в конечном итоге, в которой Ай Ончейн-это | Мнение
Раскрытие: взгляды и мнения, выраженные здесь, относятся исключительно к автору и не представляют взгляды и мнения Crypto.news.
В январе 2025 года R1 Deepseek превзошел CHATGPT как самое загруженное бесплатное приложение в Apple Apple Store US. В отличие от проприетарных моделей, таких как CHATGPT, DeepSeek является открытым исходным кодом, что означает, что каждый может получить доступ к коду, изучать его, поделиться им и использовать его для своих собственных моделей.
Этот сдвиг вызвал волнение в отношении прозрачности в ИИ, подталкивая отрасль к большей открытости. Всего несколько недель назад, в феврале 2025 года, Anpropic выпустил Claude 3.7 Sonnet, гибридную модель рассуждений, которая частично открыта для предварительных просмотров исследований, также усиливая разговор о доступном ИИ.
Тем не менее, хотя эти разработки стимулируют инновации, они также подвергают опасного заблуждения: ИИ с открытым исходным кодом по своей природе более безопасен (и безопаснее), чем другие закрытые модели.
Обещание и ловушки
Модели ИИ с открытым исходным кодом, такие как Deepseek's R1 и новейшие кодирующие агенты Repit, показывают нам силу доступных технологий. DeepSeek утверждает, что создал свою систему всего за 5,6 млн. Долл. США, что почти на одну десятую стоимость Meta Llama Model. Между тем, агент Repit, задуменный Claude 3.5 Sonnet, позволяет кому-либо, даже не кодировщикам создавать программное обеспечение из подсказок естественного языка.
Последствия огромны. Это означает, что в основном все, в том числе небольшие компании, стартапы и независимые разработчики, теперь могут использовать эту существующую (и очень надежную) модель для создания новых специализированных приложений для искусственного интеллекта, включая новые агенты искусственного интеллекта, с гораздо более низкой стоимостью, более высокой скоростью и с большей легкостью. Это может создать новую экономику искусственного интеллекта, где доступ к моделям.
Но где сияет с открытым исходным кодом-докторскую доступность-он также сталкивается с повышенным контролем. Свободный доступ, как видно из модели Deepseek в размере 5,6 млн. Долл. США, демократизирует инновации, но открывает дверь для кибер -рисков. Злоусовеченные актеры могут настроить эти модели для создания вредоносных программ или использовать уязвимости быстрее, чем появляются патчи.
ИИ с открытым исходным кодом не хватает гарантий по умолчанию. Он основывается на наследии прозрачности, которая на протяжении десятилетий укрепляла технологию. Исторически, инженеры опирались на «безопасность через запутывание», скрывая детали системы за проприетарными стенами. Этот подход колебался: уязвимость всплыла, часто обнаруживая в первую очередь плохими актерами. Открытый исходный код перевернул эту модель, разоблачая код, например, R1 Deepseek R1 или агент Repit-для публичного изучения, повышения устойчивости за счет сотрудничества. Тем не менее, ни открытые, ни закрытые модели ИИ по своей природе не гарантируют надежную проверку.
Этические ставки столь же критичны. ИИ с открытым исходным кодом, так же, как и его закрытые аналоги, может отражать смещения или производить вредные выходы, коренные в учебных данных. Это не недостаток, уникальный для открытости; Это проблема ответственности. Одна прозрачность не стирает эти риски, а также полностью не предотвращает неправильное использование. Разница заключается в том, как открытый источник предлагает коллективный надзор, прочность, которой часто не хватает проприетарным моделям, хотя это все еще требует механизмов для обеспечения целостности.
Необходимость проверяемого ИИ
Для того, чтобы ИИ с открытым исходным кодом был более доверительным, он нуждается в проверке. Без него как открытые, так и закрытые модели могут быть изменены или неправильно используются, усиливая дезинформацию или перекосившиеся автоматизированные решения, которые все чаще формируют наш мир. Недостаточно, чтобы модели были доступны; Они также должны быть проверенными, защищенными от несоблюдения и подотчетны.
Используя распределенные сети, блокчейны могут подтвердить, что модели искусственного интеллекта остаются неизменными, их учебные данные остаются прозрачными, и их выходы могут быть подтверждены против известных базовых показателей. В отличие от централизованной проверки, которая зависит от доверия к одному сущности, децентрализованный, криптографический подход блокчейна мешает плохим актерам вмешиваться за закрытые двери. Он также переворачивает сценарий по контролю сторонних сторон, распространяя надзор за сетью и создавая стимулы для более широкого участия, в отличие от сегодняшнего дня, где неоплачиваемые участники топливируют триллионные наборы датчиков без согласия или вознаграждения, а затем заплатите за использование результатов.
Структура проверки с блокчейном приводит к искусственному искусству с открытым исходным кодом. Хранение моделей Onchain или с помощью криптографических отпечатков пальцев гарантирует, что модификации отслеживаются открыто, позволяя разработчикам и пользователям подтвердить, что они используют предполагаемую версию.
Захват источника обучающих данных на блокчейне доказывает модели, взятые из непредвзятых, источников качества, снижают риски скрытых смещений или манипулируемых входов. Кроме того, криптографические методы могут проверять выходы без разоблачения личных данных, которые используют пользователи данных (часто незащищенные), уравновешивая конфиденциальность с доверием, поскольку модели укрепляются.
Прозрачная, устойчивая к себе блокчейн природа предлагает отчаянно нуждающееся в открытом исходном костюме AI. Там, где системы ИИ теперь процветают на пользовательских данных с небольшой защитой, блокчейн может вознаградить участников и защищать свои входы. Переплетение в криптографических доказательствах и децентрализованном управлении, мы можем построить экосистему ИИ, которая является открытой, безопасной и меньшей задачей для централизованных гигантов.
Будущее ИИ основано на доверии ... Ончейн
ИИ с открытым исходным кодом является важной частью головоломки, и индустрия ИИ должна работать над еще большей прозрачностью, но быть открытым исходным кодом не является конечным пунктом назначения.
Будущее ИИ и его актуальность будут построены на доверии, а не только на доступности. И доверие не может быть открытым исходным кодом. Он должен быть построен, проверен и усилен на каждом уровне стека ИИ. Наша отрасль должна сосредоточиться на уровне проверки и интеграции безопасного ИИ. На данный момент, привлечение ИИ ONCHAIN и использование Blockchain Tech - это наша безопасная ставка для создания более заслуживающего доверия будущего.
Дэвид Пингер является соучредителем и генеральным директором Warden Protocol, компании, которая фокусируется на том, чтобы доставить безопасное ИИ в Web3. Перед соучредителем Стража, он руководил исследованиями и разработками в Qredo Labs, управляя инновациями Web3, такими как цепочки без гражданства, Webassembly и доказательства нулевого знания. До Кредо он занимал роль в продукте, аналитике данных и операциях как в Uber, так и в Binance. Дэвид начал свою карьеру в качестве финансового аналитика в венчурном капитале и частном акционерном капитале, финансируя стартапы с высоким ростом в Интернете. Он имеет степень магистра делового администрирования в Университете Пантеон-Сорбонн.
Ограничение / снятие ответственности (дисклеймер): Вся информация на этом сайте предоставляется исключительно в информационных целях и не является предложением или рекомендацией к покупке, продаже или удержанию каких-либо ценных бумаг, акций или других финансовых инструментов. Авторы контента не несут ответственности за действия пользователей, основанные на предоставленной информации. Пользователи обязаны самостоятельно оценивать риски и проконсультироваться со специалистами перед принятием каких-либо инвестиционных решений. Вся информация на сайте может быть изменена без предварительного уведомления.
Свежие новости по теме: Криптовалюта, NFT и криптобиржи
-
Криптовалюта и NFT
Fed Pause Sparks стреляет в фондах биткойнов | ETF News
2025-05-19 просмотры: 186 -
Криптовалюта и NFT
Чарльзу Хоскинсону грозит 318 млн. Скандал ADA - остановит ли он рост ADA до 1 доллара?
2025-05-19 просмотры: 292 -
Криптовалюта и NFT
Meme Moin Mayhem: токен японской звезды Юа Миками падает на 80% после запуска
2025-05-19 просмотры: 260 -
Криптовалюта и NFT
Аналитик определяет возможность покупки для Dogecoin до роста до 0,3 доллара США.
2025-05-19 просмотры: 288 -
Криптовалюта и NFT
Крипто в GTA 6? Слухи, стримеры и тишина рок -звезды помешают горшок
2025-05-19 просмотры: 331 -
Криптовалюта и NFT
Портал общины Shiba Inu Community Burn сжигает 1 003,331,701 Shib
2025-05-19 просмотры: 213 -
Криптовалюта и NFT
Berachain заканчивает фазу Boyco и открывает новые пути ликвидности
2025-05-19 просмотры: 315 -
Криптовалюта и NFT
Dogecoin, ведущий рынок Cardano ADA в качестве биткойн -трейдеров.
2025-05-19 просмотры: 157 -
Криптовалюта и NFT
Xlm Breakout Set STAGE для 48% -ного всплеска - Can Stellar набрал 0,67 доллара?
2025-05-19 просмотры: 177