NGC Ventures: Стоит ли по-прежнему начинать бизнес в нынешней сфере искусственного интеллекта?

Автор: Черри, инвестиционный менеджер, NGC Ventures

Предисловие

Первый вариант этой статьи был написан во время рыбалки в выходной день в конце августа.После поспешной публикации я получил много советов, поэтому автор добавил, изменил и удалил некоторый контент, чтобы не рассмешить людей.

Содержание этой статьи в основном оценивает текущую ситуацию в отрасли ИИ с инвестиционной точки зрения, размышляет и выдвигает предположения о маршрутах технологий/продуктов различных компаний, а также абстрактно обобщает стратегии компаний в отрасли ИИ. Поэтому, когда дело касается конкретных технологий, неизбежно возникают некоторые упущения, поэтому, пожалуйста, будьте терпеливы.

Но в конечном итоге крупные компании, которые могут публиковать статьи, по-прежнему враждуют друг с другом, и, похоже, никто не может оценить точность содержания этой статьи. Точно так же, как использование GPT-4 для оценки GPT-3.5, это кажется разумным, но, если подумать, это немного абстрактно.

Поэтому автор предлагает рассматривать данную статью как «суждение», сложившееся после сбора информации о неопределенных отраслях. Поскольку это суждение, позиция должна быть ясна и должно быть что сказать. А судить о том, правильно это или нет, мы оставим на усмотрение времени.

Автор всегда считает, что: новая индустрия шумна, всегда правильно использовать свой мозг и осмелиться выносить суждения. Что касается вопроса о суждении, то вероятность правильного угадывания вслепую составляет 50%, а вероятность того, что вы угадаете три раза подряд неправильно, составляет 12,5%. Вынести суждение не страшно, но самое ужасное, что точность суждения ниже, чем при бросании монеты.

Прежде чем официально начать эту статью, я хотел бы поблагодарить следующих людей за их работу, которая предоставила ценное вдохновение и источники данных для этой статьи. Конечно, поскольку многие выводы в этой статье основаны на этих работах, если в ней есть ошибки или неправильное понимание автора, выводы в этой статье перестанут быть надежными, и читателям предлагается судить самостоятельно. Эта статья не представляет собой инвестиционную рекомендацию и вряд ли является инвестиционной рекомендацией.

• Центр цепочки мыслей: постоянные усилия по измерению эффективности рассуждений на больших языковых моделях(

• ЛИМА: для согласования меньше, да лучше(

• Июнь 2023 г.: поэтапный обзор настройки инструкций(

• Архитектура GPT-4, инфраструктура, набор обучающих данных, затраты, концепция, Министерство образования(

Хорошо, давайте официально начнем эту статью.

Большая модель: запуск киберракеты

Первым шагом в обсуждении ИИ в 2023 году станет обсуждение возможности создания крупномасштабного модельного предпринимательства.

Большая модель (предварительная подготовка) теперь трансформировалась в задачу запуска ракеты: пока ее можно сжечь и направление правильное, это может сделать каждый. Можно сказать, что тренировка большой модели — это запуск киберракеты.

Противоречиво то, что инвесторы недооценивают сложность обучения больших моделей, но переоценивают сложность запуска реальных ракет. При той же стоимости в 60 миллионов долларов США инвесторы будут думать, что если ракета не взлетит, то появится второй шанс, а провал обучения крупной модели будет считаться пустой тратой денег.

GPT-4 по-прежнему потребляет 60 миллионов долларов США на эффективность использования графического процессора OpenAI (по сообщениям, она составляет примерно 30%). Это {производительность = эффективность

В настоящее время многие компании, претендующие на обучение больших моделей, имеют раунды финансирования от 1 до 5 миллионов долларов. Другими словами, даже у компаний с самым большим объемом финансирования боеприпасов достаточно только для поддержки одного запуска. Даже если загрузка графического процессора при этом запуске достигнет 100%, превзойти GPT-4 будет сложно.

С этой точки зрения лучше запускать ракеты, потому что большинство нынешних ракет являются ракетами-носителями, несущими спутники в небо, а грузоподъемность единичной нагрузки ограничена, поэтому небольшие ракетные компании могут принимать заказы на спутники, которые другие не успели запускать.

Большая модель отличается: предельные затраты на горизонтальное расширение большой модели - это только стоимость вычислительной мощности, а стоимость вычислительной мощности может расширяться эластично, что означает, что для компании с большой моделью прибыль от каждого заказа Это бесплатная прибыль., дополнительных затрат почти нет, а объем предприятия очень велик. Для недавно созданных крупных модельных компаний с низким качеством трудно получить избыточный спрос.

Если затраты на обучение не будут значительно снижены, даже если известна вся архитектура GPT-4, многим компаниям будет сложно создавать крупные модели, которые можно будет вывести на рынок в краткосрочной перспективе.

Кастомизация: решение проблемы «победитель получает все»

В индустрии аппаратного обеспечения обычным явлением является получение ранней прибыли за счет индивидуальных требований, а затем достижение технологических прорывов (или связей) за счет ранней прибыли. Однако индивидуализация в индустрии крупных моделей вряд ли является отдушиной для новых участников.

Что касается этого суждения, то объяснение очень простое: подавляющее большинство доработанных моделей не могут догнать GPT-4. Даже если и догонят, то непосредственное использование GPT-4 для обобщения дешевле, требует меньше персонала и требует меньше удачи. Меньше требований к данным. Пока существует разрыв в производительности между GPT-4 и другими моделями, кастомизация не может быть выходом из ситуации для крупных модельных компаний.

Очень типичный пример — Jasper, который использует доработанный GPT-3 для обслуживания корпоративных клиентов, однако после того, как OpenAI выпустила ChatGPT (GPT-3.5), его пользователи быстро проиграли. Потому что выходные данные Джаспера можно получить, просто введя GPT-3.5, без использования «обратной версии» с плохой способностью к обобщению и ограниченной внутренним использованием на предприятиях.

По сравнению с новыми компаниями, у Jasper, по крайней мере, есть период окна от GPT-3 до GPT-3.5 для разработки. Однако теперь новым компаниям приходится одновременно сталкиваться с проблемой недорогих, высокоскоростных GPT-3.5 и высокопроизводительных GPT-4.

Таким образом, вероятность выживания надежды на накопление прибыли за счет настройки для достижения технологических прорывов очень низка.

Тонкая настройка: необходима, не будьте суеверными

Нынешняя индустрия искусственного интеллекта возлагает нереалистичные ожидания относительно тонкой настройки. Эти ожидания переоценены с точки зрения конкретной технической реализации и макротехнического ритма.

Тонкая настройка, обсуждаемая в настоящее время в отрасли, в основном относится к «основанной на предварительно обученной модели, чтобы она могла генерировать ответы, соответствующие намерениям человека». Такую тонкую настройку можно назвать «выравниванием», то есть согласовывать ответы с намерениями человека, а не добавлять интеллект к большой модели.

Согласно результатам исследований многих работ, знание больших моделей должно в основном происходить в результате предварительного обучения, тогда как точная настройка больше используется для выравнивания.

Простое объяснение состоит в том, что предварительная тренировка определяет возможности мозга, а тонкая настройка определяет родной язык. Точная настройка предварительно обученной модели — это процесс «ликвидации неграмотности».

Однако в отрасли точная настройка часто рассматривается как метод «добавления интеллекта» модели, то есть улучшения производительности модели и увеличения знаний модели посредством тонкой настройки. Считается, что таким образом достигается «Святой Грааль». искусственного интеллекта». Эта линия мышления несколько предвзята.

Прежде всего, производительность самой модели не улучшилась, но она может лучше согласовывать намерения человека.Если сложность задачи превышает производительность модели, то тонкая настройка не даст ожидаемых результатов. Это все равно, что заставить человеческий мозг выполнять квантовые вычисления. И дело не в образовании, если это невозможно.

Во-вторых, «дополнение знаний» выполняется в части «выравнивание намерений», и эффект больше похож на «попугайство». То есть: модель просто имитирует то, что говорят эксперты, не понимая смысла. Хотя многие отрасли могут получить хорошие решения, «повторяя» (в конце концов, большинство отраслей не сложны...), очевидно, что это не тот результат, к которому мы должны стремиться в долгосрочной перспективе.

Наконец, обучение «дополнению дополнительных наборов данных, улучшению производительности модели и расширению знаний модели» следует рассматривать как модель, имеющую возможность «постепенного/непрерывного обучения», то есть все параметры модели могут обрабатываться посредством дополнительная оптимизация наборов данных. Это понятие не относится к той же категории, что и так называемая «тонкая настройка инструкций».

Вообще говоря, тонкая настройка очень важна, но неверно относиться к текущей тонкой настройке «суеверно», особенно к стремлению назвать текущую тонкую настройку Святым Граалем, что является своеобразным «на здание современной физики. «Плывут только два темных облака».

Сделаем шаг назад: если задачу «повышения интеллекта» действительно можно решить путем тонкой настройки инструкций, выполнить простой векторный поиск, непосредственно поместить знания в контекст, а затем просто написать несколько шаблонов, существует высокая вероятность что эффект будет такой же или даже лучший.

Тонкая настройка нравится всем, возможно, это тоже своего рода возрождение алхимических навыков в наше время...

Перспективы большой модели: четыре арифметических операции

(Обратите внимание, что эта часть контента полностью основана на данных, раскрытых Диланом Пателем, и достоверность пока не может быть проверена)

Обучение GPT-4 основано на серии N-карт.Эффективность обучения 30%.Время обучения около 2 месяцев.Стоимость около 60 миллионов.Общая сумма параметров {1,7 триллиона = 110 миллиардов. × 16 экспертных моделей}. Он может решить одну задачу. Параметры составляют около 280 миллиардов.

Другими словами, есть несколько ключевых параметров, которые приведут к изменениям в схеме обучения больших моделей.

Эффективность обучения: от 30% до 60% может напрямую сократить время на один раз.

Увеличенная интенсивность вычислительной мощности: после перехода с серии A на серию H, а затем на выделенную карту AI интенсивность вычислительной мощности увеличилась, и многие архитектурные проблемы, влияющие на эффективность, могут быть решены.

Снижение стоимости вычислительной мощности: Лао Хуан (основатель Nvidia) сделал скидку на видеокарты, что привело к значительному снижению затрат.

Повышение эффективности параметров: существуют возможности для повышения эффективности параметров модели. Учитывая прошлое, новые модели обычно могут во много раз повысить эффективность параметров старых моделей. Можно использовать 30% параметры GPT-4 для достижения аналогичных эффектов.

Подводя итог, можно сказать, что стоимость обучения модели с производительностью уровня GPT-4 с нуля может в 10–20 раз превышать возможности для оптимизации, что сокращается до $3–6 млн. Эти затраты очень рентабельны для стартапов. и крупные компании более приемлемы.

И это изменение может занять около 2 лет.

В настоящее время основная технология больших моделей по-прежнему основана на трансформаторе, инфраструктура не изменилась, и идея совершенствования алхимии и добавления параметров для создания чудес не исчерпана. Обучение GPT-4 осуществляется на основе высоких ограничений вычислительной мощности, а время обучения недостаточно велико.

Если параметры растут линейно со временем обучения, верхний предел параметров для модели с архитектурой, аналогичной GPT-4, может составлять около 10 триллионов, то есть вдвое больше времени обучения (×2) и вдвое больше времени обучения (×2). параллельная видеокарта (×2), эффективность обучения вдвое ниже (×1,5), эффективность параметров вдвое ниже (×1,5), а конечный результат в десять раз лучше. Согласно стилю склонности к риску Кремниевой долины, этот параметр, скорее всего, будет достигнут в течение года, независимо от того, улучшится ли производительность.

Однако после достижения 10 триллионов параметров совершенно неизвестно, сможет ли LLM еще использовать идею увеличения параметров для достижения чудес.

Если количество параметров улучшает производительность модели с уменьшающейся разницей, то 10 триллионов, вероятно, станут препятствием. Однако существует также гипотеза, что улучшение производительности модели по количеству параметров незначительно возрастает, подобно тому, как «если человек достаточно умен, он может всему научиться быстро». Первое — это нормально, но если второе сбудется, производительность модели может улучшиться в геометрической прогрессии, и то, что произойдет тогда, будет совершенно непредсказуемым.

Трудно предсказать алхимию, но легко предсказать ритм корпоративной стратегии. Модель с общим параметром 10 триллионов является важной вехой для большинства предприятий, будь то гигант вроде Google/MS/APPL или меньшая OpenAI, и это место, где вы можете остановиться и провести некоторые технические исследования. позиция.

Предпочтение предприятий/капитала риску можно конвертировать в «время выдержки»: если все время выдержки – это интенсивно сжигаемые расходы, то превысить 6 месяцев будет сложно. Человеческие технологии развиваются недостаточно быстро, и цикл обычно занимает 5 и более лет. Таким образом, в течение 5 лет конечная сумма параметров модели может быть оценена и должна составить от 20 до 50 триллионов. Если снова не произойдет огромный прорыв в технологии/архитектуре, вероятность превышения этого порядка величины очень мала.

Мультимодальность: Слон в комнате

Мультимодальность – это слон в комнате, и она может существенно повлиять на ландшафт ипподрома.

Простое определение мультимодальности: поддержка ввода и вывода множественной модальной информации. Это определение очень расплывчато.Например, некоторые продукты на рынке, которые утверждают, что способны выполнять мультимодальный ввод, на самом деле представляют собой ChatBot со слоем OCR снаружи. Есть также модели, которые полностью соответствуют определению мультимодальности, но их производительность разочаровывает. Даже возможность мультимодального ввода изображений GPT-4 еще не получила широкого распространения.Видно, что эта функция не очень стабильна.

Однако мультимодальные запуски не за горами. Существует высокая вероятность того, что GPT-5 изначально поддерживает мультимодальность, а это означает, что структуру необходимо перепроектировать и переобучить. Согласно предыдущим рассуждениям, в параметрах больших моделей еще есть куда расти от 10 до 50 раз, и этого должно хватить, чтобы заложить в них мультимодальные возможности. Поэтому можно ожидать, что высокодоступные и высокопроизводительные мультимодальные модели появятся в течение 2 лет, а если быть оптимистами, то почти через 1 год.

Мультимодальность — это слон в комнате, все знают, что в конечном итоге что-то подобное произойдет, но многие продукты/исследования/стратегии игнорируют ее существование, поэтому в ключевых частях возникают неверные суждения.

Например, модели с одним изображением теоретически будут серьезно угнетены мультимодальными моделями, но в настоящее время большинство исследований/инвестиций игнорируют эту проблему, что приводит к чрезмерно высоким оценкам некоторых компаний, специализирующихся на моделях изображений. В будущем эти компании, скорее всего, потеряют технические барьеры и превратятся в поставщиков услуг.

Если вы хотите рассказать историю о том, что «инвестиции зависят от людей, одна и та же команда может провести трансформацию бизнеса», то я этого не говорил. Легенды существуют всегда, но в легенды нельзя верить, когда проводишь исследования.

Кто может тренировать GPT-4: можно, но не обязательно

Очистка эликсиров не занимает много времени, и крупные компании покупают видеокарты. Совершенно очевидно, что через год крупные компании смогут обучать модели уровня GPT-4. А вот тренироваться или нет – это другой вопрос.

В области игр существует классическое предложение под названием «Играйте в Genshin Impact с Genshin Impact», то есть: когда игроки могут выбрать игру в Genshin Impact или в конкурирующий продукт Genshin Impact, если конкурирующий продукт не так хорош, как Genshin Impact. Impact, тогда они смогут сыграть в Genshin Impact.Original God.

Этот подход «победитель получает все» также применим к крупномасштабной модельной индустрии. Если компания следует за OpenAI, то после полугода исследований и разработок запускает собственную масштабную модель с производительностью, сравнимой с 90% GPT-4, в надежде вывести ее на рынок. В это время компания столкнется со следующими проблемами:

• OpenAI обладает преимуществом масштабирования за счет облачных ресурсов и более низкими затратами.

• API OpenAI широко используется в кодах продуктов, и его сложно заменить.

•Показатели продукции компании по-прежнему не превышают GPT-4.

• Продукт следующего поколения OpenAI (вероятно, GPT-5) будет выпущен в ближайшее время.

Видно, что компания находится под значительным давлением. Вместо обучения GPT-4 лучше сделать ставку непосредственно на модель следующего поколения (по сравнению с GPT-5). Тогда проблема изменится с «проблемы аналогичного конкурирующего продукта» на «проблему технологических инноваций». Это непосильное бремя для небольших компаний.

Поэтому обсуждение «кто может обучать GPT-4» — стратегически мертвый вопрос. Вместо того, чтобы думать об этой проблеме, лучше найти направление с большей определенностью и возможностями.

Совет стартапам в сфере ИИ: ставьте производительность на первое место, не оставайтесь на месте

Автор написал много статей с жалобами на langchain. Основная причина в том, что langchain не оставляет разработчикам места для повышения производительности. Ее эвфемистически называют «универсальной структурой». Чтобы обеспечить универсальность, оставляются большие возможности для улучшения производительности больших моделей, таких как многораундовый диалог и управление форматом, реализуемое путем тонкой настройки. Точно так же существуют руководства/Auto-GPT/BabyAGI и т. д., все из которых хотят стать «фреймворком, который можно использовать всю жизнь».

Объективным фактом является то, что OpenAI выпустила Function Calling в мае, и многие проблемные места в коде имеют лучшие решения по реализации, а стоимость реализации лучшего решения — рефакторинг ключевых частей кода продукта. В августе OpenAI выпустила разрешения на тонкую настройку GPT-3.5, и многие ссылки, требующие точного контроля вывода, имеют новые потенциальные решения.

Таким образом, стартапы должны оказаться перед ключевым выбором: следует ли им выбрать: ① улучшать производительность и постоянно рефакторить продукты или ② сокращать использование новых функций и всегда использовать старые функции для разработки?

Для предпринимательства, связанного с приложениями новых технологий, «разработка» представляет собой не только процесс написания кода, но также представляет собой «верхний предел» функций/стратегий продукта. Чем выше производительность, которую можно контролировать, тем больше теоретических функций у продукта и тем выше стратегическая гибкость.

Развитие технологий невозможно предсказать, а небольшие технологические инновации могут привести к очень чувствительным изменениям в конкурентной среде.

—— Говоря человеческими словами: Работе следует уделять приоритетное внимание и избегать задержек. На уровне разработки используйте больше новых функций; на стороне продукта подумайте о том, какие функции могут выполнять новые функции; на стратегическом уровне рассмотрите влияние новых функций на стратегию.

В «Го Цинь Лунь» упоминалось, что после основания династии Цинь все металлическое оружие в мире было конфисковано и отлито в двенадцать бронзовых фигур, чтобы исключить возможность гражданского восстания. Но династия Цинь, как известно, просуществовала недолго. Полезнее обращать внимание на изменения, чем игнорировать их.

Совет стартапам в области ИИ: создавайте приложения с уверенностью

Существует очень распространенная скрытая опасность при применении начинающих компаний: появление крупных компаний. В число крупных компаний здесь входят не только гиганты приложений, такие как Meta/Byte/Tencent, но и представители отрасли искусственного интеллекта, такие как OpenAI.

Обычно крупные компании выходят на рынок по двум причинам: развивать возможности продукта и двигаться вверх и вниз по течению.

«Возможности макетирования продукта» — это буквальное значение. Крупные компании чувствуют, что это направление стоит развивать, поэтому они это делают.

«Отсечение нисходящего потока вверх по течению» - это по большей части беспомощный шаг. Возможно, это связано с тем, что я разработал крупномасштабную модель, сравниваемую с OpenAI, но из-за проблемы крупномасштабной модели, когда победитель получает все, есть нет пользователей, что приводит к сжиганию затрат, отсутствию доходов и отсутствию данных, что, в свою очередь, приводит к постепенному отставанию производительности. В настоящее время единственным выходом является врезание в даунстрим, разработка конкретных приложений и использование собственных технологий.

Согласно историческому опыту, из-за проблем организационной структуры, чем ближе компания к нисходящему течению, тем больше вероятность того, что ее технология отстанет, а чем дальше отстает ее технология, тем больше ей придется работать на нисходящем направлении. Эти так называемые технологические компании в конечном итоге будут конкурировать за ту же экологическую нишу, что и компании прикладного уровня.

Однако на поле битвы прикладного уровня, поскольку технология искусственного интеллекта существует совсем недавно, она не имеет эффективных и многоразовых преимуществ масштабирования.Отправные точки крупных компаний и стартапов схожи. По сравнению с крупными компаниями стартапы более эффективны и обладают более глубоким пониманием, что позволяет им легче воспользоваться преимуществами.

Примечательной ситуацией является то, что почти все рекламные материалы MS Azure сейчас вращаются вокруг OpenAI, но такая крупная фабрика, как Microsoft, полностью полагается на OpenAI как на свою платформу, что со стороны доказывает, что стартапы имеют естественные преимущества в области AI.

Конечно, некоторые поставщики облачных услуг, возможно, не смогут смириться с тем, что их возглавляют стартапы, и захотят сами съесть весь рынок. Это дорого, медленно и не представляет непосредственной угрозы.

Дело в том, что действительно существуют некоторые направления применения ИИ, которые очень недолговечны, но есть еще много долгоживущих направлений, которые еще не обнаружены, и применение ИИ не является вариантом, когда победитель получает все. Переход от приложения к платформе или технологии также является более реальным путем.

Поэтому нам следует рационально взглянуть на способность крупных компаний вторгаться на уровень приложений. Мы считаем, что стартапы, работающие с искусственным интеллектом, могут уверенно создавать приложения.

Совет стартапам в сфере ИИ: обратите внимание на жизненные пути продукта

Как упоминалось ранее, стартапы ИИ могут безопасно создавать приложения, но они должны учитывать производительность модели ИИ и избегать ее остановки. Эта ситуация напрямую проявляется в том, что продукты ИИ могут потерять свою базу спроса и постепенно увядать в течение нескольких месяцев, и такая ситуация может случаться часто.

Приложениям искусственного интеллекта необходимо использовать услуги больших моделей, а производительность больших моделей продолжает улучшаться. Это улучшение не является улучшением одного измерения, такого как «скорость», а изменением во всех аспектах, таких как качество вывода, длина вывода и управляемость вывода. Каждое существенное обновление технологии приведет к тому, что существующие продукты прикладного уровня будут отставать технологически и создавать новые возможности и конкурентов.

Мы называем время, когда приложения ИИ сохраняют преимущества и необходимость в стратегии/продукте/технологии, «спасательным кругом».

Вот несколько примеров более коротких линий жизни:

• Если ChatGPT/Claude поддерживает загрузку файлов, ChatPDF становится ненужным.

• Когда Office365 поддерживает Copilot, продукты, использующие ИИ для рисования PPT, теряют свое преимущество.

• С появлением GPT-3.5 необходимость в Jasper отпала

**Учитывая быстрое развитие индустрии искусственного интеллекта, ограниченность жизненных путей является нормой. Поэтому признание того факта, что линия жизни ограничена, и попытка выбрать направление с более длинной линией жизни для развития способствует сохранению долгосрочных преимуществ и необходимости продукта. **

Как правило, линии жизни можно просто разделить на уровни по 3/6/12 месяцев.

• 3 месяца: функции, которые крупные компании не успели реализовать (например, функции Office/ChatGPT, которые еще не успели реализовать).

• 6 месяцев: сложно внедрить и не может быть интегрировано в существующие решения, но преимущества/необходимость исчезнут с улучшением производительности ИИ (например, общей структуры ИИ).

• 12 месяцев: преимущества/необходимости могут существовать в течение длительного времени, и на них нелегко повлиять крупным компаниям/технологическим разработкам (например, Hugging Face).

*Жизненный цикл платформенных продуктов не обязательно длинный, ведь магазины тоже являются платформами.

Когда начинающая компания определяет свое направление, ей нужен всего лишь 6-месячный спасательный круг, а 12-месячный найти трудно.

Когда линия жизни продукта достигает конца, обычно возникают две ситуации. Первая ситуация заключается в том, что преимущества исчезают и необходимо реконструировать технологию обновления продукта. Обратите внимание на вышеизложенное «прежде всего производительность», вторая ситуация заключается в том, что необходимость исчезает, и продукт будет постепенно заменяться. В настоящее время продукт еще есть несколько месяцев «работы». «Продолжительность жизни» достаточна для того, чтобы стартапы могли выбрать следующее направление.

Совет стартапам, работающим с искусственным интеллектом: Web3+AI может это сделать

В настоящее время существует множество предпринимательских проектов по теме Web3+AI, но, учитывая неопределенность технологического развития и раннюю стадию рынка, тема Web3+AI все еще имеет много переменных в будущем.

Целью этой статьи является поиск среди неопределенностей определенностей с высокой вероятностью быть правильными. Поэтому автор все еще надеется почерпнуть вдохновение и предложить некоторые темы и направления, на которые могут ссылаться начинающие компании и заинтересованные исследователи.

Де-суверенитет/децентрализация

В настоящее время лидеры индустрии искусственного интеллекта предоставляют только модели с закрытым исходным кодом, а стабильность, прозрачность и нейтральность их непрерывного предоставления услуг не поддаются контролю. Десуверенитет/децентрализация может стать важной темой в индустрии ИИ, то есть предоставление стабильных, прозрачных и нейтральных услуг ИИ на основе базовой архитектуры десуверенитета/децентрализации.

Десуверенизация/децентрализация — это «альтернативное решение» и «сдерживание», которое может значительно увеличить неэтичные издержки централизованных/суверенных компаний ИИ и помешать им использовать модели ИИ в военных, культовых, политических и других аспектах.

В крайних случаях, когда централизованные/суверенные сервисы ИИ по какой-то причине больше не доступны/не доверяют, десуверенный/децентрализованный ИИ может продолжать предоставлять высокодоступные услуги, чтобы предотвратить потерю ИИ отдельными странами/регионами и даже человечеством.

Практическое использование вычислительной мощности

За переходом ETH от PoW к PoS стоит критикуемая дилемма: «майнинг не создает ценности», а сочетание Web3 и искусственного интеллекта может обеспечить практический сценарий для вычислительной мощности, чтобы реализовать использование имеющихся вычислительных мощностей и способствовать росту. общей вычислительной мощности и т. д. Эффект.

Виртуальные активы

ИИ — это актив, связанный с вычислительной мощностью и хранилищем.Сочетание Web3 и ИИ может обеспечить канал для преобразования ИИ в виртуальные активы и создания реальных собственных виртуальных активов для Web3, одновременно реализуя реализацию ценности индустрии ИИ.

Варианты для приложений Web3

Сочетание Web3 и искусственного интеллекта может принести новые функциональные возможности и возможности роста для приложений Web3, а существующие приложения Web3 могут быть полностью переделаны.

В конце написано: сентябрь, стоит ли нынешний ИИ начинать бизнес

Позвольте мне сначала сказать о выводе: оно того стоит, и этот вывод с большой вероятностью можно будет использовать до китайского Нового года.

Восприятие ситуаций людьми зачастую предвзятое, и я не исключение. Некоторые люди слишком оптимистичны, а некоторые слишком пессимистичны. Автор однажды общался с двумя командами. Одна команда считает, что сможет создать ИИ-агента в первом квартале следующего года, а другая считает, что ИИ подходит только для управления базами знаний. Очевидно, первая слишком оптимистична, а другая - последнее слишком пессимистично.

При построении долгосрочных планов чрезмерный оптимизм или слишком пессимизм могут привести к ловушкам, а широко распространенные замечания часто являются весьма предвзятыми замечаниями, что делает независимое мышление чрезвычайно ценным. Поэтому, независимо от того, сможет ли читатель принять точку зрения этой статьи, пока читатель обладает независимым мышлением и суждениями в процессе чтения, автор будет чрезвычайно доволен.

Наконец, разместите рекламу. Если у вас есть хорошие предпринимательские идеи в области ИИ или уже сформированы проекты, добро пожаловать к общению с друзьями из NGC (такими как я) в любое время.

Мы идентифицируем проекты с прорывными инновациями, стремясь решать проблемы с помощью решений, которые характеризуются простотой, доступностью затрат, скоростью, уникальностью и убедительным соответствием продукта рынку.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить