Первый вариант этой статьи был написан во время рыбалки в выходной день в конце августа.После поспешной публикации я получил много советов, поэтому автор добавил, изменил и удалил некоторый контент, чтобы не рассмешить людей.
Содержание этой статьи в основном предназначено для оценки текущей ситуации в отрасли ИИ с точки зрения инвестиций, размышлений и предположений о маршрутах технологий/продуктов различных компаний, а также абстрагирования стратегий компаний в области ИИ. промышленность. Поэтому, когда дело касается конкретных технологий, неизбежно возникают некоторые упущения, поэтому, пожалуйста, будьте терпеливы.
Но в конечном итоге несколько крупных компаний, которые могут публиковать статьи, все еще развалены, и никто, похоже, не в состоянии оценить корректность содержания этой статьи. Точно так же, как оценка GPT-3.5 с помощью GPT-4, это кажется разумным, но, если задуматься, это немного абстрактно.
Поэтому автор предлагает рассматривать данную статью как «суждение», сложившееся после сбора информации о неопределенных отраслях. Поскольку это суждение, позиция должна быть ясна и должно быть что сказать. А судить о том, правильно это или нет, мы оставим на усмотрение времени.
Автор всегда считал, что новые отрасли шумны, поэтому всегда правильно больше использовать свой мозг и осмелиться выносить суждения. Что касается вопроса о суждении, то вероятность правильного угадывания вслепую составляет 50%, а вероятность того, что вы угадаете три раза подряд неправильно, составляет 12,5%. Вынести суждение не страшно, но самое ужасное, что точность суждения ниже, чем при бросании монеты.
Прежде чем официально открыть эту статью, я хотел бы поблагодарить следующую работу, которая послужила ценным источником вдохновения и данных для этой статьи. Конечно, поскольку многие выводы в этой статье основаны на этих работах, если в ней есть ошибки или ошибочное понимание автора, выводы в этой статье перестанут быть надежными, и читателям предлагается судить самостоятельно. Эта статья не представляет собой инвестиционную рекомендацию, а ее сложно считать инвестиционной рекомендацией.
Центр цепочки мыслей: постоянные усилия по измерению эффективности рассуждений на больших языковых моделях(
ЛИМА: для согласования меньше, да лучше(
Июнь 2023 г., поэтапный обзор настройки инструкций(
Архитектура GPT-4, инфраструктура, набор обучающих данных, затраты, концепция, Министерство образования(
Хорошо, давайте официально начнем эту статью.
Большая модель: запуск кибер-ракеты
Первым шагом в обсуждении ИИ в 2023 году станет обсуждение возможности развития крупномасштабного предпринимательства.
Большая модель (предварительная подготовка) теперь трансформировалась в задачу запуска ракеты: пока огонь начат и направление правильное, это может сделать каждый. Можно сказать, что обучение больших моделей похоже на запуск киберракет.
Это противоречит здравому смыслу: инвесторы недооценивают сложность обучения больших моделей, но переоценивают сложность запуска реальных ракет. При той же стоимости в 60 миллионов долларов США инвесторы почувствуют, что есть второй шанс на неудачный запуск ракеты, а неспособность обучить большую модель считается пустой тратой денег.
GPT-4 по-прежнему потребляет 60 миллионов долларов США на эффективность использования графического процессора OpenAI (сообщается, что он составляет примерно 30%). Это вопрос {производительность = эффективность × стоимость}, и производительность является барьером.
В настоящее время многие компании, претендующие на обучение больших моделей, имеют раунды финансирования в диапазоне от 1 до 5 миллионов долларов США. Другими словами, даже у компаний с самым большим объемом финансирования боеприпасов достаточно только для поддержки одного запуска. Даже если загрузка графического процессора при этом запуске достигнет 100%, превзойти GPT-4 будет сложно.
С этой точки зрения лучше запускать ракеты, потому что большинство нынешних ракет являются ракетами-носителями, несущими спутники в небо, а грузоподъемность единичной нагрузки ограничена, поэтому небольшие ракетные компании могут принимать заказы на спутники, которые другие не успели запускать.
Большая модель отличается: предельные затраты на горизонтальное расширение большой модели - это только стоимость вычислительной мощности, а стоимость вычислительной мощности может расширяться эластично, что означает, что для компании с большой моделью прибыль от каждого заказа Это бесплатная прибыль., дополнительных затрат почти нет, а объем предприятия очень велик. Для недавно созданных крупных модельных компаний с низким качеством трудно получить избыточный спрос.
Если затраты на обучение существенно не снизятся, даже если известна вся архитектура GPT-4, многим компаниям будет сложно создавать крупные модели, которые можно будет вывести на рынок в краткосрочной перспективе.
Кастомизация: решение проблемы «победитель получает все»
В отрасли производства оборудования обычным явлением является получение ранней прибыли за счет индивидуальных потребностей, а затем достижение технологических прорывов (или выравнивания) за счет ранней прибыли. Однако индивидуализация в индустрии крупных моделей вряд ли является отдушиной для новых участников.
Что касается этого суждения, то объяснение очень простое: большинство точно настроенных моделей не могут догнать GPT-4.Меньше требований к данным. Пока существует разрыв в производительности между GPT-4 и другими моделями, кастомизация не может быть решением для крупных модельных компаний.
Очень типичный пример — Jasper, который использует доработанный GPT-3 для обслуживания корпоративных клиентов, однако после того, как OpenAI выпустила ChatGPT (GPT-3.5), его пользователи быстро проиграли. Потому что выходные данные Джаспера можно получить, просто введя GPT-3.5, без использования «обратной версии», которая плохо обобщает и ограничивается внутренним использованием.
По сравнению с новыми компаниями, у Jasper, по крайней мере, есть период окна от GPT-3 до GPT-3.5 для разработки. Однако теперь новым компаниям приходится одновременно сталкиваться с проблемой недорогих, высокоскоростных GPT-3.5 и высокопроизводительных GPT-4.
Таким образом, вероятность выживания на пути накопления прибыли за счет настройки для достижения технологических прорывов очень низка.
Тонкая настройка: необходима, не будьте суеверны
Нынешняя индустрия искусственного интеллекта возлагает нереалистичные ожидания на тонкую настройку, которая переоценена как с точки зрения конкретной технической реализации, так и с точки зрения технического ритма на макроуровне.
Тонкая настройка, обсуждаемая в настоящее время в отрасли, в основном относится к «основанной на предварительно обученной модели, чтобы она могла генерировать ответы, соответствующие намерениям человека». Такую тонкую настройку можно назвать «выравниванием», то есть согласовывать ответы с намерениями человека, а не добавлять интеллект к большой модели.
Согласно результатам исследований многих работ, знание больших моделей должно в основном происходить в результате предварительного обучения, тогда как точная настройка больше используется для выравнивания.
Простое объяснение состоит в том, что предварительная тренировка определяет возможности мозга, а тонкая настройка определяет родной язык. Точная настройка предварительно обученной модели — это процесс «ликвидации неграмотности».
Однако в отрасли точная настройка часто рассматривается как метод «добавления интеллекта» модели, то есть улучшения производительности модели и увеличения знаний модели посредством тонкой настройки. Считается, что таким образом достигается «Святой Грааль». искусственного интеллекта». Эта линия мышления несколько предвзята.
Прежде всего, производительность самой модели не улучшилась, но она может лучше соответствовать намерениям человека. Это все равно, что заставить человеческий мозг выполнять квантовые вычисления. И дело не в образовании, если это невозможно.
Во-вторых, «дополнение знаний» выполняется в части «выравнивание намерений», и эффект больше похож на «попугайство». То есть: модель просто имитирует то, что говорят эксперты, не понимая смысла. Хотя многие отрасли смогли получить хорошие решения путем «повторения» (в конце концов, большинство отраслей не сложны...), очевидно, что это не тот результат, к которому мы должны стремиться в долгосрочной перспективе.
Наконец, обучение «дополнению дополнительных наборов данных, улучшению производительности модели и расширению знаний модели» следует рассматривать как модель, имеющую возможность «постепенного/непрерывного обучения», то есть все параметры модели могут обрабатываться посредством дополнительная оптимизация наборов данных. Это понятие не относится к той же категории, что и так называемая «тонкая настройка инструкций».
В общем, доводка очень важна, но неправильно относиться "суеверно" к текущей доработке, тем более торопиться запечатать текущую доработку как Святой Грааль, который вполне "на стройке" современной физики «Плывут только два темных облака».
Сделаем шаг назад: если необходимость «повышения мудрости» действительно может быть решена путем тонкой настройки инструкций, выполнения простого векторного поиска, прямого подключения знаний к контексту и простого написания нескольких шаблонов, то существует высокая вероятность вероятность того, что мы сможем получить такие же или даже лучшие результаты.
Тонкая настройка нравится всем, возможно, это своего рода возрождение навыков алхимии в наше время...
Перспективы больших моделей: четыре арифметических операции
(Обратите внимание, что эта часть контента полностью основана на данных, раскрытых Диланом Пателем, и достоверность пока не может быть проверена)
Обучение GPT-4 основано на серии карт N. Эффективность обучения 30%. Время обучения около 2 месяцев. Стоимость около 60 миллионов. Общая сумма параметров {1,7 триллиона = 110 миллиардов × 16 экспертных моделей}. Он может решить одну задачу. Параметр составляет около 280 миллиардов.
Другими словами, есть несколько ключевых параметров, которые вызовут изменения в схеме обучения больших моделей.
Эффективность обучения: увеличение с 30% до 60% может напрямую сократить время вдвое.
Повышенная интенсивность вычислительной мощности: после перехода с серии A на серию H, а затем на выделенную карту AI плотность вычислительной мощности улучшается, и многие проблемы, влияющие на эффективность архитектуры, могут быть решены.
Стоимость вычислительной мощности снизилась: Лао Хуан (основатель Nvidia) делает скидки на видеокарты, что приводит к значительному снижению затрат.
Повышение эффективности параметров: есть возможности для улучшения эффективности параметров модели. Ссылаясь на прошлое, эффективность параметров новой модели обычно можно улучшить во много раз по сравнению со старой моделью. Можно использовать 30% параметров GPT-4 для достижения аналогичных эффектов.
Подводя итог, можно сказать, что стоимость обучения модели с производительностью уровня GPT-4 с нуля может в 10–20 раз превышать возможности для оптимизации, что сокращается до $3–6 млн. Эти затраты очень рентабельны для стартапов. и крупные компании более приемлемы.
Это изменение может занять около 2 лет.
В настоящее время технология основной большой модели по-прежнему основана на трансформаторе, базовая структура не изменилась, а идея творить чудеса с помощью алхимии и параметров не исчерпана. Обучение GPT-4 осуществляется на основе большого лимита вычислительной мощности, а время обучения недостаточно велико.
Если параметры растут линейно со временем обучения, то верхний предел параметров для модели с архитектурой, аналогичной GPT-4, может составлять около 10 триллионов, то есть: вдвое больше времени обучения (× 2) и вдвое больше параллельных видеокарт ( × 2), эффективность обучения вдвое быстрее (× 1,5), эффективность параметра вдвое выше (× 1,5), и, наконец, получается десятикратный результат. Согласно стилю склонности к риску Кремниевой долины, высокая вероятность достижения этого параметра будет достигнута в течение года, независимо от того, улучшились показатели или нет.
Однако после достижения 10 триллионов параметров совершенно неизвестно, сможет ли LLM еще использовать идею увеличения параметров для достижения чудес.
Если количество параметров улучшает производительность модели с уменьшающейся разницей, то 10 триллионов, вероятно, станут препятствием. Однако существует также гипотеза, что количество параметров улучшает производительность модели при незначительном увеличении, подобно тому, как «если человек достаточно умен, он может всему научиться быстро». Первое — это нормально, но если второе сбудется, производительность модели может улучшиться в геометрической прогрессии, и то, что произойдет тогда, будет совершенно непредсказуемым.
Трудно предсказать алхимию, но легко предсказать ритм корпоративной стратегии. Модель с общим параметром 10 триллионов является конечной точкой вехового уровня для большинства предприятий, будь то гигант вроде Google/MS/APPL или меньшая OpenAI, и на ней можно остановиться и провести некоторые технические исследования.
Предпочтение предприятий/капитала риску можно конвертировать в «время выдержки»: если все время выдержки – это интенсивно сжигаемые расходы, то превысить 6 месяцев будет сложно. Человеческое мастерство растёт недостаточно быстро, обычно за цикл в 5 и более лет. Таким образом, в течение 5 лет можно оценить предельное количество параметров модели, которое должно составлять от 20 до 50 триллионов. Если снова не произойдет огромный прорыв в процессе/архитектуре, вероятность превышения этого порядка величины очень мала.
Мультимодальность: слон в комнате
Мультимодальность – это слон в комнате, и она может существенно повлиять на ландшафт ипподрома.
Простое определение мультимодальности: поддержка ввода и вывода множественной модальной информации. Это определение очень расплывчато. Например, некоторые продукты на рынке, которые утверждают, что способны выполнять мультимодальный ввод, на самом деле являются слоем OCR вне ChatBot. Есть также модели, которые полностью соответствуют определению мультимодальности, но их характеристики не впечатляют. Даже возможность мультимодального ввода изображений GPT-4 не получила широкого распространения, и видно, что эта функция не очень стабильна.
Однако мультимодальные запуски не за горами. Существует высокая вероятность того, что GPT-5 изначально поддерживает мультимодальность, а это означает, что структуру необходимо перепроектировать и переобучить. Согласно предыдущим рассуждениям, параметры большой модели все еще имеют пространство для роста в 10–50 раз, и этого должно быть достаточно, чтобы заложить в нее мультимодальные возможности. Поэтому можно ожидать, что высокодоступные и высокопроизводительные мультимодальные модели появятся в течение 2 лет, а если быть оптимистами, то почти через 1 год.
Мультимодальность — это слон в комнате, все знают, что рано или поздно она появится, но так много продуктов/исследований/стратегий игнорируют ее существование, что в ключевых моментах происходит просчет.
Например, модели с одним имиджем теоретически могут серьезно угнетаться мультимодальными моделями, но в настоящее время большинство исследований и инвестиций игнорируют эту проблему, что приводит к переоценке некоторых компаний, ориентированных на имидж. В будущем эти компании, скорее всего, потеряют технические барьеры и превратятся в поставщиков услуг.
Если вы хотите рассказать историю о том, что «инвестиции зависят от людей, одна и та же команда может провести трансформацию бизнеса», то я этого не говорил. Легенды существуют всегда, но в легенды нельзя верить, когда проводишь исследования.
Кто может тренировать GPT-4: Можно, но не обязательно
Создание алхимии не занимает много времени, и крупные компании покупают видеокарты. Совершенно очевидно, что через год крупные компании смогут обучать модели уровня GPT-4. А вот тренироваться или нет – это другой вопрос.
В области игр существует классическое предложение под названием «Юаньшин играет в Юаньшэнь», то есть: когда игроки могут выбирать, играть в Юаньшэнь или конкурирующий продукт Юаньшэнь, если конкурирующий продукт не так хорош, как Юаньшэнь, тогда играют в Первородного Бога. .
Этот подход «победитель получает все» также применим к крупной модельной индустрии. Если компания следует за OpenAI, то после полугода исследований и разработок она запускает собственную большую модель с производительностью на 90% сравнимой с GPT-4, надеясь вывести ее на рынок. В это время компания столкнется со следующими проблемами:
OpenAI имеет преимущество масштабирования благодаря облачным ресурсам и более низким затратам.
API OpenAI широко используется в кодах продуктов, и заменить его сложно.
*Продукт компании по-прежнему не превосходит GPT-4.
Продукт следующего поколения OpenAI (возможно, GPT-5) будет выпущен в ближайшее время.
Видно, что компания находится под значительным давлением. Вместо обучения GPT-4 лучше сделать ставку непосредственно на модель следующего поколения (по сравнению с GPT-5). Тогда проблема изменится с «проблемы аналогичного конкурирующего продукта» на «проблему технологических инноваций». Это бремя, которое малые компании не могут нести.
Поэтому обсуждение «кто может обучать GPT-4» — стратегически мертвый вопрос. Вместо того, чтобы думать об этой проблеме, лучше найти направление с большей определенностью и возможностями.
Совет стартапам в области ИИ: ставьте производительность на первое место, не оставайтесь на месте
Автор написал много статей с жалобами на langchain. Основная причина в том, что langchain не оставляет разработчикам места для повышения производительности. Ее эвфемистически называют «универсальной структурой». Чтобы обеспечить универсальность, оставляются большие возможности для улучшения производительности больших моделей, таких как многораундовый диалог и управление форматом, реализуемое путем тонкой настройки. Подобные включают в себя руководство/Auto-GPT/BabyAGI и т. д., все из которых хотят создать «структуру, которая может прослужить всю жизнь».
Объективным фактом является то, что OpenAI выпустила «Вызов функций» в мае.Многие проблемные места в коде имеют лучшие решения по реализации, а стоимость внедрения лучших решений — реконструкция ключевых частей кода продукта. В августе OpenAI выпустила разрешения на тонкую настройку GPT-3.5, и многие ссылки, требующие точного контроля вывода, имеют новые потенциальные решения.
Таким образом, стартапы должны оказаться перед ключевым выбором: следует ли им выбрать: ① улучшать производительность и постоянно рефакторить продукты или ② сокращать использование новых функций и всегда использовать старые функции для разработки?
Для предпринимательства в области приложений новых технологий «разработка» представляет собой не только процесс написания кода, но также представляет собой «верхний предел» функциональности/стратегии продукта. Чем выше производительность, которую можно контролировать, тем больше теоретических функций имеет продукт и тем выше его стратегическая гибкость.
Развитие технологий непредсказуемо, и незначительные технологические инновации могут привести к очень чувствительным изменениям в конкурентной среде.
—— Говоря человеческими словами: отдавайте приоритет производительности и избегайте остановок. На уровне разработки используйте больше новых функций; на стороне продукта подумайте о том, какие функции могут выполнять новые функции; на стратегическом уровне учтите влияние новых функций на стратегию.
В «Го Цинь Лунь» упоминалось, что после основания династии Цинь все металлическое оружие в мире было конфисковано и отлито в двенадцать бронзовых фигур, чтобы исключить возможность гражданского восстания. Но династия Цинь, как известно, просуществовала недолго. Полезнее обращать внимание на изменения, чем игнорировать их.
Совет начинающим ИИ-стартапам: создавайте приложения с уверенностью
Когда стартапы разрабатывают приложения, существует очень распространенная скрытая опасность: появление крупных компаний. К крупным компаниям здесь относятся не только гиганты приложений, такие как Meta/Byte/Tencent и т. д., но и ведущие отрасли ИИ-индустрии, такие как OpenAI.
Обычно крупные компании выходят на рынок по двум причинам: развивать возможности продукта и двигаться вверх и вниз по течению.
«Развитие возможностей продукта» — это буквальное значение. Крупные компании чувствуют, что этим направлением стоит заниматься, и поэтому они этим занимаются.
"Отсечение восходящего и нисходящего потока" - это по большей части беспомощный шаг. Возможно, это связано с тем, что мы разработали большую модель, сравнимую с OpenAI. Однако из-за проблемы больших моделей, когда победитель получает все, нет пользователей, что приводит к сжигание затрат, отсутствие доходов и отсутствие данных, что, в свою очередь, приводит к постепенному отставанию производительности. В настоящее время единственными вариантами являются переход к нисходящей технологической цепочке, разработка конкретных приложений и использование собственных технологий.
Согласно историческому опыту, из-за проблем организационной структуры, чем ближе компания к нисходящему течению, тем больше вероятность того, что ее технология отстанет, а чем дальше ее технология отстает, тем больше ей придется работать на нисходящем направлении. Эти так называемые технологические компании в конечном итоге будут конкурировать за ту же экологическую нишу, что и компании прикладного уровня.
Однако на поле битвы прикладного уровня, поскольку технология искусственного интеллекта существует совсем недавно, она не имеет эффективных и многоразовых преимуществ масштабирования.Отправные точки крупных компаний и стартапов схожи. По сравнению с крупными компаниями стартапы более эффективны и обладают более глубоким пониманием, что позволяет им легче воспользоваться преимуществами.
Примечательной ситуацией является то, что почти все рекламные материалы MS Azure сейчас вращаются вокруг OpenAI, но такая крупная фабрика, как Microsoft, полностью полагается на OpenAI как на свою платформу, что со стороны доказывает, что стартапы имеют естественные преимущества в области AI.
Конечно, некоторые поставщики облачных услуг, возможно, не смогут смириться с тем, что их возглавляют стартапы, и захотят съесть весь рынок самостоятельно. Это дорого, медленно и не представляет непосредственной угрозы.
Дело в том, что действительно существуют некоторые недолговечные пути развития приложений ИИ, но есть еще много долгоживущих путей, которые еще не обнаружены, и приложения ИИ не являются принципом «победитель получает все». Переход от приложения к платформе или технологии также является более реальным путем.
Поэтому мы должны рационально подходить к способности крупных компаний проникать на уровень приложений. Мы полагаем, что стартапы в сфере ИИ могут с уверенностью создавать приложения.
Совет стартапам в сфере ИИ: обратите внимание на жизненный путь продукта
Как упоминалось ранее, стартапы ИИ могут безопасно создавать приложения, но они должны учитывать производительность модели ИИ и избегать ее остановки. Эта ситуация напрямую проявляется в том, что продукты ИИ могут потерять свою базу спроса и постепенно увядать в течение нескольких месяцев, и такая ситуация может случаться часто.
Приложениям искусственного интеллекта требуются сервисы, использующие большие модели, а производительность больших моделей продолжает улучшаться. Это улучшение не является одномерным улучшением, таким как «скорость», а общим изменением качества вывода, длины вывода и управляемости вывода. Каждое существенное обновление технологии приведет к отставанию технологий существующих продуктов прикладного уровня и созданию новых возможностей и конкурентов.
**Мы называем время, когда приложения ИИ сохраняют преимущества и необходимость в стратегии/продукте/технологии, «спасательным кругом». **
Вот несколько примеров более коротких линий жизни:
Если ChatGPT/Claude поддерживает загрузку файлов, ChatPDF больше не понадобится.
Когда Office 365 поддерживает Copilot, продукты, использующие ИИ для рисования PPT, потеряют свои преимущества.
Когда появится GPT-3.5, Джаспер больше не понадобится
**Учитывая быстрое развитие индустрии искусственного интеллекта, ограниченность жизненных путей является нормой. Поэтому принятие того факта, что линия жизни ограничена, и попытка выбрать направление с более длинной линией жизни для развития способствует сохранению долгосрочных преимуществ и необходимости продукта. **
Как правило, линию жизни можно просто разделить на уровни по 3/6/12 месяцев.
3 месяца: Функции, которые крупные компании не успели реализовать (например, функции Office/ChatGPT, которые еще не успели реализовать).
6 месяцев: сложно внедрить и не может быть интегрировано в существующие решения, но преимущества/необходимость исчезнут по мере улучшения производительности ИИ (например, общая структура ИИ).
12 месяцев: преимущества/необходимости могут существовать в течение длительного времени, и на них не могут легко повлиять крупные компании/технологические разработки (например, Hugging Face).
*Жизненный цикл платформенных продуктов не обязательно длинный, ведь магазины тоже являются платформами.
Когда начинающая компания определяет свое направление, ей нужен всего лишь 6-месячный спасательный круг, а 12-месячный — найти сложно.
Когда линия жизни продукта достигает конца, обычно возникают две ситуации. Первая ситуация заключается в том, что преимущества исчезают, и технология обновления продукта должна быть реконструирована, пожалуйста, обратитесь к вышеуказанному «производительность в первую очередь», вторая ситуация заключается в том, что необходимость исчезает, и продукт будет постепенно заменяться. у продукта еще есть несколько месяцев «жизни работы», достаточные для того, чтобы стартапы могли выбрать следующее направление.
Совет стартапам, работающим с искусственным интеллектом: Web3+AI может помочь
В настоящее время существует множество предпринимательских проектов по теме Web3+AI, однако, учитывая неопределенность развития технологий и раннюю стадию рынка, тема Web3+AI все еще будет иметь много переменных в будущем.
Цель этой статьи - найти правильную уверенность с высокой вероятностью в неопределенности.Поэтому автор все же надеется высказать некоторые идеи и предложить некоторые темы и направления, которые могут иметь возможности для ссылки начинающих компаний и заинтересованных исследователи.
Де-суверенитет/децентрализация
В настоящее время лидеры индустрии искусственного интеллекта предоставляют только модели с закрытым исходным кодом, а стабильность, прозрачность и нейтральность их дальнейшего предоставления услуг не поддаются контролю. Десуверенитет/децентрализация может стать важной темой в индустрии искусственного интеллекта, а именно: на основе базовой структуры десуверенитета/децентрализации предоставлять стабильные, прозрачные и нейтральные услуги искусственного интеллекта.
Десуверенитет/децентрализация — это «альтернатива» и «шок», который может значительно увеличить аморальные издержки централизованных/суверенных компаний ИИ и помешать им использовать модели ИИ в военной и культовой сфере, политике и т. д.
В крайних случаях, когда централизованные/суверенные сервисы ИИ по какой-то причине больше не доступны/не доверяют, десуверенный/децентрализованный ИИ может продолжать предоставлять высокодоступные услуги, чтобы предотвратить потерю ИИ отдельными странами/регионами и даже человечеством.
Практичность вычислительной мощности
За переходом ETH от PoW к PoS стоит критикуемая дилемма «майнинг не создает ценности». мощность и т. д. Эффект.
Виртуальная активизация
ИИ — это актив, связанный с вычислительными мощностями и хранилищем. Сочетание Web3 и ИИ может обеспечить канал для преобразования ИИ в виртуальные активы. Создавая ценность отрасли ИИ, он также может создавать настоящие собственные виртуальные активы для Web3.
Переменные для приложений Web3.
Сочетание Web3 и искусственного интеллекта может принести новые функциональные возможности и возможности роста для приложений Web3, а существующие приложения Web3 могут быть полностью переделаны.
В конце написано: Сентябрь, стоит ли нынешний ИИ начинать бизнес?
Начну с вывода: оно того стоит, и этот вывод, скорее всего, можно будет использовать до китайского Нового года.
Восприятие ситуаций людьми зачастую предвзятое, и я не исключение. Некоторые люди слишком оптимистичны, а некоторые слишком пессимистичны. Автор однажды общался с двумя командами. Одна команда считает, что сможет создать ИИ-агента в первом квартале следующего года, а другая считает, что ИИ подходит только для управления базами знаний. Очевидно, первая слишком оптимистична, а другая - последнее слишком пессимистично.
При долгосрочном планировании в яму попадают как слишком оптимистичные, так и слишком пессимистичные, а широко распространенные замечания часто содержат большие отклонения, поэтому независимое мышление очень ценно. Поэтому, независимо от того, смогут ли читатели принять точку зрения этой статьи, пока читатели имеют независимое мышление и суждения в процессе чтения, автор будет очень доволен.
Наконец, разместите рекламу. Если у вас есть хорошая предпринимательская идея в области искусственного интеллекта или вы уже сформировали проект, приглашаем вас в любое время пообщаться с друзьями из NGC (такими как я).
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
NGC Ventures: Сейчас сентябрь, стоит ли ИИ сейчас начинать бизнес?
Автор: Черри, NGC Ventures
Предисловие
Первый вариант этой статьи был написан во время рыбалки в выходной день в конце августа.После поспешной публикации я получил много советов, поэтому автор добавил, изменил и удалил некоторый контент, чтобы не рассмешить людей.
Содержание этой статьи в основном предназначено для оценки текущей ситуации в отрасли ИИ с точки зрения инвестиций, размышлений и предположений о маршрутах технологий/продуктов различных компаний, а также абстрагирования стратегий компаний в области ИИ. промышленность. Поэтому, когда дело касается конкретных технологий, неизбежно возникают некоторые упущения, поэтому, пожалуйста, будьте терпеливы.
Но в конечном итоге несколько крупных компаний, которые могут публиковать статьи, все еще развалены, и никто, похоже, не в состоянии оценить корректность содержания этой статьи. Точно так же, как оценка GPT-3.5 с помощью GPT-4, это кажется разумным, но, если задуматься, это немного абстрактно.
Поэтому автор предлагает рассматривать данную статью как «суждение», сложившееся после сбора информации о неопределенных отраслях. Поскольку это суждение, позиция должна быть ясна и должно быть что сказать. А судить о том, правильно это или нет, мы оставим на усмотрение времени.
Автор всегда считал, что новые отрасли шумны, поэтому всегда правильно больше использовать свой мозг и осмелиться выносить суждения. Что касается вопроса о суждении, то вероятность правильного угадывания вслепую составляет 50%, а вероятность того, что вы угадаете три раза подряд неправильно, составляет 12,5%. Вынести суждение не страшно, но самое ужасное, что точность суждения ниже, чем при бросании монеты.
Прежде чем официально открыть эту статью, я хотел бы поблагодарить следующую работу, которая послужила ценным источником вдохновения и данных для этой статьи. Конечно, поскольку многие выводы в этой статье основаны на этих работах, если в ней есть ошибки или ошибочное понимание автора, выводы в этой статье перестанут быть надежными, и читателям предлагается судить самостоятельно. Эта статья не представляет собой инвестиционную рекомендацию, а ее сложно считать инвестиционной рекомендацией.
Хорошо, давайте официально начнем эту статью.
Большая модель: запуск кибер-ракеты
Первым шагом в обсуждении ИИ в 2023 году станет обсуждение возможности развития крупномасштабного предпринимательства.
Большая модель (предварительная подготовка) теперь трансформировалась в задачу запуска ракеты: пока огонь начат и направление правильное, это может сделать каждый. Можно сказать, что обучение больших моделей похоже на запуск киберракет.
Это противоречит здравому смыслу: инвесторы недооценивают сложность обучения больших моделей, но переоценивают сложность запуска реальных ракет. При той же стоимости в 60 миллионов долларов США инвесторы почувствуют, что есть второй шанс на неудачный запуск ракеты, а неспособность обучить большую модель считается пустой тратой денег.
GPT-4 по-прежнему потребляет 60 миллионов долларов США на эффективность использования графического процессора OpenAI (сообщается, что он составляет примерно 30%). Это вопрос {производительность = эффективность × стоимость}, и производительность является барьером.
В настоящее время многие компании, претендующие на обучение больших моделей, имеют раунды финансирования в диапазоне от 1 до 5 миллионов долларов США. Другими словами, даже у компаний с самым большим объемом финансирования боеприпасов достаточно только для поддержки одного запуска. Даже если загрузка графического процессора при этом запуске достигнет 100%, превзойти GPT-4 будет сложно.
С этой точки зрения лучше запускать ракеты, потому что большинство нынешних ракет являются ракетами-носителями, несущими спутники в небо, а грузоподъемность единичной нагрузки ограничена, поэтому небольшие ракетные компании могут принимать заказы на спутники, которые другие не успели запускать.
Большая модель отличается: предельные затраты на горизонтальное расширение большой модели - это только стоимость вычислительной мощности, а стоимость вычислительной мощности может расширяться эластично, что означает, что для компании с большой моделью прибыль от каждого заказа Это бесплатная прибыль., дополнительных затрат почти нет, а объем предприятия очень велик. Для недавно созданных крупных модельных компаний с низким качеством трудно получить избыточный спрос.
Если затраты на обучение существенно не снизятся, даже если известна вся архитектура GPT-4, многим компаниям будет сложно создавать крупные модели, которые можно будет вывести на рынок в краткосрочной перспективе.
Кастомизация: решение проблемы «победитель получает все»
В отрасли производства оборудования обычным явлением является получение ранней прибыли за счет индивидуальных потребностей, а затем достижение технологических прорывов (или выравнивания) за счет ранней прибыли. Однако индивидуализация в индустрии крупных моделей вряд ли является отдушиной для новых участников.
Что касается этого суждения, то объяснение очень простое: большинство точно настроенных моделей не могут догнать GPT-4.Меньше требований к данным. Пока существует разрыв в производительности между GPT-4 и другими моделями, кастомизация не может быть решением для крупных модельных компаний.
Очень типичный пример — Jasper, который использует доработанный GPT-3 для обслуживания корпоративных клиентов, однако после того, как OpenAI выпустила ChatGPT (GPT-3.5), его пользователи быстро проиграли. Потому что выходные данные Джаспера можно получить, просто введя GPT-3.5, без использования «обратной версии», которая плохо обобщает и ограничивается внутренним использованием.
По сравнению с новыми компаниями, у Jasper, по крайней мере, есть период окна от GPT-3 до GPT-3.5 для разработки. Однако теперь новым компаниям приходится одновременно сталкиваться с проблемой недорогих, высокоскоростных GPT-3.5 и высокопроизводительных GPT-4.
Таким образом, вероятность выживания на пути накопления прибыли за счет настройки для достижения технологических прорывов очень низка.
Тонкая настройка: необходима, не будьте суеверны
Нынешняя индустрия искусственного интеллекта возлагает нереалистичные ожидания на тонкую настройку, которая переоценена как с точки зрения конкретной технической реализации, так и с точки зрения технического ритма на макроуровне.
Тонкая настройка, обсуждаемая в настоящее время в отрасли, в основном относится к «основанной на предварительно обученной модели, чтобы она могла генерировать ответы, соответствующие намерениям человека». Такую тонкую настройку можно назвать «выравниванием», то есть согласовывать ответы с намерениями человека, а не добавлять интеллект к большой модели.
Согласно результатам исследований многих работ, знание больших моделей должно в основном происходить в результате предварительного обучения, тогда как точная настройка больше используется для выравнивания.
Простое объяснение состоит в том, что предварительная тренировка определяет возможности мозга, а тонкая настройка определяет родной язык. Точная настройка предварительно обученной модели — это процесс «ликвидации неграмотности».
Однако в отрасли точная настройка часто рассматривается как метод «добавления интеллекта» модели, то есть улучшения производительности модели и увеличения знаний модели посредством тонкой настройки. Считается, что таким образом достигается «Святой Грааль». искусственного интеллекта». Эта линия мышления несколько предвзята.
Прежде всего, производительность самой модели не улучшилась, но она может лучше соответствовать намерениям человека. Это все равно, что заставить человеческий мозг выполнять квантовые вычисления. И дело не в образовании, если это невозможно.
Во-вторых, «дополнение знаний» выполняется в части «выравнивание намерений», и эффект больше похож на «попугайство». То есть: модель просто имитирует то, что говорят эксперты, не понимая смысла. Хотя многие отрасли смогли получить хорошие решения путем «повторения» (в конце концов, большинство отраслей не сложны...), очевидно, что это не тот результат, к которому мы должны стремиться в долгосрочной перспективе.
Наконец, обучение «дополнению дополнительных наборов данных, улучшению производительности модели и расширению знаний модели» следует рассматривать как модель, имеющую возможность «постепенного/непрерывного обучения», то есть все параметры модели могут обрабатываться посредством дополнительная оптимизация наборов данных. Это понятие не относится к той же категории, что и так называемая «тонкая настройка инструкций».
В общем, доводка очень важна, но неправильно относиться "суеверно" к текущей доработке, тем более торопиться запечатать текущую доработку как Святой Грааль, который вполне "на стройке" современной физики «Плывут только два темных облака».
Сделаем шаг назад: если необходимость «повышения мудрости» действительно может быть решена путем тонкой настройки инструкций, выполнения простого векторного поиска, прямого подключения знаний к контексту и простого написания нескольких шаблонов, то существует высокая вероятность вероятность того, что мы сможем получить такие же или даже лучшие результаты.
Тонкая настройка нравится всем, возможно, это своего рода возрождение навыков алхимии в наше время...
Перспективы больших моделей: четыре арифметических операции
(Обратите внимание, что эта часть контента полностью основана на данных, раскрытых Диланом Пателем, и достоверность пока не может быть проверена)
Обучение GPT-4 основано на серии карт N. Эффективность обучения 30%. Время обучения около 2 месяцев. Стоимость около 60 миллионов. Общая сумма параметров {1,7 триллиона = 110 миллиардов × 16 экспертных моделей}. Он может решить одну задачу. Параметр составляет около 280 миллиардов.
Другими словами, есть несколько ключевых параметров, которые вызовут изменения в схеме обучения больших моделей.
Подводя итог, можно сказать, что стоимость обучения модели с производительностью уровня GPT-4 с нуля может в 10–20 раз превышать возможности для оптимизации, что сокращается до $3–6 млн. Эти затраты очень рентабельны для стартапов. и крупные компании более приемлемы.
Это изменение может занять около 2 лет.
В настоящее время технология основной большой модели по-прежнему основана на трансформаторе, базовая структура не изменилась, а идея творить чудеса с помощью алхимии и параметров не исчерпана. Обучение GPT-4 осуществляется на основе большого лимита вычислительной мощности, а время обучения недостаточно велико.
Если параметры растут линейно со временем обучения, то верхний предел параметров для модели с архитектурой, аналогичной GPT-4, может составлять около 10 триллионов, то есть: вдвое больше времени обучения (× 2) и вдвое больше параллельных видеокарт ( × 2), эффективность обучения вдвое быстрее (× 1,5), эффективность параметра вдвое выше (× 1,5), и, наконец, получается десятикратный результат. Согласно стилю склонности к риску Кремниевой долины, высокая вероятность достижения этого параметра будет достигнута в течение года, независимо от того, улучшились показатели или нет.
Однако после достижения 10 триллионов параметров совершенно неизвестно, сможет ли LLM еще использовать идею увеличения параметров для достижения чудес.
Если количество параметров улучшает производительность модели с уменьшающейся разницей, то 10 триллионов, вероятно, станут препятствием. Однако существует также гипотеза, что количество параметров улучшает производительность модели при незначительном увеличении, подобно тому, как «если человек достаточно умен, он может всему научиться быстро». Первое — это нормально, но если второе сбудется, производительность модели может улучшиться в геометрической прогрессии, и то, что произойдет тогда, будет совершенно непредсказуемым.
Трудно предсказать алхимию, но легко предсказать ритм корпоративной стратегии. Модель с общим параметром 10 триллионов является конечной точкой вехового уровня для большинства предприятий, будь то гигант вроде Google/MS/APPL или меньшая OpenAI, и на ней можно остановиться и провести некоторые технические исследования.
Предпочтение предприятий/капитала риску можно конвертировать в «время выдержки»: если все время выдержки – это интенсивно сжигаемые расходы, то превысить 6 месяцев будет сложно. Человеческое мастерство растёт недостаточно быстро, обычно за цикл в 5 и более лет. Таким образом, в течение 5 лет можно оценить предельное количество параметров модели, которое должно составлять от 20 до 50 триллионов. Если снова не произойдет огромный прорыв в процессе/архитектуре, вероятность превышения этого порядка величины очень мала.
Мультимодальность: слон в комнате
Мультимодальность – это слон в комнате, и она может существенно повлиять на ландшафт ипподрома.
Простое определение мультимодальности: поддержка ввода и вывода множественной модальной информации. Это определение очень расплывчато. Например, некоторые продукты на рынке, которые утверждают, что способны выполнять мультимодальный ввод, на самом деле являются слоем OCR вне ChatBot. Есть также модели, которые полностью соответствуют определению мультимодальности, но их характеристики не впечатляют. Даже возможность мультимодального ввода изображений GPT-4 не получила широкого распространения, и видно, что эта функция не очень стабильна.
Однако мультимодальные запуски не за горами. Существует высокая вероятность того, что GPT-5 изначально поддерживает мультимодальность, а это означает, что структуру необходимо перепроектировать и переобучить. Согласно предыдущим рассуждениям, параметры большой модели все еще имеют пространство для роста в 10–50 раз, и этого должно быть достаточно, чтобы заложить в нее мультимодальные возможности. Поэтому можно ожидать, что высокодоступные и высокопроизводительные мультимодальные модели появятся в течение 2 лет, а если быть оптимистами, то почти через 1 год.
Мультимодальность — это слон в комнате, все знают, что рано или поздно она появится, но так много продуктов/исследований/стратегий игнорируют ее существование, что в ключевых моментах происходит просчет.
Например, модели с одним имиджем теоретически могут серьезно угнетаться мультимодальными моделями, но в настоящее время большинство исследований и инвестиций игнорируют эту проблему, что приводит к переоценке некоторых компаний, ориентированных на имидж. В будущем эти компании, скорее всего, потеряют технические барьеры и превратятся в поставщиков услуг.
Если вы хотите рассказать историю о том, что «инвестиции зависят от людей, одна и та же команда может провести трансформацию бизнеса», то я этого не говорил. Легенды существуют всегда, но в легенды нельзя верить, когда проводишь исследования.
Кто может тренировать GPT-4: Можно, но не обязательно
Создание алхимии не занимает много времени, и крупные компании покупают видеокарты. Совершенно очевидно, что через год крупные компании смогут обучать модели уровня GPT-4. А вот тренироваться или нет – это другой вопрос.
В области игр существует классическое предложение под названием «Юаньшин играет в Юаньшэнь», то есть: когда игроки могут выбирать, играть в Юаньшэнь или конкурирующий продукт Юаньшэнь, если конкурирующий продукт не так хорош, как Юаньшэнь, тогда играют в Первородного Бога. .
Этот подход «победитель получает все» также применим к крупной модельной индустрии. Если компания следует за OpenAI, то после полугода исследований и разработок она запускает собственную большую модель с производительностью на 90% сравнимой с GPT-4, надеясь вывести ее на рынок. В это время компания столкнется со следующими проблемами:
Видно, что компания находится под значительным давлением. Вместо обучения GPT-4 лучше сделать ставку непосредственно на модель следующего поколения (по сравнению с GPT-5). Тогда проблема изменится с «проблемы аналогичного конкурирующего продукта» на «проблему технологических инноваций». Это бремя, которое малые компании не могут нести.
Поэтому обсуждение «кто может обучать GPT-4» — стратегически мертвый вопрос. Вместо того, чтобы думать об этой проблеме, лучше найти направление с большей определенностью и возможностями.
Совет стартапам в области ИИ: ставьте производительность на первое место, не оставайтесь на месте
Автор написал много статей с жалобами на langchain. Основная причина в том, что langchain не оставляет разработчикам места для повышения производительности. Ее эвфемистически называют «универсальной структурой». Чтобы обеспечить универсальность, оставляются большие возможности для улучшения производительности больших моделей, таких как многораундовый диалог и управление форматом, реализуемое путем тонкой настройки. Подобные включают в себя руководство/Auto-GPT/BabyAGI и т. д., все из которых хотят создать «структуру, которая может прослужить всю жизнь».
Объективным фактом является то, что OpenAI выпустила «Вызов функций» в мае.Многие проблемные места в коде имеют лучшие решения по реализации, а стоимость внедрения лучших решений — реконструкция ключевых частей кода продукта. В августе OpenAI выпустила разрешения на тонкую настройку GPT-3.5, и многие ссылки, требующие точного контроля вывода, имеют новые потенциальные решения.
Таким образом, стартапы должны оказаться перед ключевым выбором: следует ли им выбрать: ① улучшать производительность и постоянно рефакторить продукты или ② сокращать использование новых функций и всегда использовать старые функции для разработки?
Для предпринимательства в области приложений новых технологий «разработка» представляет собой не только процесс написания кода, но также представляет собой «верхний предел» функциональности/стратегии продукта. Чем выше производительность, которую можно контролировать, тем больше теоретических функций имеет продукт и тем выше его стратегическая гибкость.
Развитие технологий непредсказуемо, и незначительные технологические инновации могут привести к очень чувствительным изменениям в конкурентной среде.
—— Говоря человеческими словами: отдавайте приоритет производительности и избегайте остановок. На уровне разработки используйте больше новых функций; на стороне продукта подумайте о том, какие функции могут выполнять новые функции; на стратегическом уровне учтите влияние новых функций на стратегию.
В «Го Цинь Лунь» упоминалось, что после основания династии Цинь все металлическое оружие в мире было конфисковано и отлито в двенадцать бронзовых фигур, чтобы исключить возможность гражданского восстания. Но династия Цинь, как известно, просуществовала недолго. Полезнее обращать внимание на изменения, чем игнорировать их.
Совет начинающим ИИ-стартапам: создавайте приложения с уверенностью
Когда стартапы разрабатывают приложения, существует очень распространенная скрытая опасность: появление крупных компаний. К крупным компаниям здесь относятся не только гиганты приложений, такие как Meta/Byte/Tencent и т. д., но и ведущие отрасли ИИ-индустрии, такие как OpenAI.
Обычно крупные компании выходят на рынок по двум причинам: развивать возможности продукта и двигаться вверх и вниз по течению.
«Развитие возможностей продукта» — это буквальное значение. Крупные компании чувствуют, что этим направлением стоит заниматься, и поэтому они этим занимаются.
"Отсечение восходящего и нисходящего потока" - это по большей части беспомощный шаг. Возможно, это связано с тем, что мы разработали большую модель, сравнимую с OpenAI. Однако из-за проблемы больших моделей, когда победитель получает все, нет пользователей, что приводит к сжигание затрат, отсутствие доходов и отсутствие данных, что, в свою очередь, приводит к постепенному отставанию производительности. В настоящее время единственными вариантами являются переход к нисходящей технологической цепочке, разработка конкретных приложений и использование собственных технологий.
Согласно историческому опыту, из-за проблем организационной структуры, чем ближе компания к нисходящему течению, тем больше вероятность того, что ее технология отстанет, а чем дальше ее технология отстает, тем больше ей придется работать на нисходящем направлении. Эти так называемые технологические компании в конечном итоге будут конкурировать за ту же экологическую нишу, что и компании прикладного уровня.
Однако на поле битвы прикладного уровня, поскольку технология искусственного интеллекта существует совсем недавно, она не имеет эффективных и многоразовых преимуществ масштабирования.Отправные точки крупных компаний и стартапов схожи. По сравнению с крупными компаниями стартапы более эффективны и обладают более глубоким пониманием, что позволяет им легче воспользоваться преимуществами.
Примечательной ситуацией является то, что почти все рекламные материалы MS Azure сейчас вращаются вокруг OpenAI, но такая крупная фабрика, как Microsoft, полностью полагается на OpenAI как на свою платформу, что со стороны доказывает, что стартапы имеют естественные преимущества в области AI.
Конечно, некоторые поставщики облачных услуг, возможно, не смогут смириться с тем, что их возглавляют стартапы, и захотят съесть весь рынок самостоятельно. Это дорого, медленно и не представляет непосредственной угрозы.
Дело в том, что действительно существуют некоторые недолговечные пути развития приложений ИИ, но есть еще много долгоживущих путей, которые еще не обнаружены, и приложения ИИ не являются принципом «победитель получает все». Переход от приложения к платформе или технологии также является более реальным путем.
Поэтому мы должны рационально подходить к способности крупных компаний проникать на уровень приложений. Мы полагаем, что стартапы в сфере ИИ могут с уверенностью создавать приложения.
Совет стартапам в сфере ИИ: обратите внимание на жизненный путь продукта
Как упоминалось ранее, стартапы ИИ могут безопасно создавать приложения, но они должны учитывать производительность модели ИИ и избегать ее остановки. Эта ситуация напрямую проявляется в том, что продукты ИИ могут потерять свою базу спроса и постепенно увядать в течение нескольких месяцев, и такая ситуация может случаться часто.
Приложениям искусственного интеллекта требуются сервисы, использующие большие модели, а производительность больших моделей продолжает улучшаться. Это улучшение не является одномерным улучшением, таким как «скорость», а общим изменением качества вывода, длины вывода и управляемости вывода. Каждое существенное обновление технологии приведет к отставанию технологий существующих продуктов прикладного уровня и созданию новых возможностей и конкурентов.
**Мы называем время, когда приложения ИИ сохраняют преимущества и необходимость в стратегии/продукте/технологии, «спасательным кругом». **
Вот несколько примеров более коротких линий жизни:
**Учитывая быстрое развитие индустрии искусственного интеллекта, ограниченность жизненных путей является нормой. Поэтому принятие того факта, что линия жизни ограничена, и попытка выбрать направление с более длинной линией жизни для развития способствует сохранению долгосрочных преимуществ и необходимости продукта. **
Как правило, линию жизни можно просто разделить на уровни по 3/6/12 месяцев.
*Жизненный цикл платформенных продуктов не обязательно длинный, ведь магазины тоже являются платформами.
Когда начинающая компания определяет свое направление, ей нужен всего лишь 6-месячный спасательный круг, а 12-месячный — найти сложно.
Когда линия жизни продукта достигает конца, обычно возникают две ситуации. Первая ситуация заключается в том, что преимущества исчезают, и технология обновления продукта должна быть реконструирована, пожалуйста, обратитесь к вышеуказанному «производительность в первую очередь», вторая ситуация заключается в том, что необходимость исчезает, и продукт будет постепенно заменяться. у продукта еще есть несколько месяцев «жизни работы», достаточные для того, чтобы стартапы могли выбрать следующее направление.
Совет стартапам, работающим с искусственным интеллектом: Web3+AI может помочь
В настоящее время существует множество предпринимательских проектов по теме Web3+AI, однако, учитывая неопределенность развития технологий и раннюю стадию рынка, тема Web3+AI все еще будет иметь много переменных в будущем.
Цель этой статьи - найти правильную уверенность с высокой вероятностью в неопределенности.Поэтому автор все же надеется высказать некоторые идеи и предложить некоторые темы и направления, которые могут иметь возможности для ссылки начинающих компаний и заинтересованных исследователи.
В настоящее время лидеры индустрии искусственного интеллекта предоставляют только модели с закрытым исходным кодом, а стабильность, прозрачность и нейтральность их дальнейшего предоставления услуг не поддаются контролю. Десуверенитет/децентрализация может стать важной темой в индустрии искусственного интеллекта, а именно: на основе базовой структуры десуверенитета/децентрализации предоставлять стабильные, прозрачные и нейтральные услуги искусственного интеллекта.
Десуверенитет/децентрализация — это «альтернатива» и «шок», который может значительно увеличить аморальные издержки централизованных/суверенных компаний ИИ и помешать им использовать модели ИИ в военной и культовой сфере, политике и т. д.
В крайних случаях, когда централизованные/суверенные сервисы ИИ по какой-то причине больше не доступны/не доверяют, десуверенный/децентрализованный ИИ может продолжать предоставлять высокодоступные услуги, чтобы предотвратить потерю ИИ отдельными странами/регионами и даже человечеством.
За переходом ETH от PoW к PoS стоит критикуемая дилемма «майнинг не создает ценности». мощность и т. д. Эффект.
ИИ — это актив, связанный с вычислительными мощностями и хранилищем. Сочетание Web3 и ИИ может обеспечить канал для преобразования ИИ в виртуальные активы. Создавая ценность отрасли ИИ, он также может создавать настоящие собственные виртуальные активы для Web3.
Сочетание Web3 и искусственного интеллекта может принести новые функциональные возможности и возможности роста для приложений Web3, а существующие приложения Web3 могут быть полностью переделаны.
В конце написано: Сентябрь, стоит ли нынешний ИИ начинать бизнес?
Начну с вывода: оно того стоит, и этот вывод, скорее всего, можно будет использовать до китайского Нового года.
Восприятие ситуаций людьми зачастую предвзятое, и я не исключение. Некоторые люди слишком оптимистичны, а некоторые слишком пессимистичны. Автор однажды общался с двумя командами. Одна команда считает, что сможет создать ИИ-агента в первом квартале следующего года, а другая считает, что ИИ подходит только для управления базами знаний. Очевидно, первая слишком оптимистична, а другая - последнее слишком пессимистично.
При долгосрочном планировании в яму попадают как слишком оптимистичные, так и слишком пессимистичные, а широко распространенные замечания часто содержат большие отклонения, поэтому независимое мышление очень ценно. Поэтому, независимо от того, смогут ли читатели принять точку зрения этой статьи, пока читатели имеют независимое мышление и суждения в процессе чтения, автор будет очень доволен.
Наконец, разместите рекламу. Если у вас есть хорошая предпринимательская идея в области искусственного интеллекта или вы уже сформировали проект, приглашаем вас в любое время пообщаться с друзьями из NGC (такими как я).