NGC Ventures: Зараз вересень, чи варто ШІ починати бізнес зараз?

Автор оригіналу: Cherry, NGC Ventures

Передмова

Перший проект цієї статті був завершений у мій вільний час наприкінці серпня. Після її поспішної публікації я отримав багато порад, тому я додавав, змінював і видаляв деякий вміст, щоб не смішити людей.

Зміст цієї статті в основному полягає в оцінці поточної ситуації в індустрії штучного інтелекту з точки зору інвестицій, у роздумах і припущеннях щодо технологічних/продуктових маршрутів різних компаній, а також у абстрагуванні стратегій компаній у сфері штучного інтелекту. промисловість. Тому в частинах, пов’язаних із конкретними технологіями, неминуче є пропуски, будь ласка, потерпіть.

Але, зрештою, кілька великих компаній, які можуть публікувати документи, все ще розпадаються, і, здається, ніхто не може оцінити правильність змісту цієї статті. Так само, як оцінка GPT-3,5 з GPT-4, це здається розумним, але це трохи абстрактно, якщо подумати про це.

Тому автор рекомендує розглядати цю статтю як «судження», сформоване після збору інформації про невизначені галузі. Оскільки це судження, позиція має бути чіткою, а твердження має бути змістовним. Правильно це чи ні, нехай це перевірить час.

Автор завжди вірить у те, що нова індустрія галаслива, завжди правильно використовувати свій розум і наважуватися робити висновки. Для запитань правильний відсоток вгадування наосліп становить 50%, а ймовірність неправильного вгадування три рази поспіль становить 12,5%. Навіть якщо це рівень судження, який кидає монету, це має значення. Судити не страшно, але найстрашніше те, що точність судження нижча, ніж підкидання монети.

Перш ніж офіційно почати цю статтю, я хотів би подякувати наступним людям за їхню роботу, яка надала цінне натхнення та джерела даних для цієї статті. Звичайно, оскільки багато висновків у цій статті базуються на цих роботах, якщо вони містять помилки або автор має неправильне розуміння, висновки в цій статті більше не будуть надійними. Читачів просять робити власні судження. Ця стаття не є інвестиційною порадою та навряд чи є інвестиційною порадою.

  • Центр ланцюга думок: безперервна робота з вимірювання продуктивності міркувань великих мовних моделей(
  • LIMA: менше означає більше для вирівнювання(
  • Червень 2023 р., Поетапний огляд налаштування інструкцій(
  • Архітектура GPT-4, інфраструктура, навчальний набір даних, витрати, бачення, MoE(

Добре, давайте офіційно почнемо цю статтю.

Велика модель: запустіть Cyber Rocket

Першим кроком до обговорення штучного інтелекту в 2023 році є обговорення можливості великого підприємництва.

Велика модель (попередня підготовка) тепер трансформована в проблему запуску ракети. Якщо її можна спалити і напрямок правильний, це може зробити кожен. Можна сказати, що тренування великих моделей схоже на запуск кіберракет.

Противно інтуїтивним є те, що інвестори недооцінюють складність навчання великих моделей, але переоцінюють складність запуску справжніх ракет. З тією самою вартістю 60 мільйонів доларів США інвестори вважатимуть, що є другий шанс для невдалого запуску ракети, тоді як невдача навчити велику модель вважається марною тратою грошей.

GPT-4 все ще споживає 60 мільйонів доларів США на ефективність використання GPU OpenAI (як повідомляється, приблизно дорівнює 30%). Це питання {продуктивність = ефективність × вартість}, а продуктивність є перешкодою. Якщо інші стартапи не можуть досягти ефекту продуктивності, більшого ніж 30% × 60 мільйонів = 18 мільйонів доларів, користувачі також можуть безпосередньо використовувати GPT-4.

Зараз багато компаній, які претендують на навчання великих моделей, мають раунди фінансування в діапазоні від 1 до 5 мільйонів доларів США. Іншими словами, навіть компанії з найбільшим обсягом фінансування мають достатньо боєприпасів лише для проведення одного запуску. Навіть якщо використання GPU цього запуску досягне 100%, перевершити GPT-4 буде важко.

З цієї точки зору краще запускати ракети, тому що більшість ракет є ракетами-носіями, які несуть супутники в небо, а разове навантаження обмежене, тому невеликі ракетні компанії можуть приймати замовлення на супутники, які інші не встигають запустити.

Великі моделі відрізняються Гранична вартість горизонтального розширення великих моделей — це лише вартість обчислювальної потужності, а вартість обчислювальної потужності може бути еластично розширена, що означає, що для великих модельних компаній прибуток від кожного замовлення є безкоштовним прибутком. , майже немає додаткових витрат, а потужність підприємства дуже велика. Новій, неякісній масштабній модельній компанії складно отримати переповнений попит.

Якщо витрати на навчання значно не впадуть, навіть якщо буде відома вся архітектура GPT-4, багатьом компаніям буде важко створювати великі моделі, які можна буде вивести на ринок за короткий термін.

Налаштування: протистояння проблемі «переможець отримує все».

У апаратній промисловості звичайним явищем є отримання перших прибутків через індивідуальні потреби, а потім досягнення технологічних проривів (або вирівнювання) через ранні прибутки. Однак кастомізація масштабної модельної індустрії важко стати виходом для новачків.

Що стосується цього висновку, то пояснення дуже просте: більшість точно налаштованих моделей не можуть наздогнати GPT-4. Вимоги до даних менші. Поки існує розрив у продуктивності між GPT-4 та іншими моделями, налаштування не можуть бути рішенням для великих модельних компаній.

Дуже типовим прикладом є Jasper, який використовує тонко налаштований GPT-3 для обслуговування корпоративних клієнтів.Однак після того, як OpenAI опублікував ChatGPT (GPT-3.5), його користувачі швидко втратили. Оскільки результат Jasper можна отримати, просто ввівши GPT-3.5, а не використовуючи «зворотню версію», яка має слабкі можливості узагальнення та обмежена внутрішнім використанням на підприємстві.

Порівняно з новими компаніями, у Jasper принаймні є період вікна для розробки від GPT-3 до GPT-3.5. Однак новим компаніям тепер доводиться стикатися з тиском недорогих, високошвидкісних GPT-3.5 і високопродуктивних GPT-4 одночасно.

Таким чином, вірогідність виживання надії накопичити прибуток за допомогою налаштування для досягнення технологічного прориву дуже низька.

Тонка настройка: необхідна, не будьте забобонними

Сучасна індустрія штучного інтелекту має нереалістичні очікування щодо тонкого налаштування, які переоцінені з точки зору конкретної технічної реалізації та технічного ритму на макрорівні.

Тонке налаштування, яке зараз обговорюється в галузі, здебільшого відноситься до «на основі попередньо навченої моделі, щоб вона могла генерувати відповіді, які відповідають намірам людини». Такий вид тонкого налаштування можна назвати «вирівнюванням», тобто узгодити відповіді з наміром людини, а не додавати інтелект до великої моделі.

Відповідно до результатів досліджень у кількох статтях, знання великих моделей повинні в основному виходити з попереднього навчання, тоді як точне налаштування більше використовується для вирівнювання.

Просте пояснення полягає в тому, що попереднє навчання визначає здатність мозку, а тонке налаштування визначає рідну мову. Тонка настройка попередньо навченої моделі є процесом «усунення безграмотності».

Однак тонке налаштування часто розглядається в промисловості як метод «додавання інтелекту» моделі, тобто покращення продуктивності моделі та збільшення знань про модель за допомогою тонкого налаштування. Вважається, що таким чином «Святий Грааль» штучного інтелекту» можна досягти. Така думка є дещо упередженою.

По-перше, продуктивність самої моделі не покращилася, але вона може краще узгоджувати людські наміри.Якщо складність завдання перевищує продуктивність моделі, точне налаштування не дасть очікуваних результатів. Подібно до того, як дозволити людському мозку виконувати квантові операції, неможливість цього не є питанням освіти.

По-друге, в частині «вирівнювання намірів» виконується «доповнення знань», і ефект більше схожий на «попугаювання». Тобто: модель просто імітує те, що говорять експерти, не розуміючи сенсу. Хоча багато галузей можуть отримати хороші рішення шляхом «повторювання» (зрештою, більшість галузей не є складними...), очевидно, це не той результат, якого ми повинні прагнути в довгостроковій перспективі.

Нарешті, для навчання «доповнення додаткових наборів даних, покращення продуктивності моделі та збільшення знань про модель» слід враховувати, що модель має здатність «поступового навчання/безперервного навчання», тобто повні параметри моделі можна покращити за допомогою додаткових наборів даних. Це не те саме поняття, що так зване «точне налаштування інструкцій».

Взагалі, тонка настройка дуже важлива, але неправильно мати «забобонне» ставлення до поточної тонкої настройки, особливо поспішати запечатати поточну тонку настройку як Святий Грааль, який досить «на будівлі». фізики сьогодні «Пливуть лише дві темні хмари».

Зробивши крок назад, якщо потребу у «збільшенні інтелекту» справді можна вирішити шляхом точного налаштування інструкцій, виконавши простий векторний пошук, безпосередньо підключивши знання до контексту та просто написавши кілька шаблонів, існує висока ймовірність що можна досягти таких самих або навіть кращих результатів.

Тонке налаштування подобається всім, можливо, це своєрідне відродження навичок алхімії в наш час...

Outlook для великих моделей: чотири арифметичні операції

(Зауважте, що ця частина вмісту повністю базується на даних, оприлюднених Діланом Пателем, і надійність поки що неможливо перевірити)

Навчання GPT-4 базується на картках серії A. Ефективність навчання становить 30 %. Час навчання — близько 2 місяців. Вартість — близько 60 млн. Загальна сума параметрів — {1,7 трлн = 110 млрд × 16 експертних моделей}. Він може вирішити одну проблему. Параметр близько 280 мільярдів.

Іншими словами, є кілька ключових параметрів, які спричинять зміни в шаблоні навчання великої моделі.

  • Ефективність навчання: збільшення від 30% до 60% може безпосередньо скоротити час на один раз
  • Підвищена інтенсивність обчислювальної потужності: після переходу з серії A на серію H, а потім на спеціальну карту AI, щільність обчислювальної потужності покращується, і багато проблем, що впливають на ефективність архітектури, можна вирішити.
  • Вартість обчислювальної потужності впала: Лао Хуан (засновник Nvidia) знизив ціну на відеокарту, і вартість значно впала
  • Покращення ефективності параметрів: Є можливості для покращення ефективності параметрів моделі. Посилаючись на минуле, ефективність параметрів нової моделі зазвичай можна покращити у багато разів порівняно зі старою моделлю. Можна використовувати 30% параметрів GPT-4 для досягнення аналогічних ефектів.

Підводячи підсумок, вартість навчання моделі з продуктивністю рівня GPT-4 з нуля може мати в 10-20 разів більше можливостей для оптимізації, що скорочується до 3-6 млн доларів США. Ці витрати є дуже економічно ефективними для стартапів. і великі компанії є більш прийнятними.

І ця зміна може тривати приблизно 2 роки.

В даний час технологія основної великої моделі все ще базується на трансформаторі, базова структура не змінилася, і ідея створення чудес за допомогою алхімії та параметрів не вичерпана. Навчання GPT-4 здійснюється на основі великого ліміту обчислювальної потужності, а час навчання недостатньо тривалий.

Якщо параметри ростуть лінійно з часом навчання, верхня межа параметрів для моделі з архітектурою, подібною до GPT-4, може становити близько 10 трильйонів, тобто: вдвічі більше часу навчання (× 2) і вдвічі більше паралельних відеокарт ( × 2), ефективність навчання вдвічі нижча (× 1,5), ефективність параметра вдвічі нижча (× 1,5), а кінцевий результат у десять разів кращий. Згідно зі стилем ризик-апетиту Кремнієвої долини, цей параметр, швидше за все, буде досягнутий протягом року, незалежно від того, чи покращилася продуктивність.

Однак після досягнення 10 трильйонів параметрів абсолютно невідомо, чи зможе LLM все ще використовувати ідею збільшення параметрів для досягнення чудес.

Якщо кількість параметрів покращує продуктивність моделі при зменшенні запасу, то 10 трильйонів, ймовірно, будуть перешкодою. Однак існує також припущення, що кількість параметрів покращує продуктивність моделі при незначному збільшенні, подібно до того, «якщо людина досить розумна, вона може швидко всьому навчитися». Перше — це нормально, але якщо останнє здійсниться, продуктивність моделі може експоненціально покращитися, і те, що тоді станеться, буде абсолютно непередбачуваним.

Важко передбачити еліксир, але легко передбачити стратегічний ритм компанії. Для більшості компаній, будь то такий гігант, як Google/MS/APPL чи менший OpenAI, модель із загальним параметром у 10 трильйонів є кінцевою віхою, і це місце, де ви можете зупинитися та провести деякі технічні дослідження. позиція s.

Перевагу підприємств/капіталу щодо ризику можна перетворити на «час витримки».Якщо весь час витримки інтенсивно спалює витрати, важко буде перевищити 6 місяців. Людська майстерність розвивається недостатньо швидко, і цикл зазвичай займає 5 років і більше. Таким чином, протягом 5 років можна оцінити кінцеву кількість параметрів моделі, яка повинна складати від 20 до 50 трильйонів. Якщо знову не відбудеться величезний прорив у технології/архітектурі, ймовірність перевищення цього порядку дуже низька.

Мультимодальність: Слон у кімнаті

Мультимодальність — це слон у кімнаті, який може сильно вплинути на ландшафт доріжки.

Просте визначення мультимодальності таке: підтримка введення та виведення множинної модальної інформації. Це визначення дуже вільне.Наприклад, деякі продукти на ринку, які стверджують, що можуть виконувати мультимодальне введення, насправді є шаром OCR поза ChatBot. Є також моделі, які повністю відповідають визначенню мультимодальності, але їх продуктивність розчаровує. Навіть можливість мультимодального введення зображень GPT-4 ще не була широко відкрита, можна побачити, що ця функція не дуже стабільна.

Однак мультимодальні запуски не за горами. Існує висока ймовірність того, що GPT-5 нативно підтримує мультимодальність, тобто потребує переробки структури та перенавчання. Згідно з наведеним вище міркуванням, параметри великої моделі все ще мають місце для зростання від 10 до 50 разів, і цього має бути достатньо, щоб додати в неї мультимодальні можливості. Тому можна очікувати, що мультимодальні моделі з високою доступністю та високою продуктивністю з’являться протягом 2 років, а оптимістично – майже через 1 рік.

Мультимодальність — це слон у кімнаті, усі знають, що з часом така річ з’явиться, але так багато продуктів/досліджень/стратегій ігнорують її існування, що в ключових частинах є прорахунки.

Наприклад, моделі з одним зображенням теоретично можуть бути сильно пригнічені мультимодальними моделями, але більшість досліджень/інвестицій наразі ігнорують це питання, що призводить до переоцінки деяких компаній, орієнтованих на імідж. Ці компанії, швидше за все, позбудуться технічних бар'єрів і перетворяться на постачальників послуг у майбутньому. Їхня система оцінки має стосуватися постачальників послуг, а не технологічних компаній.

Якщо ви хочете розповісти історію про те, що «інвестиції залежать від людей, та сама команда може змінити бізнес», просто вдайте, що я цього не говорив. Легенди існують завжди, але ви не можете в них вірити під час дослідження.

Хто може навчати GPT-4: можна, але не обов'язково

Очищення еліксирів не займає так багато часу, і великі компанії купують відеокарти. Одне дуже очевидно: через рік великі компанії зможуть навчати моделей рівня GPT-4. Але тренуватися чи ні – інше питання.

У сфері ігор існує класична пропозиція під назвою «Грати в Genshin Impact за допомогою Genshin Impact», тобто: коли гравці можуть вибрати грати в Genshin Impact або конкуруючий продукт Genshin Impact, якщо конкуруючий продукт не такий хороший, як Genshin Impact, тоді вони зможуть грати в Genshin Impact. Original God.

Цей підхід «переможець отримує все» також стосується великої модельної промисловості. Якщо компанія слідує за OpenAI, після півроку досліджень і розробок вона запускає власну велику модель із продуктивністю на 90%, порівнянною з GPT-4, сподіваючись вивести її на ринок. У цей час компанія зіткнеться з такими проблемами:

  • OpenAI має перевагу в масштабі хмарних ресурсів і нижчу вартість
  • API OpenAI широко використовується в кодах продуктів, і його важко замінити.
  • Продуктивність продукції компанії все ще не перевищує GPT-4
  • Незабаром буде випущено продукт наступного покоління OpenAI (можливо, GPT-5).

Видно, що тиск на підприємство значний. Замість того, щоб тренувати GPT-4, краще зробити ставку безпосередньо на модель наступного покоління (проти GPT-5). Тоді проблема буде перетворена з «проблеми подібних конкуруючих продуктів» на «проблему технологічних інновацій». Це непосильний тягар для невеликих компаній.

Тому обговорення «хто може навчити GPT-4» — це стратегічно мертве питання, а не думати над цією проблемою, краще знайти напрямок з більшою впевненістю та можливостями.

Порада для стартапів зі штучним інтелектом: ставте продуктивність на перше місце, уникайте застою

Автор написав багато статей, скаржачись на langchain Основна причина полягає в тому, що langchain не залишає розробникам можливості покращувати продуктивність. Його евфемістично називають «універсальним фреймворком». Щоб забезпечити універсальність, багато можливостей для покращення продуктивності великих моделей відмовляються, наприклад, багатораундовий діалог і керування форматом, реалізоване шляхом тонкого налаштування. Подібні включають guidance/Auto-GPT/BabyAGI тощо, усі вони хочуть побудувати «рамку, яка може тривати все життя».

Об’єктивним фактом є те, що OpenAI випустила функцію виклику функцій у травні. Багато проблемних місць у коді мають кращі рішення для впровадження, і вартість впровадження кращих рішень полягає в реконструкції ключових частин коду продукту. У серпні OpenAI випустив дозвіл на точне налаштування GPT-3.5, і багато посилань, які вимагають точного контролю виведення, мають нові потенційні рішення.

Таким чином, стартапи повинні зіткнутися з ключовим вибором: ① підвищувати продуктивність і постійно рефакторювати продукти, чи ② зменшити використання нових функцій і завжди використовувати старі функції для розробки?

Для підприємництва нових технологічних додатків «розробка» не лише являє собою процес написання коду, але й являє собою «верхню межу» функцій/стратегій продукту. Чим вище продуктивність, якою можна керувати, тим більше теоретичних функцій у продукту і тим вище стратегічна гнучкість.

Розвиток технологій неможливо передбачити, а невеликі технологічні інновації можуть призвести до дуже чутливих змін у конкурентному середовищі.Початківці компаній повинні мати здатність бути антикрихкими щодо розвитку технологій.

——По-людськи кажучи: надавайте перевагу продуктивності та уникайте зупинок. На рівні розробки використовуйте більше нових функцій; на стороні продукту подумайте про те, які функції можуть виконувати нові функції; на стратегічній стороні врахуйте вплив нових функцій на стратегію.

У «Про проходження Цінь» згадується, що після встановлення династії Цінь металева зброя з усього світу була конфіскована та відлита в дванадцять бронзових фігур, щоб виключити можливість громадянських повстань. Але династія Цінь, як відомо, була недовгою. Корисніше звертати увагу на зміни, ніж ігнорувати їх.

Порада новачкам AI: створюйте програми з упевненістю

Існує дуже поширена прихована небезпека в застосуванні компаній-початківців: входження великих компаній. До великих компаній тут належать не лише гіганти додатків, такі як Meta/Byte/Tencent, а й передові індустрії ШІ, такі як OpenAI.

Великі компанії зазвичай виходять на ринок з двох причин: для розвитку можливостей продукту та для просування вгору та вниз за течією.

«Можливості компонування продукту» — це буквальне значення. Великі компанії вважають, що цей напрямок варто розвивати, тому вони це роблять.

«Розрізати вгору за течією» здебільшого безпорадний крок. Можливо, це тому, що я розробив великомасштабну модель, яка порівнюється з OpenAI, але через проблему великомасштабної моделі «переможець отримує все» відсутність користувачів, що призводить до величезних витрат, відсутності доходу та даних, що, у свою чергу, призводить до поступового відставання продуктивності. Наразі єдиним варіантом є врізка в нижню течію, розробка конкретних програм і використання власних технологій.

Згідно з історичним досвідом, через проблему організаційної структури, чим ближче компанія до нижньої течії, тим легше їй відстати в технологіях, і чим більш відстала технологія, тим більше їй доводиться бути нижньою за течією. Ці так звані технологічні компанії врешті змагатимуться за ту саму екологічну нішу, що й компанії прикладного рівня.

Однак на полі бою на прикладному рівні через короткий час технології штучного інтелекту немає ефективної та багаторазової переваги в масштабі, а вихідна точка великих компаній і стартапів схожа. Порівняно з великими компаніями, компанії-початківці більш ефективні та проникливі, і ними легше скористатися.

Варто зауважити, що майже всі рекламні матеріали для MS Azure зараз крутяться навколо OpenAI, але така велика компанія, як Microsoft, повністю покладається на OpenAI як свою платформу, що з боку доводить, що стартапи мають природні переваги у сфері ШІ.

Звичайно, деякі хмарні постачальники можуть не погодитися на те, що їх очолюють стартапи, і хочуть з’їсти весь ринок самостійно. Це дорого, повільно і не є безпосередньою загрозою.

Справа в тому, що дійсно є деякі короткочасні треки для додатків AI, але все ще є багато довгоіснуючих треків, які не були виявлені, і додатки AI не є переможцем. Розширення від додатків до платформ або технологій також є більш здійсненним шляхом.

Тому ми повинні раціонально дивитися на здатність великих компаній вторгатися на прикладний рівень. Наша пропозиція полягає в тому, що стартапи зі штучним інтелектом можуть впевнено створювати програми.

Порада стартапам зі штучним інтелектом: звертайте увагу на життєві лінії продукту

Як згадувалося раніше, стартапи зі штучним інтелектом можуть безпечно створювати програми, але вони повинні враховувати продуктивність моделі ШІ та уникати залишатися. Ця ситуація безпосередньо проявляється в тому, що продукти штучного інтелекту можуть втратити базу попиту і поступово в’янути протягом декількох місяців, і така ситуація може траплятися часто.

Програмам штучного інтелекту потрібно використовувати послуги великих моделей, і продуктивність великих моделей продовжує покращуватися. Це вдосконалення не є покращенням окремого виміру, такого як «швидкість», а зміною всіх аспектів, таких як якість виводу, довжина виводу та можливість керування виходом. Будь-яке значне оновлення технології призведе до технологічного відставання існуючих продуктів прикладного рівня та створить нові можливості та конкурентів.

**Ми називаємо час, коли застосування штучного інтелекту зберігає переваги та необхідність у стратегії/продукті/технології, як «виручальний круг». **

Ось кілька прикладів більш коротких ліній життя:

  • Коли ChatGPT/Claude підтримує завантаження файлів, ChatPDF стає непотрібним
  • Коли Office 365 підтримує Copilot, продукти, які використовують AI для малювання PPT, втратять свої переваги
  • Коли з’явиться GPT-3.5, Jasper більше не потрібен

**Враховуючи, що індустрія штучного інтелекту швидко розвивається, обмежені можливості життя є нормою. Таким чином, прийняття того факту, що лінія життя обмежена, і спроба вибрати напрямок із довшою лінією життя допоможе зберегти довгострокові переваги та необхідність продукту. **

Загалом лінії життя можна просто розділити на 3/6/12-місячні рівні.

  • 3 місяці: функції, які великі компанії не встигли реалізувати (наприклад, функції office/ChatGPT, які ще не встигли реалізувати)
  • 6 місяців: це складно реалізувати та не можна інтегрувати в існуючі рішення, але переваги/необхідність зникнуть із покращенням продуктивності штучного інтелекту (наприклад, загальної структури штучного інтелекту)
  • 12 місяців: Переваги/необхідності можуть існувати тривалий час, на них нелегко впливають великі компанії/технологічні розробки (наприклад, Hugging Face)

*Життєвий цикл продуктів платформи не обов’язково довгий, адже магазини – це теж платформи.

Коли нова компанія визначає свій напрямок, їй потрібен лише 6-місячний життєвий шлях, 12-місячний життєвий шлях важко знайти.

Коли життєвий шлях продукту добігає кінця, зазвичай виникають дві ситуації. Перша ситуація полягає в тому, що переваги зникають, і технологію оновлення продукту потрібно реконструювати. Будь ласка, зверніться до вищезазначеного «Спочатку продуктивність»; друга ситуація полягає в тому, що необхідність зникає, і продукт буде поступово замінено. На цей час продукт ще є кілька місяців «операції «Lifespan», достатньо для того, щоб компанії-початківці обрали наступний напрямок.

Поради стартапам зі штучним інтелектом: Web3+AI може зробити

Зараз існує багато підприємницьких проектів, пов’язаних із темою Web3+AI, але, враховуючи невизначеність технологічного розвитку та ранню стадію ринку, тема Web3+AI все ще матиме багато змінних у майбутньому.

Метою цієї статті є пошук правильної впевненості з високою ймовірністю в невизначеності, тому автор все ще сподівається викинути деякі ідеї та запропонувати деякі теми та напрямки, які можуть бути корисними для компаній-початківців та зацікавлених дослідники.

  • Десуверенітет/децентралізація

Наразі лідери індустрії штучного інтелекту надають лише моделі із закритим вихідним кодом, і стабільність, прозорість і нейтральність їх постійного надання послуг є неконтрольованими. Десуверенітет/децентралізація може стати важливою темою в індустрії штучного інтелекту, а саме: на основі базової структури десуверенітету/децентралізації надавати стабільні, прозорі та нейтральні послуги ШІ.

Десуверенізація/децентралізація є «альтернативним рішенням» і «стримуванням», яке може значно збільшити неетичну вартість централізованих/суверенних компаній ШІ та перешкодити їм використовувати моделі ШІ у військових, культових, політичних та інших аспектах.

У крайніх випадках, коли централізовані/суверенні служби штучного інтелекту з якихось причин більше не доступні/не довіряють, десуверенний/децентралізований штучний інтелект може продовжувати надавати високодоступні сервіси, щоб запобігти втраті штучного інтелекту окремими країнами/регіонами та навіть людством. Служби паралізовані.

  • Практичність обчислювальної потужності

За переходом ETH від PoW до PoS стоїть критикована дилема «майнінг не створює цінності», а поєднання Web3 і AI може забезпечити практичний сценарій для обчислювальної потужності, щоб реалізувати перетравлення запасів обчислювальної потужності та сприяти зростанню. загальної обчислювальної потужності тощо Ефект.

  • Віртуальна ассетизація

Штучний інтелект є природним ресурсом для обчислювальної потужності та сховища. Поєднання Web3 і ШІ може забезпечити канал для перетворення штучного інтелекту у віртуальні активи та створення реальних рідних віртуальних активів для Web3, одночасно реалізуючи цінність індустрії ШІ.

  • Змінні для програм Web3

Поєднання Web3 і штучного інтелекту може принести нові функціональні можливості та можливості для розвитку додатків Web3, а існуючі додатки Web3 можна повністю переробити.

Написано наприкінці: вересень, чи вартий поточний ШІ починати бізнес?

Почну з висновку: воно того варте, і цим висновком, швидше за все, можна буде користуватися до китайського Нового року.

Люди часто сприймають ситуації упереджено, і я не виняток. Деякі люди занадто оптимістичні, а деякі занадто песимістичні. Одного разу автор спілкувався з двома командами. Одна команда вважає, що зможе створити AI Agent у першому кварталі наступного року, а інша вважає, що AI підходить лише для управління базою знань. Очевидно, перша надто оптимістична, тоді як останнє є надто песимістичним.

При довгостроковому плануванні як надто оптимістичні, так і надто песимістичні впадуть у яму, а широко поширені зауваження часто мають великі відхилення, тому незалежне мислення дуже цінне. Таким чином, незалежно від того, чи можуть читачі прийняти точки зору цієї статті, якщо читачі мають незалежне мислення та судження в процесі читання, автор буде дуже задоволений.

Нарешті, рекламуйте. Якщо у вас є хороша ідея запуску AI або вже є проект, будь ласка, не соромтеся спілкуватися з друзями в NGC (як я).

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити