Возможности управления DAO в свете событий вокруг OpenAI
Недавно внутренний конфликт в OpenAI вызвал широкое обсуждение в отрасли о моделях управления искусственным интеллектом. Многие мнения утверждают, что если бы OpenAI управлялся в форме децентрализованной автономной организации (DAO), возможно, удастся избежать этого кризиса. Эта точка зрения действительно имеет свои разумные основания, но не из-за очевидных преимуществ модели управления DAO, а из-за серьезных недостатков существующей структуры управления OpenAI.
Как некоммерческая организация, сосредоточенная на разработке безопасного общего искусственного интеллекта (AGI) и на благо всего человечества, OpenAI в некоторых отношениях весьма похожа на DAO, создающие общественные блага. Однако этот скандал выявил серьезные проблемы OpenAI в области ясности и разумности правил управления.
Например, совет директоров OpenAI, являющийся высшим органом принятия решений, сократился с 9 членов до 6, но не был своевременно дополнен. Если количество членов продолжит сокращаться до 3, то для принятия решений по важным вопросам компании достаточно будет согласия всего 2 человек. Более того, вызывает беспокойство тот факт, что такие ключевые решения, как замена CEO Сэма Альтмана, принимаются на закрытых заседаниях некоторыми директорами, а не обсуждаются и не рассматриваются на общем собрании совета директоров. Такой подход явно игнорирует требования других заинтересованных сторон и лишен необходимого процесса общения и согласования.
Для важной организации, влияющей на будущее человечества, механизмы управления OpenAI требуют улучшения. Заимствование концепции управления DAO для проектирования более устойчивой, прозрачной и инклюзивной управленческой структуры для OpenAI заслуживает более глубокого обсуждения. Это требует не только привлечения большего числа сдерживающих сил, таких как представители сотрудников, но и создания более эффективного механизма принятия решений.
Стоит отметить, что DAO и AGI имеют схожие цели в стремлении к автономии. DAO изначально было задумано как самодостаточная система, созданная с помощью кода, чтобы свести к минимуму человеческое вмешательство. AGI, в свою очередь, определяется как высокоавтономная система, превосходящая человека в большинстве экономических областей. Перед лицом таких автономных систем нам необходимо глубоко задуматься о том, как найти баланс между внутренним согласованием ценностей и внешними ограничениями.
Последние события вокруг OpenAI показывают, что 90% сотрудников подписали заявление о том, что готовы уволиться и последовать за Сэмом Альтманом. Это явление отражает давний основной спор в области DAO: что важнее, правила кода или общественное согласие?
Хотя правила и ограничения могут создать многоConsensus, истинно великое согласие часто исходит от общего чувства миссии и культурных ценностей. Это глубокое признание применимо не только между людьми, но также важно в области ИИ. Как развивать этот резонанс в ИИ-системах, станет серьезным вызовом для управления ИИ в будущем.
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
12 Лайков
Награда
12
4
Репост
Поделиться
комментарий
0/400
FundingMartyr
· 4ч назад
Игра есть игра, а шалость есть шалость. Централизованное управление все равно нужно лечить.
Посмотреть ОригиналОтветить0
tx_pending_forever
· 8ч назад
дао тоже не спасет
Посмотреть ОригиналОтветить0
GateUser-1a2ed0b9
· 8ч назад
Почему вы не берете меня с собой, чтобы поесть арбуз?
Скандал с OpenAI вызывает размышления: может ли управление DAO улучшить модель управления AI-компаниями
Возможности управления DAO в свете событий вокруг OpenAI
Недавно внутренний конфликт в OpenAI вызвал широкое обсуждение в отрасли о моделях управления искусственным интеллектом. Многие мнения утверждают, что если бы OpenAI управлялся в форме децентрализованной автономной организации (DAO), возможно, удастся избежать этого кризиса. Эта точка зрения действительно имеет свои разумные основания, но не из-за очевидных преимуществ модели управления DAO, а из-за серьезных недостатков существующей структуры управления OpenAI.
Как некоммерческая организация, сосредоточенная на разработке безопасного общего искусственного интеллекта (AGI) и на благо всего человечества, OpenAI в некоторых отношениях весьма похожа на DAO, создающие общественные блага. Однако этот скандал выявил серьезные проблемы OpenAI в области ясности и разумности правил управления.
Например, совет директоров OpenAI, являющийся высшим органом принятия решений, сократился с 9 членов до 6, но не был своевременно дополнен. Если количество членов продолжит сокращаться до 3, то для принятия решений по важным вопросам компании достаточно будет согласия всего 2 человек. Более того, вызывает беспокойство тот факт, что такие ключевые решения, как замена CEO Сэма Альтмана, принимаются на закрытых заседаниях некоторыми директорами, а не обсуждаются и не рассматриваются на общем собрании совета директоров. Такой подход явно игнорирует требования других заинтересованных сторон и лишен необходимого процесса общения и согласования.
Для важной организации, влияющей на будущее человечества, механизмы управления OpenAI требуют улучшения. Заимствование концепции управления DAO для проектирования более устойчивой, прозрачной и инклюзивной управленческой структуры для OpenAI заслуживает более глубокого обсуждения. Это требует не только привлечения большего числа сдерживающих сил, таких как представители сотрудников, но и создания более эффективного механизма принятия решений.
Стоит отметить, что DAO и AGI имеют схожие цели в стремлении к автономии. DAO изначально было задумано как самодостаточная система, созданная с помощью кода, чтобы свести к минимуму человеческое вмешательство. AGI, в свою очередь, определяется как высокоавтономная система, превосходящая человека в большинстве экономических областей. Перед лицом таких автономных систем нам необходимо глубоко задуматься о том, как найти баланс между внутренним согласованием ценностей и внешними ограничениями.
Последние события вокруг OpenAI показывают, что 90% сотрудников подписали заявление о том, что готовы уволиться и последовать за Сэмом Альтманом. Это явление отражает давний основной спор в области DAO: что важнее, правила кода или общественное согласие?
Хотя правила и ограничения могут создать многоConsensus, истинно великое согласие часто исходит от общего чувства миссии и культурных ценностей. Это глубокое признание применимо не только между людьми, но также важно в области ИИ. Как развивать этот резонанс в ИИ-системах, станет серьезным вызовом для управления ИИ в будущем.