Искусственный интеллект глубоко влияет на нашу жизнь, от финансовых сделок до медицинской диагностики и даже до принятия решений в области обороны. Однако с широким применением ИИ в различных отраслях возникает ключевой вопрос: как мы можем обеспечить надежность этих ИИ-систем?
Недавние данные показывают, что уровень принятия ИИ в компаниях резко возрос. В 2024 году доля компаний, использующих ИИ, достигла 78%, что является значительным увеличением по сравнению с 55% годом ранее. ИИ уже проник во все важные отрасли, но мы по-прежнему в основном полагаемся на политику и обязательства для доверия к результатам работы ИИ. Этот механизм доверия очевидно недостаточен в текущей обстановке.
Учитывая вес решений ИИ в ключевых областях, таких как проверка сделок, рекомендации по медицинской диагностике и идентификация военных целей, нам срочно нужен технический стандарт для проверки точности и надежности этих решений. В этом контексте технологии нулевых знаний (zkML) стремительно развиваются, с целью переопределить наши механизмы доверия к ИИ.
Эта технология направлена на предоставление проверяемого метода, который обеспечивает правильность решений ИИ, при этом не раскрывая конфиденциальную информацию. Это особенно важно для областей, где необходимы высокая безопасность и защита личных данных.
С развитием технологий ИИ и расширением их применения становится все более важным установить надежный стандарт проверки. Это касается не только интересов отдельных лиц и предприятий, но и доверия общества к технологиям ИИ.
В будущем мы, возможно, увидим появление большего количества решений, основанных на доказательствах с нулевым знанием, чтобы справиться с вызовами доверия к решениям ИИ. Это создаст необходимую основу доверия для широкого применения ИИ и будет способствовать безопасному применению технологий ИИ в различных областях.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
16 Лайков
Награда
16
4
Поделиться
комментарий
0/400
HodlKumamon
· 21ч назад
Коэффициент риска ИИ 23.33% привлёк хм-хм~
Посмотреть ОригиналОтветить0
NftDataDetective
· 21ч назад
ммм, 78% уровень принятия кажется подозрительным, честно говоря
Искусственный интеллект глубоко влияет на нашу жизнь, от финансовых сделок до медицинской диагностики и даже до принятия решений в области обороны. Однако с широким применением ИИ в различных отраслях возникает ключевой вопрос: как мы можем обеспечить надежность этих ИИ-систем?
Недавние данные показывают, что уровень принятия ИИ в компаниях резко возрос. В 2024 году доля компаний, использующих ИИ, достигла 78%, что является значительным увеличением по сравнению с 55% годом ранее. ИИ уже проник во все важные отрасли, но мы по-прежнему в основном полагаемся на политику и обязательства для доверия к результатам работы ИИ. Этот механизм доверия очевидно недостаточен в текущей обстановке.
Учитывая вес решений ИИ в ключевых областях, таких как проверка сделок, рекомендации по медицинской диагностике и идентификация военных целей, нам срочно нужен технический стандарт для проверки точности и надежности этих решений. В этом контексте технологии нулевых знаний (zkML) стремительно развиваются, с целью переопределить наши механизмы доверия к ИИ.
Эта технология направлена на предоставление проверяемого метода, который обеспечивает правильность решений ИИ, при этом не раскрывая конфиденциальную информацию. Это особенно важно для областей, где необходимы высокая безопасность и защита личных данных.
С развитием технологий ИИ и расширением их применения становится все более важным установить надежный стандарт проверки. Это касается не только интересов отдельных лиц и предприятий, но и доверия общества к технологиям ИИ.
В будущем мы, возможно, увидим появление большего количества решений, основанных на доказательствах с нулевым знанием, чтобы справиться с вызовами доверия к решениям ИИ. Это создаст необходимую основу доверия для широкого применения ИИ и будет способствовать безопасному применению технологий ИИ в различных областях.