Le 26 octobre, Microsoft, OpenAI, Google et Anthropic ont publié une déclaration commune sur leur site officiel, nommant Chris Meserole au poste de directeur exécutif du « Frontier Model Forum » et investissant 10 millions de dollars dans des fonds de sécurité pour améliorer la sécurité des produits d’IA générative tels que ChatGPT et Bard.
Cette déclaration est une performance importante des quatre grandes entreprises technologiques pour développer une IA générative sûre, fiable et stable, et elle fait également partie de l'« Engagement de sécurité de l’IA » signé avec le responsable, qui est crucial pour le développement sain de l’IA générative mondiale.
Introduction au Frontier Model Forum
Le Frontier Model Forum, cofondé par Microsoft, OpenAI, Google et Anthropic le 26 juillet dernier, est principalement chargé d’assurer un développement sécurisé et responsable de modèles d’IA de pointe.
4 objectifs principaux du forum :
Promouvoir la recherche sur la sécurité de l’IA, promouvoir le développement responsable de modèles de pointe, minimiser les risques et permettre des évaluations indépendantes et standardisées des capacités et de la sécurité de l’IA.
Identifier les meilleures pratiques pour développer et déployer de manière responsable des modèles de pointe afin d’aider le public à comprendre la nature, les capacités, les limites et les impacts de la technologie.
Travailler avec les décideurs politiques, les universitaires, la société civile et les entreprises pour partager les connaissances sur les risques de confiance et de sécurité.
Un soutien solide au développement d’applications d’IA qui aident à relever les défis sociétaux, tels que l’atténuation et l’adaptation au changement climatique, la détection et la prévention précoces du cancer et la lutte contre les cybermenaces.
Responsabilités de Chris Meserole
Chris possède une expertise approfondie en matière de politique technologique, avec un engagement de longue date envers la gouvernance et la sécurité des technologies émergentes et des applications futures. Plus récemment, Chris a également occupé le poste de directeur de l’initiative sur l’IA et les technologies émergentes à la Brookings Institution.
Au sein du Frontier Model Forum, Chris effectuera les tâches suivantes :
Promouvoir la recherche sur la sécurité de l’IA, promouvoir le développement de modèles de pointe et minimiser les risques potentiels.
Identifiez les meilleures pratiques de sécurité pour les modèles de pointe.
Partager les connaissances avec les décideurs, les universités, la société et d’autres parties prenantes pour favoriser le développement responsable de l’IA.
Soutenir les efforts visant à utiliser l’IA pour résoudre les plus grands défis de la société.
Chris affirme que les modèles d’IA les plus puissants sont extrêmement prometteurs pour la société, mais que pour atteindre leur potentiel, nous devons mieux comprendre comment les développer et les évaluer en toute sécurité. Je suis heureux de travailler avec le Frontier Model Forum pour relever ce défi.
Fonds de sécurité de l’IA
Au cours de l’année écoulée, l’IA générative a fait d’énormes progrès, tout comme de nombreux risques potentiels pour la sécurité. Pour relever ce défi, Microsoft, OpenAI, Google et Anthropic ont créé un fonds de sécurité de l’IA pour aider les chercheurs indépendants d’institutions universitaires, d’instituts de recherche et de startups du monde entier à travailler ensemble pour construire un écosystème de sécurité de l’IA sain et sûr.
Plus tôt cette année, Microsoft, OpenAI, Google et Anthropic ont signé le « AI Security Pledge », qui comprend un engagement à faciliter la découverte et le signalement par des tiers des vulnérabilités de l’IA dans les quatre grandes entreprises technologiques.
L’objectif principal du Fonds de sécurité de l’IA est de soutenir le développement de nouvelles techniques d’évaluation des modèles pour aider à développer et à tester des modèles d’IA de pointe.
L’augmentation du financement de la sécurité de l’IA contribuera à améliorer les normes de sûreté et de sécurité et à fournir des contrôles efficaces aux industries et aux développeurs pour relever les défis posés par les systèmes d’IA.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Microsoft, OpenAI, etc. ont investi 10 millions de dollars, qu’est-ce que le « Frontier Model Forum » ?
Source originale : Communauté ouverte de l’AIGC
Le 26 octobre, Microsoft, OpenAI, Google et Anthropic ont publié une déclaration commune sur leur site officiel, nommant Chris Meserole au poste de directeur exécutif du « Frontier Model Forum » et investissant 10 millions de dollars dans des fonds de sécurité pour améliorer la sécurité des produits d’IA générative tels que ChatGPT et Bard.
Cette déclaration est une performance importante des quatre grandes entreprises technologiques pour développer une IA générative sûre, fiable et stable, et elle fait également partie de l'« Engagement de sécurité de l’IA » signé avec le responsable, qui est crucial pour le développement sain de l’IA générative mondiale.
Introduction au Frontier Model Forum
Le Frontier Model Forum, cofondé par Microsoft, OpenAI, Google et Anthropic le 26 juillet dernier, est principalement chargé d’assurer un développement sécurisé et responsable de modèles d’IA de pointe.
4 objectifs principaux du forum :
Promouvoir la recherche sur la sécurité de l’IA, promouvoir le développement responsable de modèles de pointe, minimiser les risques et permettre des évaluations indépendantes et standardisées des capacités et de la sécurité de l’IA.
Identifier les meilleures pratiques pour développer et déployer de manière responsable des modèles de pointe afin d’aider le public à comprendre la nature, les capacités, les limites et les impacts de la technologie.
Travailler avec les décideurs politiques, les universitaires, la société civile et les entreprises pour partager les connaissances sur les risques de confiance et de sécurité.
Un soutien solide au développement d’applications d’IA qui aident à relever les défis sociétaux, tels que l’atténuation et l’adaptation au changement climatique, la détection et la prévention précoces du cancer et la lutte contre les cybermenaces.
Responsabilités de Chris Meserole
Chris possède une expertise approfondie en matière de politique technologique, avec un engagement de longue date envers la gouvernance et la sécurité des technologies émergentes et des applications futures. Plus récemment, Chris a également occupé le poste de directeur de l’initiative sur l’IA et les technologies émergentes à la Brookings Institution.
Au sein du Frontier Model Forum, Chris effectuera les tâches suivantes :
Chris affirme que les modèles d’IA les plus puissants sont extrêmement prometteurs pour la société, mais que pour atteindre leur potentiel, nous devons mieux comprendre comment les développer et les évaluer en toute sécurité. Je suis heureux de travailler avec le Frontier Model Forum pour relever ce défi.
Fonds de sécurité de l’IA
Au cours de l’année écoulée, l’IA générative a fait d’énormes progrès, tout comme de nombreux risques potentiels pour la sécurité. Pour relever ce défi, Microsoft, OpenAI, Google et Anthropic ont créé un fonds de sécurité de l’IA pour aider les chercheurs indépendants d’institutions universitaires, d’instituts de recherche et de startups du monde entier à travailler ensemble pour construire un écosystème de sécurité de l’IA sain et sûr.
L’objectif principal du Fonds de sécurité de l’IA est de soutenir le développement de nouvelles techniques d’évaluation des modèles pour aider à développer et à tester des modèles d’IA de pointe.
L’augmentation du financement de la sécurité de l’IA contribuera à améliorer les normes de sûreté et de sécurité et à fournir des contrôles efficaces aux industries et aux développeurs pour relever les défis posés par les systèmes d’IA.