L'avènement de ChatGPT a permis à davantage de personnes d'accéder à une puissante intelligence artificielle (IA), mais le fonctionnement interne du chatbot reste un secret non divulgué.
En conséquence, les travaux visant à rendre l’IA plus « ouverte » semblent avoir retenu davantage l’attention ces derniers mois. **
En mai de cette année, quelqu'un a divulgué le modèle « Llama » de Meta, donnant au monde extérieur l'accès à son code sous-jacent et aux pondérations du modèle qui déterminent son comportement. En juillet, Meta a lancé un modèle plus puissant, Llama 2, qui, selon elle, peut être téléchargé, modifié et réutilisé gratuitement par tous. Depuis lors, la série de modèles Llama de Meta est devenue la base permettant à de nombreuses entreprises, chercheurs et amateurs d'IA de créer des outils et des applications dotés de fonctionnalités de type ChatGPT.
"Nous avons un large éventail de groupes à travers le monde qui croient en notre approche ouverte de l'IA aujourd'hui... Les chercheurs se sont engagés à mener des recherches en utilisant le modèle, et les gens des secteurs de la technologie, du monde universitaire et de la politique travaillent avec nous. Nous aussi, voyons le avantages de Llama et d'une plateforme ouverte", a déclaré Meta lors du lancement de Llama 2. Il y a quelques jours, Meta a également publié un autre modèle - Llama 2 Code, affiné pour le codage.
**Après des décennies de démocratisation de l'accès aux logiciels, de garantie de transparence et d'amélioration de la sécurité, il semble désormais qu'une approche open source ait un impact similaire sur l'intelligence artificielle. **
** Mais cela pourrait ne pas suffire. **
Une équipe de recherche de l'Université Carnegie Mellon, de l'AI Now Institute et de la Signal Foundation a publié un article intitulé « Open (For Business) : Big Tech, Concentrated Power, and the Political Economy of Open AI » qui explore les réalités du « Lama ». 2" et d'autres modèles d'intelligence artificielle qui sont en quelque sorte "open source". Ils ont dit qu'il pouvait y avoir quelques « pièges » dans le modèle sous la bannière « open source ».
Selon le journal, ** Bien que Llama 2 puisse être téléchargé, modifié et déployé gratuitement, il n'est pas couvert par les licences open source traditionnelles. ** La licence de Meta interdit d'utiliser Llama 2 pour entraîner d'autres modèles de langage, et une licence spéciale est requise si un développeur déploie Llama 2 dans une application ou un service comptant plus de 700 millions d'utilisateurs quotidiens.
**Ce niveau de contrôle signifie que Llama 2 peut apporter des avantages techniques et stratégiques significatifs à Meta - par exemple, Meta peut bénéficier d'ajustements bénéfiques lorsque des sociétés externes utilisent le modèle Llama 2 dans leurs propres applications. **
Les modèles publiés sous des licences open source courantes, telles que GPT Neo de l'association à but non lucratif EleutherAI, sont plus ouverts, ont indiqué les chercheurs. Mais ces projets ont du mal à rivaliser avec les modèles lancés par les plus grandes entreprises.
Premièrement, les données nécessaires à la formation de modèles avancés sont souvent confidentielles ; Deuxièmement, les frameworks logiciels requis pour créer de tels modèles sont généralement contrôlés par de grandes entreprises, et les deux frameworks logiciels les plus populaires sont respectivement TensorFlow et Pytorch. Maintenu par Google et Meta ; De plus, la puissance informatique requise pour former des modèles d'intelligence artificielle à grande échelle est hors de portée des développeurs ou des entreprises ordinaires, des dizaines ou des centaines de millions de dollars sont généralement nécessaires pour une session de formation. ; *Enfin * , la main d'œuvre nécessaire pour affiner et améliorer ces modèles est aussi pour l'essentiel une ressource que seules les grandes entreprises peuvent obtenir.
Par conséquent, l'équipe de recherche estime que à en juger par les tendances actuelles, cette technologie, l'une des plus importantes depuis des décennies, pourrait finir par enrichir et améliorer les capacités de quelques entreprises seulement, dont OpenAI, Microsoft, Meta et Google. Si l’intelligence artificielle est réellement une technologie qui peut changer le monde, et si elle peut être appliquée et popularisée plus largement, elle peut apporter le plus grand bénéfice au monde entier.
"Notre analyse montre que (ce niveau d') open source non seulement ne "démocratisera" l'IA", a déclaré Meredith Whittaker, l'une des auteurs du document, à Wired. "En effet, les entreprises et les institutions peuvent le faire. Et elles ont exploité les technologies "open source". consolider et élargir la concentration du pouvoir.
De plus,** même les systèmes d’IA « ouverts » les plus ouverts ne garantiront pas, à eux seuls, un accès démocratique ou une concurrence significative dans le domaine de l’IA, et l’ouverture ne résoudra pas non plus à elle seule les problèmes de surveillance et de censure. **
Whittaker a ajouté que l'open source devrait être une considération importante dans les réglementations indispensables sur l'IA : « Nous avons vraiment besoin d'alternatives significatives aux technologies définies et dominées par de grands monopoles, en particulier lorsque les systèmes d'IA sont intégrés dans des domaines très sensibles ayant un impact public particulier, tels que les soins de santé. , la finance, l’éducation, etc. Créer les conditions permettant de rendre cette substitution possible est un projet qui peut coexister, voire être soutenu par, des mouvements de régulation tels que la réforme antitrust.
L'équipe de recherche affirme également qu'en plus d'équilibrer le pouvoir des grandes entreprises, rendre l'IA plus ouverte peut être crucial pour libérer le meilleur potentiel de la technologie, tout en évitant ses pires tendances. **
** Si nous voulons comprendre la capacité des modèles d'IA de pointe et réduire les risques que leur déploiement et leur développement ultérieur peuvent entraîner, il est préférable de mettre ces modèles à la disposition des scientifiques du monde entier. **
Tout comme la « sécurité par l’obscurité » ne peut jamais véritablement garantir que le code s’exécute en toute sécurité, protéger la puissance des modèles d’IA n’est pas nécessairement la chose la plus intelligente à faire.
Lien de référence :
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Il peut y avoir quelques pièges dans le modèle d'IA sous la bannière de « l'open source » ?
L'avènement de ChatGPT a permis à davantage de personnes d'accéder à une puissante intelligence artificielle (IA), mais le fonctionnement interne du chatbot reste un secret non divulgué.
En conséquence, les travaux visant à rendre l’IA plus « ouverte » semblent avoir retenu davantage l’attention ces derniers mois. **
En mai de cette année, quelqu'un a divulgué le modèle « Llama » de Meta, donnant au monde extérieur l'accès à son code sous-jacent et aux pondérations du modèle qui déterminent son comportement. En juillet, Meta a lancé un modèle plus puissant, Llama 2, qui, selon elle, peut être téléchargé, modifié et réutilisé gratuitement par tous. Depuis lors, la série de modèles Llama de Meta est devenue la base permettant à de nombreuses entreprises, chercheurs et amateurs d'IA de créer des outils et des applications dotés de fonctionnalités de type ChatGPT.
**Après des décennies de démocratisation de l'accès aux logiciels, de garantie de transparence et d'amélioration de la sécurité, il semble désormais qu'une approche open source ait un impact similaire sur l'intelligence artificielle. **
** Mais cela pourrait ne pas suffire. **
Une équipe de recherche de l'Université Carnegie Mellon, de l'AI Now Institute et de la Signal Foundation a publié un article intitulé « Open (For Business) : Big Tech, Concentrated Power, and the Political Economy of Open AI » qui explore les réalités du « Lama ». 2" et d'autres modèles d'intelligence artificielle qui sont en quelque sorte "open source". Ils ont dit qu'il pouvait y avoir quelques « pièges » dans le modèle sous la bannière « open source ».
**Ce niveau de contrôle signifie que Llama 2 peut apporter des avantages techniques et stratégiques significatifs à Meta - par exemple, Meta peut bénéficier d'ajustements bénéfiques lorsque des sociétés externes utilisent le modèle Llama 2 dans leurs propres applications. **
Les modèles publiés sous des licences open source courantes, telles que GPT Neo de l'association à but non lucratif EleutherAI, sont plus ouverts, ont indiqué les chercheurs. Mais ces projets ont du mal à rivaliser avec les modèles lancés par les plus grandes entreprises.
Premièrement, les données nécessaires à la formation de modèles avancés sont souvent confidentielles ; Deuxièmement, les frameworks logiciels requis pour créer de tels modèles sont généralement contrôlés par de grandes entreprises, et les deux frameworks logiciels les plus populaires sont respectivement TensorFlow et Pytorch. Maintenu par Google et Meta ; De plus, la puissance informatique requise pour former des modèles d'intelligence artificielle à grande échelle est hors de portée des développeurs ou des entreprises ordinaires, des dizaines ou des centaines de millions de dollars sont généralement nécessaires pour une session de formation. ; *Enfin * , la main d'œuvre nécessaire pour affiner et améliorer ces modèles est aussi pour l'essentiel une ressource que seules les grandes entreprises peuvent obtenir.
Par conséquent, l'équipe de recherche estime que à en juger par les tendances actuelles, cette technologie, l'une des plus importantes depuis des décennies, pourrait finir par enrichir et améliorer les capacités de quelques entreprises seulement, dont OpenAI, Microsoft, Meta et Google. Si l’intelligence artificielle est réellement une technologie qui peut changer le monde, et si elle peut être appliquée et popularisée plus largement, elle peut apporter le plus grand bénéfice au monde entier.
"Notre analyse montre que (ce niveau d') open source non seulement ne "démocratisera" l'IA", a déclaré Meredith Whittaker, l'une des auteurs du document, à Wired. "En effet, les entreprises et les institutions peuvent le faire. Et elles ont exploité les technologies "open source". consolider et élargir la concentration du pouvoir.
De plus,** même les systèmes d’IA « ouverts » les plus ouverts ne garantiront pas, à eux seuls, un accès démocratique ou une concurrence significative dans le domaine de l’IA, et l’ouverture ne résoudra pas non plus à elle seule les problèmes de surveillance et de censure. **
Whittaker a ajouté que l'open source devrait être une considération importante dans les réglementations indispensables sur l'IA : « Nous avons vraiment besoin d'alternatives significatives aux technologies définies et dominées par de grands monopoles, en particulier lorsque les systèmes d'IA sont intégrés dans des domaines très sensibles ayant un impact public particulier, tels que les soins de santé. , la finance, l’éducation, etc. Créer les conditions permettant de rendre cette substitution possible est un projet qui peut coexister, voire être soutenu par, des mouvements de régulation tels que la réforme antitrust.
L'équipe de recherche affirme également qu'en plus d'équilibrer le pouvoir des grandes entreprises, rendre l'IA plus ouverte peut être crucial pour libérer le meilleur potentiel de la technologie, tout en évitant ses pires tendances. **
** Si nous voulons comprendre la capacité des modèles d'IA de pointe et réduire les risques que leur déploiement et leur développement ultérieur peuvent entraîner, il est préférable de mettre ces modèles à la disposition des scientifiques du monde entier. **
Tout comme la « sécurité par l’obscurité » ne peut jamais véritablement garantir que le code s’exécute en toute sécurité, protéger la puissance des modèles d’IA n’est pas nécessairement la chose la plus intelligente à faire.
Lien de référence :