La sécurité des modèles d’IA est très importante tant pour les entreprises d’applications d’IA que pour les utilisateurs et les clients qui utilisent des applications d’IA. Pour les entreprises d’IA, tout en protégeant la sécurité des modèles d’IA, il convient également de prêter attention à la capacité de protéger les données et les algorithmes d’origine contre les fuites sans augmenter les coûts de travail inutiles.
Une société appelée HiddenLayer a construit une plate-forme de sécurité complète qui fournit une sécurité d’IA plug-and-play sans ajouter de complexité inutile au niveau du modèle d’IA ou accéder aux données brutes et aux algorithmes.
Récemment, la société a reçu un tour de table de série A de 50 millions de dollars mené par M12 et Moore Strategic Ventures, avec la participation de Booz Allen Ventures, IBM Ventures, Capital One Ventures et Ten Eleven Ventures (qui a mené son tour de table d’amorçage), ce qui constitue le plus grand tour de financement de série A dans le domaine de la sécurité de l’IA à ce jour.
HiddenLayer a aidé à protéger les modèles d’IA/ML utilisés par plusieurs entreprises du Fortune 100 dans des domaines tels que la finance et la cybersécurité.
Elle a également formé des partenariats stratégiques avec Intel et Databricks, recevant des distinctions telles que la startup la plus innovante de RSAC et la startup de démarrage la plus prometteuse de SC Media. L’entreprise a presque quadruplé ses effectifs au cours de l’année écoulée et prévoit d’augmenter ses effectifs de 50 à 90 personnes d’ici la fin de l’année, en investissant davantage dans la recherche et le développement.
Après avoir été confrontés à des attaques contre l’IA, les entrepreneurs en série y voient une opportunité
Selon Gartner, deux organisations sur cinq dans toutes les cyberattaques d’IA en 2022 ont subi des violations de la vie privée ou des incidents de sécurité liés à l’IA, et un quart de ces attaques étaient malveillantes.
L’agence de cybersécurité du Royaume-Uni, le National Cyber Security Center, avertit également que « les attaquants attaquent des chatbots de modèles à langage large tels que ChatGPT pour accéder à des informations confidentielles, générer du contenu offensant et » déclencher des conséquences inattendues. "
Dans une étude Forrester commandée par HiddenLayer, 86 % des personnes interrogées sont « très préoccupées ou préoccupées » par la sécurité des modèles d’apprentissage automatique de leur entreprise.
La majorité des entreprises interrogées ont déclaré qu’elles s’appuyaient actuellement sur des processus manuels pour contrer les menaces des modèles d’IA, et 80 % des personnes interrogées prévoient d’investir dans une solution qui gère l’intégrité et la sécurité des modèles d’apprentissage automatique au cours des 12 prochains mois.
La cybersécurité est particulièrement technique et spécialisée par rapport à d’autres domaines, le marché mondial de la cybersécurité devant atteindre 403 milliards de dollars d’ici 2027, avec un TCAC de 12,5 % de 2020 à 2027, selon une étude précédente du magazine Fortune.
HiddenLayer a été cofondée par Christopher Sestito (PDG), Tanner Burns (scientifique en chef) et James Ballard (DSI). Ils travaillaient dans leur ancienne entreprise, Cylance, une start-up de sécurité qui a été acquise par BlackBerry. L’idée est née après une cyberattaque sur un modèle d’IA.
Chris Sestito, PDG et cofondateur de HiddenLayer, se souvient : « Après que les modèles d’apprentissage automatique que nous avons obtenus aient été attaqués directement par nos produits, nous avons mené l’effort de sauvetage et réalisé que ce serait un énorme problème pour toute organisation déployant des modèles d’apprentissage automatique dans nos produits. Nous avons décidé de créer HiddenLayer pour éduquer les entreprises sur cette menace importante et les aider à se défendre contre les attaques. "
Sestito dirigeait la recherche sur les menaces chez Cylance, Ballard était à la tête de l’équipe de curation des données de Cylance et Burns était un chercheur sur les menaces.
Chris Sestito a commenté l’opportunité de marché : « Nous savons que presque toutes les entreprises utilisent désormais l’IA sous de nombreuses formes, mais nous savons également qu’aucune autre technologie n’a atteint une adoption aussi généralisée sans sécurité. Nous nous engageons à créer les solutions de sécurité les plus fluides du marché pour les clients qui répondent à ce besoin non satisfait. "
À propos de la technologie, Chris Sestito a déclaré : « De nombreux scientifiques des données s’appuient sur des modèles d’apprentissage automatique pré-entraînés, open source ou propriétaires pour réduire le temps d’analyse et simplifier les tests, puis obtenir des informations à partir d’ensembles de données complexes. L’utilisation de modèles open source pré-entraînés accessibles au public expose potentiellement les organisations à des attaques de transfert d’apprentissage à partir de modèles falsifiés et accessibles au public.
Notre plateforme fournit des outils pour protéger les modèles d’IA contre les attaques adverses, les vulnérabilités et les injections de code malveillant. Il surveille les entrées et les sorties des systèmes d’IA pour tester l’intégrité des modèles avant leur déploiement. Il utilise des techniques pour observer uniquement les entrées des modèles et des vecteurs (ou représentations mathématiques) des sorties qu’ils produisent, sans avoir besoin d’accéder à leurs modèles propriétaires. "
Todd Graham, associé directeur de M12, a déclaré : « Inspirés par leur propre expérience des attaques d’IA antagonistes, les fondateurs de HiddenLayer ont construit une plateforme essentielle pour toute entreprise utilisant les technologies d’IA et de ML.
Leur expérience directe de ces attaques, combinée à leur vision et à leur approche novatrice, fait de l’entreprise la solution de choix pour sécuriser ces modèles. Dès la première réunion avec les fondateurs, nous savions qu’il s’agissait d’une grande idée dans le domaine de la sécurité et nous voulions les aider à se développer. "
Créez une plateforme MLSec qui protège de manière complète la sécurité de l’IA
Le produit phare de HiddenLayer, la plate-forme de sécurité pour la détection et la prévention des cyberattaques sur les systèmes pilotés par l’apprentissage automatique (MLSec), est la première solution MLDR (Machine Learning Detection and Response) du secteur qui protège les entreprises et leurs clients contre les vecteurs d’attaque émergents.
La plate-forme MLSec se compose de HiddenLayer MLDR, de ModelScanner et de rapports d’audit de sécurité.
La plate-forme MLSec de HiddenLayer est dotée d’un tableau de bord simple mais puissant qui permet aux responsables de la sécurité de voir en un coup d’œil si leurs modèles ML/AI d’entreprise sont dans un état sécurisé. Il hiérarchise également automatiquement les problèmes de sécurité et les alertes en fonction de leur gravité, et stocke les données à des fins de conformité, d’audit et de reporting qu’une entreprise peut être tenue de faire.
Sa solution MLDR adopte une approche basée sur l’apprentissage automatique pour analyser des milliards d’interactions de modèles chaque minute afin d’identifier les activités malveillantes sans avoir accès au modèle ML d’un utilisateur ou à des données d’entraînement sensibles ou en avoir une connaissance préalable. Il est capable de détecter et de répondre aux attaques contre les modèles ML, en protégeant la propriété intellectuelle et les secrets commerciaux contre le vol ou la falsification, garantissant ainsi que les utilisateurs ne sont pas attaqués.
HiddenLayer propose également des services de conseil pour les équipes d’experts en apprentissage automatique (AML) qui peuvent effectuer des évaluations des menaces, former le personnel de cybersécurité et DevOps des clients et mener des exercices d’équipe rouge pour s’assurer que les défenses des clients fonctionnent comme prévu.
Types d’attaques contre lesquelles la plateforme MLSec de HiddenLayer peut se protéger
Inférence/extraction : les attaques par extraction impliquent que les attaquants manipulent les entrées du modèle, analysent les sorties et déduisent les limites de décision pour reconstruire les données d’apprentissage, extraire les paramètres du modèle ou effectuer un vol de modèle en entraînant un modèle alternatif qui se rapproche de la cible.
Voler des modèles d’apprentissage automatique : les attaquants volent les fruits de frameworks d’apprentissage automatique coûteux.
Extraction des données d’apprentissage : un attaquant peut effectuer une attaque par inférence de membre en observant simplement sa sortie sans accéder aux paramètres du modèle de machine learning. Lorsque le modèle cible est entraîné sur des informations sensibles, l’inférence des membres peut soulever des problèmes de sécurité et de confidentialité.
Empoisonnement des données : l’empoisonnement se produit lorsqu’un attaquant injecte de nouvelles données spécifiquement modifiées dans l’ensemble d’apprentissage. Cela permet d’tromper ou de subvertir les modèles d’apprentissage automatique pour fournir des résultats inexacts, biaisés ou malveillants.
Injection de modèle : L’injection de modèle est une technique qui repose sur la modification d’un modèle d’apprentissage automatique en insérant un module malveillant qui introduit un comportement secret, nuisible ou indésirable.
Détournement de modèle : cette attaque peut injecter du code malveillant dans un modèle PyTorch existant, qui exfiltre tous les fichiers du répertoire actuel vers un serveur distant.
HiddenLayer fournit les services spécifiques suivants
Modélisation des menaces : évaluez l’environnement global de l’IA/ML et les risques liés aux actifs par le biais d’entretiens de découverte et de discussions basées sur des scénarios.
Évaluation des risques liés à l’apprentissage automatique : effectuez une analyse détaillée du cycle de vie des opérations d’IA du client et explorez les modèles d’IA les plus critiques du client afin de déterminer le risque pour l’organisation des investissements actuels en matière d’IA/ML, ainsi que les efforts et/ou les contrôles nécessaires pour s’améliorer.
Formation d’experts : offre une formation d’une journée complète aux équipes de science des données et de sécurité pour les aider à se protéger contre ces attaques et menaces contre l’IA.
Évaluation de l’équipe rouge : l’équipe de recherche sur l’apprentissage automatique antagoniste (AMLR) simulera l’attaque d’un attaquant afin d’évaluer les défenses existantes et de corriger les vulnérabilités.
Analyse des modèles d’IA/ML : utilisez l’analyseur d’intégrité des modèles de HiddenLayer pour tester et valider les modèles d’IA/ML existants contre les menaces (par exemple, les logiciels malveillants) et la falsification.
Services de mise en œuvre ML Detection and Response (MLDR) :* Implémentez et intégrez de manière experte les produits MLDR de HiddenLayer dans les environnements d’IA/ML, en donnant aux équipes de science des données et de sécurité les capacités et la visibilité dont elles ont besoin pour prévenir les attaques, améliorer les temps de réponse et maximiser l’efficacité des modèles.
Coopération avec les géants pour renforcer la construction écologique
En plus de la création de produits et de plateformes, HiddenLayer a également des partenaires solides, Databricks a un partenariat pour mettre la plate-forme MLSec à la disposition des utilisateurs d’entreprise déployant des modèles d’IA dans les lacs de données Databricks. Cela renforce la sécurité de l’IA au niveau du lac de données.
Grâce à la coopération stratégique avec Intel, l’informatique confidentielle d’Intel SGX et le scanner de modèles d’apprentissage automatique de HiddenLayer sont combinés pour fournir une solution de sécurité d’IA intégrée au matériel et aux logiciels.
Ces deux coopérations stratégiques ont rendu l’ensemble de l’écosystème de HiddenLayer plus complet, et il a également gagné les faveurs des clients, qui ont obtenu plusieurs grands clients dans les domaines de la finance et du gouvernement.
L’IA est entrée dans la phase pratique et des opportunités entrepreneuriales sûres en matière d’IA ont émergé
La sécurité de l’IA, en particulier au niveau du modèle, est déjà un besoin certain, et Protect AI, qui se spécialise dans la sécurité des modèles d’IA, a déjà reçu un tour de financement de série A de 35 millions de dollars mené par Evolution Equity Partners et Salesforce Ventures.
Selon Sestito, fondateur de HiddenLayer, à mesure que le marché de l’IA se développe, le marché de la sécurité de l’IA se développera simultanément, et en plus de Protect AI et HiddenLayer, des entreprises telles que Robust Intelligence, CalypsoAI, Halcyon et Troj.ai travaillent également dans le domaine de la sécurité de l’IA.
Par exemple, Ten Eleven Ventures, l’un des premiers investisseurs de HiddenLayer, a également investi dans un tour de table de 20 millions de dollars de Halcyon, une société qui se concentre sur les outils de défense contre les ransomwares d’IA qui aident les utilisateurs de logiciels d’IA à prévenir les attaques et à s’en remettre rapidement.
Au fur et à mesure que cette vague d’IA passe du stade du battage médiatique conceptuel au stade de l’application réelle, de l’entrepreneuriat des grands modèles à l’entrepreneuriat des applications de l’IA, la sécurité de l’IA devient de plus en plus importante. Qu’il s’agisse d’assurer la sécurité des modèles d’IA ou de protéger la sécurité des applications d’IA, le développement de la sécurité de l’IA peut encore approfondir la pénétration de l’IA du côté de la ToC et du côté de l’entreprise.
Il existe déjà un grand nombre de startups de sécurité de l’IA à l’étranger, et sur le marché chinois, la même demande existe également, et nous nous attendons à ce que des entrepreneurs locaux exceptionnels se dirigent vers cet important domaine entrepreneurial.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Pour protéger pleinement la sécurité de l’IA, HiddenLayer a reçu un financement de série A de 50 millions de dollars
Source originale : Alpha Commune
La sécurité des modèles d’IA est très importante tant pour les entreprises d’applications d’IA que pour les utilisateurs et les clients qui utilisent des applications d’IA. Pour les entreprises d’IA, tout en protégeant la sécurité des modèles d’IA, il convient également de prêter attention à la capacité de protéger les données et les algorithmes d’origine contre les fuites sans augmenter les coûts de travail inutiles.
Une société appelée HiddenLayer a construit une plate-forme de sécurité complète qui fournit une sécurité d’IA plug-and-play sans ajouter de complexité inutile au niveau du modèle d’IA ou accéder aux données brutes et aux algorithmes.
Récemment, la société a reçu un tour de table de série A de 50 millions de dollars mené par M12 et Moore Strategic Ventures, avec la participation de Booz Allen Ventures, IBM Ventures, Capital One Ventures et Ten Eleven Ventures (qui a mené son tour de table d’amorçage), ce qui constitue le plus grand tour de financement de série A dans le domaine de la sécurité de l’IA à ce jour.
HiddenLayer a aidé à protéger les modèles d’IA/ML utilisés par plusieurs entreprises du Fortune 100 dans des domaines tels que la finance et la cybersécurité.
Elle a également formé des partenariats stratégiques avec Intel et Databricks, recevant des distinctions telles que la startup la plus innovante de RSAC et la startup de démarrage la plus prometteuse de SC Media. L’entreprise a presque quadruplé ses effectifs au cours de l’année écoulée et prévoit d’augmenter ses effectifs de 50 à 90 personnes d’ici la fin de l’année, en investissant davantage dans la recherche et le développement.
Après avoir été confrontés à des attaques contre l’IA, les entrepreneurs en série y voient une opportunité
Selon Gartner, deux organisations sur cinq dans toutes les cyberattaques d’IA en 2022 ont subi des violations de la vie privée ou des incidents de sécurité liés à l’IA, et un quart de ces attaques étaient malveillantes.
L’agence de cybersécurité du Royaume-Uni, le National Cyber Security Center, avertit également que « les attaquants attaquent des chatbots de modèles à langage large tels que ChatGPT pour accéder à des informations confidentielles, générer du contenu offensant et » déclencher des conséquences inattendues. "
Dans une étude Forrester commandée par HiddenLayer, 86 % des personnes interrogées sont « très préoccupées ou préoccupées » par la sécurité des modèles d’apprentissage automatique de leur entreprise.
La majorité des entreprises interrogées ont déclaré qu’elles s’appuyaient actuellement sur des processus manuels pour contrer les menaces des modèles d’IA, et 80 % des personnes interrogées prévoient d’investir dans une solution qui gère l’intégrité et la sécurité des modèles d’apprentissage automatique au cours des 12 prochains mois.
La cybersécurité est particulièrement technique et spécialisée par rapport à d’autres domaines, le marché mondial de la cybersécurité devant atteindre 403 milliards de dollars d’ici 2027, avec un TCAC de 12,5 % de 2020 à 2027, selon une étude précédente du magazine Fortune.
Chris Sestito, PDG et cofondateur de HiddenLayer, se souvient : « Après que les modèles d’apprentissage automatique que nous avons obtenus aient été attaqués directement par nos produits, nous avons mené l’effort de sauvetage et réalisé que ce serait un énorme problème pour toute organisation déployant des modèles d’apprentissage automatique dans nos produits. Nous avons décidé de créer HiddenLayer pour éduquer les entreprises sur cette menace importante et les aider à se défendre contre les attaques. "
Sestito dirigeait la recherche sur les menaces chez Cylance, Ballard était à la tête de l’équipe de curation des données de Cylance et Burns était un chercheur sur les menaces.
Chris Sestito a commenté l’opportunité de marché : « Nous savons que presque toutes les entreprises utilisent désormais l’IA sous de nombreuses formes, mais nous savons également qu’aucune autre technologie n’a atteint une adoption aussi généralisée sans sécurité. Nous nous engageons à créer les solutions de sécurité les plus fluides du marché pour les clients qui répondent à ce besoin non satisfait. "
À propos de la technologie, Chris Sestito a déclaré : « De nombreux scientifiques des données s’appuient sur des modèles d’apprentissage automatique pré-entraînés, open source ou propriétaires pour réduire le temps d’analyse et simplifier les tests, puis obtenir des informations à partir d’ensembles de données complexes. L’utilisation de modèles open source pré-entraînés accessibles au public expose potentiellement les organisations à des attaques de transfert d’apprentissage à partir de modèles falsifiés et accessibles au public.
Notre plateforme fournit des outils pour protéger les modèles d’IA contre les attaques adverses, les vulnérabilités et les injections de code malveillant. Il surveille les entrées et les sorties des systèmes d’IA pour tester l’intégrité des modèles avant leur déploiement. Il utilise des techniques pour observer uniquement les entrées des modèles et des vecteurs (ou représentations mathématiques) des sorties qu’ils produisent, sans avoir besoin d’accéder à leurs modèles propriétaires. "
Todd Graham, associé directeur de M12, a déclaré : « Inspirés par leur propre expérience des attaques d’IA antagonistes, les fondateurs de HiddenLayer ont construit une plateforme essentielle pour toute entreprise utilisant les technologies d’IA et de ML.
Leur expérience directe de ces attaques, combinée à leur vision et à leur approche novatrice, fait de l’entreprise la solution de choix pour sécuriser ces modèles. Dès la première réunion avec les fondateurs, nous savions qu’il s’agissait d’une grande idée dans le domaine de la sécurité et nous voulions les aider à se développer. "
Créez une plateforme MLSec qui protège de manière complète la sécurité de l’IA
Le produit phare de HiddenLayer, la plate-forme de sécurité pour la détection et la prévention des cyberattaques sur les systèmes pilotés par l’apprentissage automatique (MLSec), est la première solution MLDR (Machine Learning Detection and Response) du secteur qui protège les entreprises et leurs clients contre les vecteurs d’attaque émergents.
La plate-forme MLSec se compose de HiddenLayer MLDR, de ModelScanner et de rapports d’audit de sécurité.
Sa solution MLDR adopte une approche basée sur l’apprentissage automatique pour analyser des milliards d’interactions de modèles chaque minute afin d’identifier les activités malveillantes sans avoir accès au modèle ML d’un utilisateur ou à des données d’entraînement sensibles ou en avoir une connaissance préalable. Il est capable de détecter et de répondre aux attaques contre les modèles ML, en protégeant la propriété intellectuelle et les secrets commerciaux contre le vol ou la falsification, garantissant ainsi que les utilisateurs ne sont pas attaqués.
HiddenLayer propose également des services de conseil pour les équipes d’experts en apprentissage automatique (AML) qui peuvent effectuer des évaluations des menaces, former le personnel de cybersécurité et DevOps des clients et mener des exercices d’équipe rouge pour s’assurer que les défenses des clients fonctionnent comme prévu.
Types d’attaques contre lesquelles la plateforme MLSec de HiddenLayer peut se protéger
Inférence/extraction : les attaques par extraction impliquent que les attaquants manipulent les entrées du modèle, analysent les sorties et déduisent les limites de décision pour reconstruire les données d’apprentissage, extraire les paramètres du modèle ou effectuer un vol de modèle en entraînant un modèle alternatif qui se rapproche de la cible.
Voler des modèles d’apprentissage automatique : les attaquants volent les fruits de frameworks d’apprentissage automatique coûteux.
Extraction des données d’apprentissage : un attaquant peut effectuer une attaque par inférence de membre en observant simplement sa sortie sans accéder aux paramètres du modèle de machine learning. Lorsque le modèle cible est entraîné sur des informations sensibles, l’inférence des membres peut soulever des problèmes de sécurité et de confidentialité.
Empoisonnement des données : l’empoisonnement se produit lorsqu’un attaquant injecte de nouvelles données spécifiquement modifiées dans l’ensemble d’apprentissage. Cela permet d’tromper ou de subvertir les modèles d’apprentissage automatique pour fournir des résultats inexacts, biaisés ou malveillants.
Injection de modèle : L’injection de modèle est une technique qui repose sur la modification d’un modèle d’apprentissage automatique en insérant un module malveillant qui introduit un comportement secret, nuisible ou indésirable.
Détournement de modèle : cette attaque peut injecter du code malveillant dans un modèle PyTorch existant, qui exfiltre tous les fichiers du répertoire actuel vers un serveur distant.
HiddenLayer fournit les services spécifiques suivants
Modélisation des menaces : évaluez l’environnement global de l’IA/ML et les risques liés aux actifs par le biais d’entretiens de découverte et de discussions basées sur des scénarios.
Évaluation des risques liés à l’apprentissage automatique : effectuez une analyse détaillée du cycle de vie des opérations d’IA du client et explorez les modèles d’IA les plus critiques du client afin de déterminer le risque pour l’organisation des investissements actuels en matière d’IA/ML, ainsi que les efforts et/ou les contrôles nécessaires pour s’améliorer.
Formation d’experts : offre une formation d’une journée complète aux équipes de science des données et de sécurité pour les aider à se protéger contre ces attaques et menaces contre l’IA.
Évaluation de l’équipe rouge : l’équipe de recherche sur l’apprentissage automatique antagoniste (AMLR) simulera l’attaque d’un attaquant afin d’évaluer les défenses existantes et de corriger les vulnérabilités.
Analyse des modèles d’IA/ML : utilisez l’analyseur d’intégrité des modèles de HiddenLayer pour tester et valider les modèles d’IA/ML existants contre les menaces (par exemple, les logiciels malveillants) et la falsification.
Services de mise en œuvre ML Detection and Response (MLDR) :* Implémentez et intégrez de manière experte les produits MLDR de HiddenLayer dans les environnements d’IA/ML, en donnant aux équipes de science des données et de sécurité les capacités et la visibilité dont elles ont besoin pour prévenir les attaques, améliorer les temps de réponse et maximiser l’efficacité des modèles.
Coopération avec les géants pour renforcer la construction écologique
En plus de la création de produits et de plateformes, HiddenLayer a également des partenaires solides, Databricks a un partenariat pour mettre la plate-forme MLSec à la disposition des utilisateurs d’entreprise déployant des modèles d’IA dans les lacs de données Databricks. Cela renforce la sécurité de l’IA au niveau du lac de données.
Ces deux coopérations stratégiques ont rendu l’ensemble de l’écosystème de HiddenLayer plus complet, et il a également gagné les faveurs des clients, qui ont obtenu plusieurs grands clients dans les domaines de la finance et du gouvernement.
L’IA est entrée dans la phase pratique et des opportunités entrepreneuriales sûres en matière d’IA ont émergé
La sécurité de l’IA, en particulier au niveau du modèle, est déjà un besoin certain, et Protect AI, qui se spécialise dans la sécurité des modèles d’IA, a déjà reçu un tour de financement de série A de 35 millions de dollars mené par Evolution Equity Partners et Salesforce Ventures.
Selon Sestito, fondateur de HiddenLayer, à mesure que le marché de l’IA se développe, le marché de la sécurité de l’IA se développera simultanément, et en plus de Protect AI et HiddenLayer, des entreprises telles que Robust Intelligence, CalypsoAI, Halcyon et Troj.ai travaillent également dans le domaine de la sécurité de l’IA.
Par exemple, Ten Eleven Ventures, l’un des premiers investisseurs de HiddenLayer, a également investi dans un tour de table de 20 millions de dollars de Halcyon, une société qui se concentre sur les outils de défense contre les ransomwares d’IA qui aident les utilisateurs de logiciels d’IA à prévenir les attaques et à s’en remettre rapidement.
Au fur et à mesure que cette vague d’IA passe du stade du battage médiatique conceptuel au stade de l’application réelle, de l’entrepreneuriat des grands modèles à l’entrepreneuriat des applications de l’IA, la sécurité de l’IA devient de plus en plus importante. Qu’il s’agisse d’assurer la sécurité des modèles d’IA ou de protéger la sécurité des applications d’IA, le développement de la sécurité de l’IA peut encore approfondir la pénétration de l’IA du côté de la ToC et du côté de l’entreprise.
Il existe déjà un grand nombre de startups de sécurité de l’IA à l’étranger, et sur le marché chinois, la même demande existe également, et nous nous attendons à ce que des entrepreneurs locaux exceptionnels se dirigent vers cet important domaine entrepreneurial.