RAIDS AI lance un moniteur de comportements malveillants des IA en temps réel
RAIDS AI a lancé sa plateforme commerciale de surveillance de la sécurité des IA après une phase bêta réussie, positionnant l’outil pour les organisations qui déploient ou utilisent des systèmes d’IA.
Fonctionnalités de la plateforme
Co-fondée par Nik Kairinos et Brett Stonefield, la société a déclaré que sa plateforme détecte et alerte les utilisateurs sur les comportements d’IA malveillants en temps réel. En surveillant la performance de l’IA et en signalant les écarts, le système vise à atténuer les risques associés aux échecs techniques, au biais algorithmique et à l’exposition réglementaire.
RAIDS AI a été construit pour les organisations qui augmentent l’utilisation de l’IA. Le produit s’inscrit dans une initiative plus large pour la gouvernance responsable de l’IA à travers des secteurs soumis à un contrôle accru de la part des régulateurs, des clients et des conseils d’administration.
Mises à jour du produit
RAIDS AI a apporté plusieurs modifications au produit suite aux retours de la phase bêta. Ces améliorations concernent l’expérience utilisateur et l’intégration.
La société a ajouté un système de réengagement qui incite les utilisateurs à examiner les informations de surveillance à des intervalles configurables. De plus, une option pour élargir les données de référence avec des données synthétiques a été introduite. Il est désormais possible de commencer à utiliser RAIDS sans fichier de données de référence.
RAIDS AI a également mis à jour son interface utilisateur, avec des notifications intégrées et une barre de gravité indiquant la sévérité d’une menace. La société a également rafraîchi le design et ajouté un entraînement automatique des modèles, préparant les modèles RAIDS pour l’utilisateur.
Réseau de partenaires
RAIDS AI a élargi son écosystème de partenaires en parallèle du lancement du produit. La société a également cherché à établir des listes de marchés et a avancé son feuille de route des fonctionnalités.
Elle a établi un partenariat avec Prescient Security, un fournisseur de services de cybersécurité. RAIDS AI décrit ce partenariat comme un moyen d’atteindre une gouvernance de l’IA de bout en bout, en le reliant à la surveillance comportementale en temps réel et à la certification indépendante ISO 42001.
RAIDS AI a également conclu un partenariat avec The Hybrid Lawtech Firm, qui sert des entreprises dans divers secteurs appliquant des lois et des réglementations complexes.
Retour d’expérience de la phase bêta
RAIDS AI a indiqué que des organisations de tailles différentes et de multiples secteurs ont participé à la phase bêta et ont fourni des retours sur le produit. Les participants incluaient de grandes plateformes cloud, des fournisseurs de services gérés, des entreprises de cybersécurité, des constructeurs de solutions IA et des fournisseurs de logiciels.
La société n’a pas identifié les participants à la bêta par nom et n’a pas divulgué de chiffres d’adoption, de comptes clients ou de revenus liés à la période d’essai.
Approche tarifaire
RAIDS AI a annoncé que les nouveaux utilisateurs peuvent accéder à la plateforme via un essai gratuit de 14 jours, avec un prix d’entrée spécifiquement conçu pour les petites et moyennes entreprises. Pour les grandes organisations, la société utilise un modèle de tarification basé sur l’utilisation. Cependant, RAIDS AI n’a pas divulgué de niveaux de prix spécifiques, les métriques utilisées pour suivre l’utilisation ou comment elle définit la consommation à des fins de facturation.
Conclusion
Nik Kairinos, PDG et co-fondateur de RAIDS AI, a déclaré : “Nous sommes absolument ravis de célébrer le lancement commercial complet de RAIDS AI. La plateforme a été près de deux ans en développement et est le résultat d’un travail acharné, de tests rigoureux, de la dévotion de notre équipe et de nos partenaires, ainsi que de retours précieux de nos participants pilotes et bêta.”
Avec la montée rapide de l’adoption de l’IA, il est essentiel pour les organisations de disposer d’outils comme RAIDS pour assurer la transparence, l’explicabilité et la responsabilité dans leurs systèmes d’IA.
