Analyse : Anthropic et OpenAI ont successivement révélé des vulnérabilités de sécurité, suscitant des préoccupations concernant la sécurité des modèles d'IA

robot
Création du résumé en cours

Mars Finance rapporte, selon The Information, que Anthropic et OpenAI ont successivement rencontré des incidents de sécurité, ce qui a suscité l’attention du marché sur la sécurité des modèles d’IA eux-mêmes. Actuellement, Anthropic enquête sur une possible accès non autorisé de ses utilisateurs à son modèle Claude Mythos. Quasiment simultanément, OpenAI aurait également été révélé avoir accidentellement ouvert plusieurs modèles non encore publiés dans son application Codex. Les opinions du secteur soulignent que ces incidents de vulnérabilité renforcent l’examen de la capacité de gouvernance de la sécurité des entreprises d’IA, et reflètent également que, dans le processus de développement rapide de la technologie IA, le système de sécurité doit encore être amélioré. L’analyse indique que, même pour les fournisseurs de modèles d’IA axés sur la cybersécurité, ils font face à de grands défis en matière de sécurité. Alors que l’IA est progressivement utilisée pour défendre contre les attaques réseau, la sécurité des plateformes et les problèmes de contrôle d’accès deviennent également des points de risque clés.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler