Publié le: 17/04/2023 @ 18:48:43: Par Nic007 Dans "Programmation"
ChatGPT , le chatbot le plus célèbre basé sur l'IA générative , est certainement à l'honneur, et plus un service est populaire, plus il est à risque de cyberattaques potentielles (ainsi que l'attention des organismes de réglementation, mais cela, nous le savons déjà ). Pour cette raison, OpenAI, l'organisation qui le développe, a décidé d'offrir des récompenses allant jusqu'à 20 000 $ en espèces à ceux qui découvrent des vulnérabilités dans ses API, y compris donc aussi celles de ChatGPT. La chasse aux bugs lancée par OpenAI concerne tous les services de l'entreprise, pas seulement ChatGPT , et promet de faire gagner aux hackers les plus malins des chiffres allant de 200 à 6 500 dollars pour des vulnérabilités « normales », jusqu'à 20 000 dollars , mais uniquement pour des « découvertes exceptionnelles ». Quiconque pense pouvoir en trouver, ou l'a déjà fait, peut le signaler via https://bugcrowd.com/openai . Il existe cependant une illustre exception. Tout jailbreak ChatGPT ou tout ce qui altère son fonctionnement normal est en fait exclu du programme. En bref, modifier les filtres normaux du chatbot, qui l'empêchent de donner des "réponses interdites" (par exemple, comment construire une bombe, comment créer du code malveillant, etc.), n'entre pas dans le cadre de cette initiative.
Les problèmes de sécurité du modèle eux-mêmes ne s'intègrent pas bien dans un programme de primes de bogues, selon OpenAI, précisément parce que ce ne sont pas des bogues qui peuvent être corrigés individuellement. Ainsi, pour s'assurer que même d'éventuels problèmes de ce type puissent être traités rapidement, il est nécessaire de les signaler via un formulaire dédié , https://openai.com/form/model-behavior-feedback , mais dans tous les cas, les trouver ne vous rapportera pas un sou . La différence entre les bogues de code et de modèle peut sembler triviale , mais elle est en réalité très importante et sous-tend le concept même d' IA générative . Si jusqu'à présent les développeurs n'avaient à se soucier que des possibles exploits de leur propre code, avec l'intelligence artificielle le problème se déplace aussi vers le fruit de l'élaboration de ce logiciel. Et compte tenu des problèmes potentiellement encore plus graves que cela pourrait causer, peut-être qu'une prime de bogue ad hoc n'est peut-être pas une si mauvaise idée.
Les problèmes de sécurité du modèle eux-mêmes ne s'intègrent pas bien dans un programme de primes de bogues, selon OpenAI, précisément parce que ce ne sont pas des bogues qui peuvent être corrigés individuellement. Ainsi, pour s'assurer que même d'éventuels problèmes de ce type puissent être traités rapidement, il est nécessaire de les signaler via un formulaire dédié , https://openai.com/form/model-behavior-feedback , mais dans tous les cas, les trouver ne vous rapportera pas un sou . La différence entre les bogues de code et de modèle peut sembler triviale , mais elle est en réalité très importante et sous-tend le concept même d' IA générative . Si jusqu'à présent les développeurs n'avaient à se soucier que des possibles exploits de leur propre code, avec l'intelligence artificielle le problème se déplace aussi vers le fruit de l'élaboration de ce logiciel. Et compte tenu des problèmes potentiellement encore plus graves que cela pourrait causer, peut-être qu'une prime de bogue ad hoc n'est peut-être pas une si mauvaise idée.
Envoyer une nouvelle à un ami