Publié le: 04/12/2025 @ 00:01:55: Par Nic007 Dans "Programmation"
ProgrammationUne nouvelle fonctionnalité de suggestion dans l'application ChatGPT a suscité la controverse, certains utilisateurs l'ayant prise par erreur pour de la publicité. OpenAI assure cependant que le chatbot populaire n'affichera pas ce type de contenu et que cette suggestion est une simple erreur. Malgré cela, certains laissent entendre que l'organisation, en difficulté financière, finira par diffuser des publicités. Tout a commencé par une conversation où ChatGPT a suggéré l'application Peloton, sans aucun rapport avec le sujet abordé. Au cours de la conversation, le chatbot a écrit : « Trouver un cours de fitness › Se connecter à Peloton ». Ce texte a surpris les utilisateurs, notamment ceux abonnés à la version Pro payante, qui coûte la somme exorbitante de 200 $ par mois. Des inquiétudes ont été soulevées quant à l'affichage de publicités par OpenAI, même dans les abonnements payants, ce que beaucoup ont jugé inacceptable. Une capture d'écran partagée par Kolov Tregaskes est rapidement devenue virale. Des utilisateurs ont alors suggéré que ChatGPT affichait des publicités pendant les conversations. Cette polémique a été alimentée par Yuchen Jin, cofondateur de la startup d'IA Hyperbolic, qui a reçu une suggestion identique lors d'une conversation avec un chatbot au sujet d'Elon Musk, un sujet qui, rappelons-le, n'avait aucun rapport avec la discussion.

OpenAI a rapidement réagi à ces signalements et a précisé qu'il ne s'agissait pas d'une publicité. Daniel McAuley, responsable des données, a expliqué que la recommandation de l'application Peloton par le chatbot n'était pas une forme de publicité. Il s'avère que ce qui avait été initialement pris pour un bug ou une publicité est en réalité une nouvelle fonctionnalité de ChatGPT, qui suggère aux utilisateurs d'utiliser un produit spécifique au cours d'une conversation. Parmi les entreprises participant au test figurent Booking.com, Canva, Coursera, Figma, Expedia, Spotify et Zillow. Ce groupe s'agrandira ultérieurement. L'outil est encore en développement et, comme vous pouvez le constater, génère des suggestions non pertinentes au contexte de la conversation. Ces suggestions sont affichées aux utilisateurs situés hors de l'Union européenne, de la Suisse et du Royaume-Uni et disposant d'un abonnement Go, Plus ou Pro. OpenAI affirme que ses suggestions sont facultatives, contextuelles et non monétisées. L'entreprise souligne que l'objectif n'est pas d'afficher des publicités payantes, mais d'améliorer la qualité des interactions avec les applications. Cependant, comme le montrent les premiers tests, cette fonctionnalité nécessite encore des améliorations pour que les suggestions soient plus pertinentes, utiles et facilement distinguables des publicités classiques.
Lire la suite (0 Commentaires)
Publié le: 01/12/2025 @ 18:25:30: Par Nic007 Dans "Programmation"
ProgrammationOpenAI teste en interne la publicité au sein de ChatGPT , une nouvelle fonctionnalité qui modifiera pour la première fois l'expérience utilisateur de l'application. Le sujet reste délicat, la plateforme s'étant jusqu'à présent abstenue de toute forme de promotion directe. La version bêta 1.2025.329 de l'application Android fait mention du nouveau système et évoque des fonctionnalités telles que les annonces de recherche et les annonces carrousel . Cette mention a suscité l'intérêt car elle laisse entrevoir un changement qui impactera l'utilisation de ce chatbot populaire . Cette fuite confirme qu'OpenAI a inséré des références explicites dans l'application à du contenu classé comme contenu de type « bazar » . Ce terme désigne des modules conçus pour promouvoir des produits ou des services dans les résultats de recherche. L'entreprise semble limiter dans un premier temps ces publicités à l' expérience de recherche uniquement , sans affecter les réponses classiques. Cette approche imite le fonctionnement des liens sponsorisés dans les moteurs de recherche traditionnels, mais elle est adaptée au format conversationnel de ChatGPT.

Par ailleurs, Google travaille également sur quelque chose de similaire : jusqu’à présent, l’IA nous a seulement fait croire qu’elle nous avait libérés de la publicité. Cette nouvelle pèse sur le secteur car ChatGPT traite environ 2,5 milliards de requêtes par jour, avec une base d'utilisateurs qui, selon des estimations internes, atteint 800 millions d'utilisateurs hebdomadaires . C'est pourquoi nous sommes certains qu'OpenAI voudra procéder avec prudence, mais que la direction prise ne changera pas, compte tenu des opportunités de monétisation. La discussion est également liée à des rumeurs antérieures rapportées par d'autres sources, selon lesquelles OpenAI évaluerait des formes de promotion basées sur la mémoire conversationnelle , mais pour l'instant, il n'y a aucune trace de celles-ci, notamment parce qu'elles susciteraient certainement la controverse. ChatGPT s'est jusqu'à présent tenu à l'écart de toute promotion, mais l'adoption d'un système publicitaire dans les résultats de recherche soulèvera des questions quant à la gestion du contenu et à la transparence des résultats . Mais nous sommes certains que tout le monde les ignorera , car « l'IA doit continuer ».
Lire la suite (0 Commentaires)
Publié le: 01/12/2025 @ 14:10:42: Par Nic007 Dans "Programmation"
ProgrammationIl s'avère que contourner les chatbots basés sur l'IA ne requiert ni techniques complexes ni connaissances spécialisées ; un peu de créativité et d'expression poétique suffisent. C'est du moins la conclusion d'une étude publiée par Icaro Lab sous le titre provocateur « La poésie adverse comme mécanisme universel de contournement en un seul tour dans les grands modèles de langage ». D'après les auteurs de l'étude, des commandes correctement formulées sous forme de poésie agissent comme un « opérateur de jailbreak universel ». Concrètement, cela signifie que la forme poétique des invites permet aux utilisateurs de contourner les mécanismes de filtrage des contenus jugés dangereux ou interdits. Lors des tests, cette méthode a atteint un taux de réussite moyen de 62 %. Ce résultat est remarquable, d'autant plus que les chercheurs ont tenté d'amener les modèles à générer des contenus strictement interdits, notamment des informations relatives à la production d'armes nucléaires, à la maltraitance infantile et aux conseils sur l'automutilation et le suicide.

L'expérience a porté sur un large éventail de modèles de langage populaires, notamment les solutions d'OpenAI (GPT), de Google (Gemini), d'Anthropic (Claude), ainsi que les systèmes de DeepSeek et de MistralAI. Les résultats ont révélé des différences significatives dans la résilience des différentes plateformes. Gemini, DeepSeek et MistralAI se sont avérés les plus vulnérables aux « attaques poétiques », ces modèles générant relativement souvent des réponses dépassant les limites autorisées. À l'inverse, les modèles les plus robustes étaient les dernières versions de GPT-5 d'OpenAI et Claude Haiku 4.5, qui n'ont diffusé que très rarement du contenu interdit. Il est intéressant de noter que les auteurs de l'étude ont choisi de ne pas publier d'exemples complets des poèmes utilisés pour contourner la sécurité. Dans une interview accordée à Wired, ils ont admis qu'ils étaient « trop dangereux pour être diffusés publiquement ». Le rapport ne comprenait qu'un échantillon simplifié, « atténué », afin d'illustrer le mécanisme de la méthode. Les chercheurs soulignent que le processus de contournement des verrous est en réalité « plus simple qu'on ne le pense », ce qui explique leur prudence quant à la divulgation de détails.
Lire la suite (0 Commentaires)
Publié le: 27/11/2025 @ 14:58:17: Par Nic007 Dans "Programmation"
ProgrammationOpenAI a répondu pour la première fois devant les tribunaux à une série de plaintes l'accusant d'être responsable du décès d'utilisateurs de ChatGPT . Dans sa dernière requête, l'entreprise nie toute implication du chatbot dans le suicide d'Adam Raine, âgé de 16 ans. Elle souligne que l'adolescent a utilisé l'outil en violation de ses conditions d'utilisation, qui interdisent toute discussion relative à l'automutilation et aux comportements suicidaires. La famille de Raine accuse OpenAI d'avoir autorisé le développement d'une version du modèle conçue pour inciter leur fils au suicide. Elle soutient que ChatGPT 4o a été mis sur le marché trop rapidement et sans tests de sécurité approfondis. La plainte allègue que le chatbot aurait fourni des réponses renforçant les pensées suicidaires et aurait même suggéré des méthodes pour planifier un suicide. OpenAI réfute ces allégations et propose sa propre interprétation de l'historique des conversations, qui démontrerait que Raine souffrait de dépression depuis plusieurs années. L'entreprise affirme que l'adolescente a informé ChatGPT de ses pensées suicidaires passées, de son refus de demander de l'aide à ses proches et de changements dans son traitement médicamenteux, tout en soulignant le risque de telles pensées chez les adolescents.

Tous les enregistrements cités par OpenAI restent sous scellés judiciaires. Par conséquent, la famille n'a pas accès au contexte complet et le public est dans l'incapacité de déterminer quels extraits de conversation sont cités et dans quel ordre. OpenAI justifie cette limitation d'accès par la nature sensible des éléments de preuve, tout en invoquant le respect de la vie privée de la famille. L'avocat de la famille Raine, Jay Edelson, conteste cet argument. Il qualifie la position d'OpenAI de troublante et sélective. Il souligne que l'entreprise omet des éléments révélant des failles dans la conception du modèle, notamment des modifications qui auraient contraint ChatGPT à aborder davantage de sujets liés à l'automutilation. Selon Edelson, les accusations les plus graves concernent le comportement du chatbot durant les dernières heures de l'adolescent. La famille affirme que ChatGPT a incité Raine à ne pas informer ses proches de sa maladie et a rédigé une lettre d'adieu à son intention. OpenAI rétorque que Raine a tenté à plusieurs reprises de contourner les mesures de sécurité en qualifiant les conversations de fictives ou académiques, et que le chatbot l'a systématiquement orienté vers une aide professionnelle.

OpenAI invoque ses conditions d'utilisation, qui stipulent que ChatGPT n'est pas un outil thérapeutique et que les conversations avec le chatbot se font aux risques et périls de l'utilisateur. Ces documents précisent que les utilisateurs s'engagent à ne pas aborder les sujets du suicide ou de la violence et à ne pas considérer les réponses comme une source d'information fiable. L'entreprise affirme que l'adolescent a ignoré les avertissements répétés du modèle. OpenAI a présenté des statistiques montrant qu'un faible pourcentage des conversations hebdomadaires révèle des signes manifestes d'intentions suicidaires. Toutefois, rapporté à l'utilisateur actif, cela représente un groupe très important de personnes potentiellement en crise. Des analyses indépendantes ont démontré que les utilisateurs psychologiquement vulnérables peuvent développer des liens étroits avec les chatbots, augmentant ainsi le risque d'aggravation des problèmes.

Une enquête du New York Times remet en question le processus de conception des modèles d'OpenAI. Des témoignages d'employés suggèrent que l'entreprise a modifié le comportement de ChatGPT pour le rendre plus affable et docile, sans pour autant surveiller les conséquences de ces modifications. Ce n'est qu'après des signalements de réponses inquiétantes du chatbot qu'une mise à jour de sécurité a été déployée, mais le processus a pris des mois. D'anciens employés rapportent que les responsables de la sécurité et des politiques relatives au modèle ont eu du mal à gérer la pression liée à l'accélération du rythme de travail. Selon Gretchen Krueger, certains risques étaient prévisibles et l'entreprise n'a pas su aligner ses activités opérationnelles sur les recommandations des experts en santé mentale. Mme Krueger a également souligné que les modèles n'étaient pas formés à la gestion des crises, alors même que les utilisateurs se tournaient souvent vers eux dans de telles situations.

OpenAI a créé un Conseil d'experts sur la santé et l'intelligence artificielle, mais ce comité n'a pas inclus de spécialiste de la prévention du suicide. Cette omission a suscité une vive réaction de la communauté scientifique, qui réclame depuis des années que la conception des modèles conversationnels s'appuie sur des connaissances cliniques, d'autant plus que les crises suicidaires sont souvent brèves et soudaines. OpenAI n'a pas demandé le rejet pur et simple de la plainte. Pour les avocats de la famille Raine, cela signifie que les arguments relatifs à l'arbitrage, à l'immunité des plateformes et à la liberté d'expression pourraient s'avérer insuffisants. L'affaire devrait être jugée par un jury en 2026. Face à la multiplication des plaintes, il apparaît de plus en plus évident que le secteur de l'IA ne pourra échapper à un profond débat sur la responsabilité juridique des concepteurs de modèles de langage.
Lire la suite (0 Commentaires)
Publié le: 26/11/2025 @ 16:15:44: Par Nic007 Dans "Programmation"
ProgrammationLa dernière mise à jour de ChatGPT intègre de manière transparente les modes voix et texte , rendant le passage d'un format à l'autre plus fluide. Cette option, non disponible sur Gemini avec les mêmes modalités , élargit les possibilités d'utilisation du mode vocal, qui jusqu'à présent était relégué à une conversation séparée, alors qu'il est désormais possible d'utiliser un système mixte , pour un maximum de praticité. L'unification de la voix et du texte permet également d'afficher des éléments auparavant absents en mode vocal. Par exemple, lors d'une conversation, l'application affiche désormais les résultats de la carte , ce qui nécessitait auparavant de passer en mode texte. Outre le contenu graphique, on trouve une transcription de la conversation , utile pour suivre le dialogue ou relire des passages déjà abordés.

OpenAI propose toujours la possibilité de revenir à une expérience uniquement audio. Un paramètre permet de dissocier à nouveau les deux modes, une option conçue pour ceux qui préfèrent une interaction sans images. Cette mise à jour confirme le rythme constant d'améliorations apportées par OpenAI à l'interface et aux outils disponibles dans ChatGPT, probablement aussi sous la pression de ses concurrents . Si l'on nous offrait maintenant un moyen plus efficace de gérer les (nombreuses) conversations qui s'accumulent facilement dans l'historique, nous leur en serions reconnaissants.
Lire la suite (0 Commentaires)
Publié le: 26/11/2025 @ 16:14:29: Par Nic007 Dans "Programmation"
ProgrammationAprès avoir exploré Internet à la recherche de connaissances, l'IA s'apprête à révolutionner nos habitudes d'achat. Suite au lancement de la fonctionnalité d'achat dans ChatGPT , c'est au tour de Perplexity , qui vise exactement le même objectif : nous guider vers des achats en fonction des goûts et des habitudes de l'utilisateur . Perplexity propose une forme de recherche qui met en relation les interactions passées d'un utilisateur et tient compte de ses préférences. Les suggestions sont ainsi cohérentes et personnalisées, et non de simples listes uniformes. Le système conserve l'historique des recherches et identifie les tendances qui reflètent un style de navigation déjà exprimé. Cette approche devrait limiter l'influence des priorités commerciales des annonceurs et fournir des résultats plus pertinents. Il s'agit toutefois d'une autre forme de publicité ciblée , déterminée non pas par les algorithmes d' Amazon , d'AdSense ou de quiconque, mais par le « raisonnement » de l'intelligence artificielle. Perplexity promet également d'organiser des fiches produits plus ciblées , évitant ainsi de longs tableaux à parcourir et concentrant les informations utiles pour un choix éclairé .

Grâce à PayPal, vous pouvez finaliser votre achat directement depuis la page de recherche. Le magasin partenaire reste responsable de la transaction, des retours et du service client, mais l'intelligence artificielle joue le rôle d'intermédiaire , simplifiant ainsi le processus pour l'utilisateur. Selon Perplexity, cette solution réduit le risque d' abandon de panier car elle élimine les étapes inutiles entre la sélection et le paiement. Mais en cas de problème, qui le consommateur blâmera-t-il ? Perplexity ou Amazon (par exemple) ? Le terrain reste encore inexploré, tant pour les utilisateurs que pour les fournisseurs de ces services, mais pour une fois, certains freinent immédiatement ces ardeurs . On parle d'Amazon , qui voit d'un mauvais œil ces « ingérences », précisément parce qu'elles risquent de nuire à la relation des consommateurs avec le géant du e-commerce. La motivation n'est peut-être pas la plus noble, mais le résultat pourrait tout de même être bénéfique à tous , s'il nous amène à réfléchir un peu sur le rôle et les « pouvoirs » que nous voulons conférer à l'IA dans la vie quotidienne.

Le service est disponible gratuitement, pour le moment uniquement pour les utilisateurs américains via les versions web et de bureau de Perplexity, les applications iOS et Android étant prévues ultérieurement. Il reste à voir comment cela évoluera une fois que le produit aura touché un public plus large, et quelle sera la réaction des différents sites de commerce électronique, ainsi que des consommateurs.

Lire la suite (0 Commentaires)
Publié le: 25/11/2025 @ 14:23:50: Par Nic007 Dans "Programmation"
ProgrammationL'annonce de Claude Opus 4.5 intervient dans un contexte de forte concurrence entre les laboratoires d'IA . Anthropic privilégie un modèle de codage axé sur la fiabilité, mais la sécurité présente quelques lacunes . La dernière version de Claude est capable de gérer des tâches complexes, des feuilles de calcul aux recherches structurées, et prend également en charge les applications de bureau. Cependant, des inquiétudes persistent quant à la manière de remédier aux vulnérabilités qui affectent l'ensemble du secteur. L'entreprise présente Opus 4.5 comme un modèle plus robuste pour les tâches nécessitant une interaction avec des fichiers, des navigateurs et des applications de bureau. Parmi les nouvelles fonctionnalités figurent une gestion étendue de Claude Code et des intégrations avec Excel et Chrome . Anthropic aborde également le problème des attaques par injection rapide , qui consistent à insérer des instructions malveillantes dans les données traitées par le modèle. L'entreprise préconise un renforcement de la sécurité, tout en reconnaissant que plusieurs attaques continuent de contourner les protections actuelles.



Les tests présentent des résultats mitigés . Lors des tests de programmation malveillante, avec 150 requêtes enfreignant les règles, le modèle a rejeté 100 % des actions. Cependant, les performances diminuent dans d'autres contextes : avec Claude Code, le taux de rejet dépasse légèrement 78 % , tandis qu'avec les opérations informatiques, il plafonne à 88 % . Parmi les exemples cités figurent des demandes relatives à la surveillance non autorisée , à la collecte de données et à la production de contenus offensants. Les documents mentionnent également des instructions visant à constituer des listes sensibles ou à rédiger des courriels d'extorsion à l'aide d'applications installées sur l'appareil. Cela souligne la complexité de la conception de systèmes véritablement fiables pour les activités impliquant une utilisation directe de l'ordinateur. La course à l'efficacité exige un travail constant pour se prémunir contre les abus et les comportements indésirables, un aspect qui requiert une attention soutenue, alors que de nombreuses entreprises semblent privilégier la première place . Anthropic mérite donc d' être saluée pour avoir mis l'accent sur bien plus que les seuls aspects positifs.
Lire la suite (0 Commentaires)
Publié le: 25/11/2025 @ 14:20:29: Par Nic007 Dans "Programmation"
ProgrammationOpenAI porte un nouveau coup à Amazon . La nouvelle fonction de recherche de produits de ChatGPT vise à réduire le temps passé à comparer les produits en ligne et à simplifier le processus de sélection. L'interaction se déroule comme une conversation qui s'adapte aux besoins exprimés par l'utilisateur. Cette fonctionnalité est déployée dès aujourd'hui sur l'application et la version web de ChatGPT pour tous les membres, des forfaits gratuits aux forfaits Pro, avec une utilisation quasi illimitée pendant les fêtes. L'objectif est de simplifier les décisions qui nécessitent souvent de consulter de nombreuses informations dispersées sur plusieurs sites marchands , afin qu'en 2025, plus personne n'ait à naviguer seul, sans l'aide de l'IA ! Cette fonctionnalité se concentre sur des catégories riches en données comme l'électronique , la cuisine et la maison , les sports et les activités de plein air , ainsi que la beauté et le jardinage. Le système analyse le web pour récupérer les spécifications , les avis , la disponibilité et les prix auprès de sources fiables. Au cours de la conversation, ChatGPT pose des questions ciblées pour définir le budget , les préférences et les fonctionnalités , affinant ainsi la sélection des produits suggérés. La plateforme affiche les résultats via une interface visuelle permettant d' exclure les articles non pertinents ou de demander des alternatives similaires . Cette approche simplifie le processus de recherche et réduit les étapes répétitives des recherches traditionnelles . Une fois l'analyse terminée, le système génère un guide d'achat personnalisé qui met en évidence les différences techniques, les compromis et les informations actualisées sur les fournisseurs. Vous pourrez ensuite accéder aux sites de vente et, prochainement, acheter directement via le paiement instantané auprès des détaillants participants .

Cette fonctionnalité est également disponible dans Pulse , le flux de suggestions pour les utilisateurs Pro qui propose des recherches liées aux conversations récentes. Cette intégration vise à offrir des informations en adéquation avec les centres d'intérêt émergents des utilisateurs . Ce service présente encore certaines limites : il peut se tromper sur des détails comme les prix et la disponibilité , il est donc toujours conseillé de vérifier sur les sites web des magasins. Les développeurs précisent que les conversations ne sont pas partagées avec les détaillants et que les résultats ne contiennent aucun contenu sponsorisé . Cette orientation témoigne de la volonté de transformer ChatGPT en un outil capable de gérer des tâches pratiques tout en maintenant une transparence quant à ses limitations, théoriquement au bénéfice de l'utilisateur. Les principaux responsables de cette évolution sont les sites d'avis et d'informations, et dans une certaine mesure même les boutiques en ligne, privées de leurs fonctionnalités propres, à l'exception de la finalisation de l'achat. Il reste à voir comment les habitudes évolueront une fois que les achats directs seront mis en place, et comment Amazon (et d'autres) réagiront, car ils sont très sensibles à cette question .
Lire la suite (0 Commentaires)
Publié le: 21/11/2025 @ 19:12:34: Par Nic007 Dans "Programmation"
ProgrammationL'arrivée des discussions de groupe dans ChatGPT représente une avancée majeure pour les utilisateurs collaboratifs du service. OpenAI les met à la disposition de tous les utilisateurs à travers le monde. Cette fonctionnalité introduit une nouvelle dynamique pour un chatbot, car ChatGPT analyse le déroulement de la conversation et décide quand intervenir ou rester silencieux . Pour créer une conversation de groupe , sélectionnez l'icône « Personnes » en haut à droite de l'application. Le système dupliquera la conversation en cours dans une nouvelle salle virtuelle. À partir d'ici, vous pouvez inviter jusqu'à 20 participants via un lien de partage. Lors de leur première inscription, chaque utilisateur choisit son nom, son nom d'utilisateur et sa photo pour être facilement reconnu. ChatGPT réagit lorsqu'une personne le mentionne directement ou lorsqu'il juge une contribution nécessaire. Il utilise également les réactions textuelles et les photos de profil pour générer des images personnalisées . La gestion des groupes s'effectue via un panneau accessible depuis la même icône.

Les utilisateurs peuvent ajouter ou supprimer des personnes, désactiver les notifications et définir des instructions spécifiques pour le chatbot. Les souvenirs personnels ne sont pas transférés des conversations individuelles et ChatGPT n'en crée pas de nouveaux dans les conversations de groupe. Les discussions de groupe utilisent GPT-5.1 Auto , un mode qui sélectionne automatiquement le modèle le plus approprié en fonction de la demande et de la disponibilité de chaque utilisateur. Le système applique des limites d'utilisation uniquement aux messages envoyés par le chatbot. OpenAI propose cette fonctionnalité comme un outil pour les activités partagées entre amis, famille ou collègues. Ceux qui organisent régulièrement leur travail ou leurs projets via ChatGPT la trouveront plus structurée, même si la question de l'intégration discrète du chatbot dans les interactions sociales entre personnes réelles reste posée. OpenAI étend le déploiement à ChatGPT Plus, Pro et même aux utilisateurs de la version gratuite , mais vous devrez mettre à jour l'application vers les dernières versions sur iOS et Android pour en profiter.
Lire la suite (0 Commentaires)
Publié le: 14/11/2025 @ 12:17:41: Par Nic007 Dans "Programmation"
ProgrammationAnthropic a mis au jour une cyberopération qui redéfinit fondamentalement les cybermenaces modernes. Pour la première fois dans l'histoire, une intelligence artificielle multi-agents a été utilisée avec succès pour attaquer des cibles de grande valeur, allant de grandes entreprises technologiques à des institutions financières et des agences gouvernementales. Selon Anthropic, cette campagne est menée par un groupe parrainé par l'État chinois qui a utilisé l'outil Claude Code pour automatiser la majeure partie de l'attaque. Anthropic a révélé que le groupe avait utilisé son logiciel de chiffrement pour tenter d'infiltrer une trentaine d'organisations à travers le monde. L'entreprise a confirmé que, dans quelques cas seulement, les attaques avaient réussi. L'opération, identifiée en septembre, a immédiatement suscité l'inquiétude des analystes, car son mode opératoire différait de celui des groupes liés à des gouvernements. Le rapport souligne qu'il s'agit du premier cas où un agent d'IA a accédé à des cibles de renseignement stratégiques réelles. L'attaque a été menée de manière quasi entièrement automatisée, démontrant ainsi que l'équilibre du cyberespace commence à basculer vers des systèmes capables de fonctionner de manière autonome.

Conçu comme un outil d'assistance aux développeurs, Claude Code intègre des mesures de sécurité robustes pour prévenir toute exploitation. Des pirates informatiques chinois ont contourné ces mécanismes grâce à une structure de commandes distribuée. Ils ont décomposé l'opération en petites tâches présentées comme des contrôles de sécurité de routine. L'IA a exécuté ces tâches sans disposer de toutes les informations contextuelles nécessaires, ce qui lui a permis de passer inaperçue des systèmes de sécurité. Les pirates se sont également fait passer pour une équipe d'une entreprise de cybersécurité légitime. Cela a permis à Claude de générer un code qui leur a permis de scanner l'infrastructure des cibles et d'analyser les vulnérabilités, leur permettant ainsi de pénétrer plus profondément dans leurs systèmes. Lors des intrusions, l'IA a généré des scripts pour voler des mots de passe, orchestré des pénétrations de réseau supplémentaires et créé des mécanismes pour maintenir l'accès. Selon Anthropic, l'intervention humaine a été sporadique. Quatre-vingts à quatre-vingt-dix pour cent des opérations ont été menées par l'agent d'IA.

Le rapport indique que l'automatisation des attaques transforme le paysage des menaces. Des groupes étatiques pourraient bientôt développer leurs propres outils de piratage basés sur l'IA, s'affranchissant ainsi de toute dépendance à des services externes. Cette technologie permet des intrusions d'une ampleur qui nécessitait auparavant d'importantes équipes d'analystes et d'ingénieurs. L'équipe d'Anthropic a également constaté que l'IA était capable de générer des hallucinations. Il est arrivé que Claude exagère ses conclusions ou crée de fausses données. Cet élément limite l'efficacité de l'opération, mais ne change rien au constat général : les intrusions automatisées ne sont plus une expérience, mais deviennent une pratique courante.

Après avoir détecté la campagne, Anthropic a désactivé les comptes utilisés par les pirates et a averti les organisations potentiellement touchées. L'entreprise a indiqué collaborer avec les forces de l'ordre afin de recueillir de nouveaux renseignements. L'incident a été révélé peu après un autre cas où un pirate informatique inconnu a utilisé Claude pour orchestrer une campagne d'hameçonnage visant dix-sept organisations. Cette fois, la cible était la cybercriminalité financière. En réponse, Anthropic a mis en place de nouvelles mesures de sécurité et travaille sur des technologies permettant l'utilisation de l'IA dans le domaine de la défense. L'entreprise souligne que le développement d'agents d'IA doit s'accompagner de celui de mécanismes de surveillance afin d'éviter de faire pencher la balance en faveur des groupes criminels et des acteurs étatiques menant des opérations offensives. Les experts estiment que cet incident marque un tournant pour l'ensemble du secteur. Il ouvre la voie à des opérations où l'humain n'aura plus qu'un rôle de supervision, laissant le travail aux agents d'IA. Ceci contraint les gouvernements et les entreprises à développer des solutions de défense capables d'anticiper la possibilité d'une attaque menée par une machine fonctionnant en continu et capable de modifier ses actions en temps réel.
Lire la suite (0 Commentaires)
Informaticien.be - © 2002-2025 AkretioSPRL  - Generated via Kelare
The Akretio Network: Akretio - Freedelity - KelCommerce - Votre publicité sur informaticien.be ?