Cloudflare connaît actuellement une nouvelle panne , après la grave interruption de service qui a paralysé Internet pour des millions d'utilisateurs dans le monde entier il y a quelques semaines . Peu après 9 heures ce matin, Cloudflare a annoncé qu'elle travaillait sur un problème avec sa fonctionnalité « Gestion des bots » qui pourrait impacter le blocage du trafic pour certains utilisateurs. Une heure plus tard, le message suivant est arrivé, cette fois concernant les services SaaS (logiciel en tant que service) de Cloudflare (comme ChatGPT , si vous voulez) :Cloudflare a identifié et enquête sur un problème susceptible d'affecter plusieurs clients : les boutons du tableau de bord permettant de configurer une origine de secours personnalisée (Ajouter, Modifier, Actualiser, Supprimer) sont actuellement inopérants. Nous travaillons à la résolution de ce problème. Plus d'informations suivront prochainement.
En résumé, il existe un problème si grave qu'un rapport doit être ouvert, qui pourrait concerner « plusieurs clients » et qui, apparemment, s'ajoute à l'autre problème lié à la gestion des bots. Étant donné que Cloudflare prend en charge un large éventail de services différents, il est impossible de prédire avec exactitude combien et lesquels seront affectés par ces problèmes. Toutefois, si vous rencontrez des difficultés avec l'un de vos services cloud aujourd'hui , sachez au moins que vous n'êtes pas seul.
Lire la suite (0 Commentaires)
Amazon a une nouvelle fois démontré que sa technologie de livraison par drones nécessite encore des améliorations. Cette fois-ci, il ne s'agissait pas d'une panne du cloud AWS, mais de dégâts matériels. Un drone de l'entreprise a sectionné un câble internet à Waco, au Texas, ce qui a nécessité l'intervention de la Federal Aviation Administration (FAA). L'incident s'est produit le 18 novembre vers 12h45. Le drone MK30, qui venait de terminer une livraison, s'est pris dans un câble internet suspendu. Les images de la scène montrent le drone sectionnant le fin câble en tentant de se dégager et de reprendre son vol. Amazon explique qu'au contact du câble, un système de sécurité automatique s'est activé, provoquant un atterrissage immédiat. L'entreprise assure qu'aucun blessé n'est à déplorer et que les interruptions de connexion internet n'ont pas été généralisées. Le géant a pris en charge les frais de réparation du câble et a présenté ses excuses au client. La collision serait due au diamètre insuffisant du câble, qui n'a pas pu être détecté par les systèmes du drone.Voilà un nouvel incident impliquant des drones pour l'entreprise. Un mois auparavant, deux MK30 étaient entrés en collision avec une grue en Arizona, provoquant un incendie et d'importants dégâts. Suite à cet accident, Amazon avait suspendu ses livraisons par drone dans la région ouest de Phoenix pendant deux jours. Le développement du MK30 a nécessité près de deux ans. Il est équipé de systèmes de détection d'obstacles avancés capables d'identifier les personnes, les animaux et les objets. On peut se demander comment des appareils dotés d'une telle technologie ont pu percuter une grue sans détecter le câble internet. Amazon affirme que ses nouveaux drones sont plus silencieux que leurs prédécesseurs, ont une autonomie deux fois supérieure et sont dotés de dispositifs de sécurité innovants (pas étonnant que l'entreprise procède à des licenciements ). La société demande à ses clients de prévoir un espace libre d'environ trois mètres sur leur terrain pour permettre un atterrissage en toute sécurité… si l'appareil y parvient.
Lire la suite (0 Commentaires)
Amazon présente Leo Ultra , une nouvelle antenne satellite destinée aux entreprises et aux administrations . L'entreprise lance une phase de tests privés avant son lancement commercial l'année prochaine. Le format 20 x 30 pouces témoigne de la volonté de concurrencer Starlink en misant sur les hautes performances et des intégrations réseau spécifiques. Amazon décrit Leo Ultra comme l'appareil le plus rapide de sa gamme, avec des vitesses de téléchargement allant jusqu'à 1 Gbit/s et des vitesses d'envoi allant jusqu'à 400 Mbit/s simultanément. Son antenne intègre des fonctions de réseau privé et des connexions directes à Amazon Web Services , ce qui la distingue des systèmes satellitaires les plus courants. En plus du modèle principal, deux versions plus compactes sont disponibles. L' antenne Pro de 11 pouces offre des vitesses de téléchargement allant jusqu'à 400 Mbit/s , tandis que la version Nano de 7 pouces atteint 100 Mbit/s . Amazon n'a pas encore communiqué le prix ni la disponibilité de ces trois modèles .Le kit de performance actuel de SpaceX offre une vitesse de téléchargement d'environ 400 Mbit/s, soit la moitié de la capacité annoncée pour Leo Ultra . SpaceX prévoit également de lancer les satellites V3 de nouvelle génération , avec une bande passante totale estimée à 1 Tbit/s .Amazon met également l'accent sur la sécurité . Les fonctions de réseau privé peuvent représenter un avantage par rapport aux liaisons géostationnaires non chiffrées encore utilisées par certaines entreprises. Des études récentes menées par l'Université de Californie à San Diego et l'Université du Maryland ont mis en évidence des vulnérabilités permettant l'interception de données sensibles telles que les appels VoIP , les SMS , les identifiants de connexion et les courriels d'entreprise . Il est donc tout à fait logique qu'Amazon se concentre également sur ces aspects.
Le véritable test aura lieu lors du lancement commercial , lorsque la disponibilité et le coût des antennes Leo pourront être évalués . En bref, Starlink ne restera pas longtemps sans concurrents de taille, et la concurrence a toujours été bénéfique pour nous, utilisateurs. Il reste à voir si (et éventuellement quand) le lancement de Leo sera mondial .
Lire la suite (0 Commentaires)
Nous avons longuement abordé ici les problèmes liés aux coupures régulières de câbles sous-marins , qui déstabilisent l'infrastructure internet mondiale. Aujourd'hui, les États-Unis mettent en garde contre la Chine, qui a mis au point un nouveau dispositif idéal pour ce type de sabotage. Un nouveau rapport du Congrès américain souligne le risque croissant d'attaques contre les câbles sous-marins à fibres optiques, infrastructure par laquelle transite la quasi-totalité du trafic internet international. Selon ce document, la Chine intensifie le développement de technologies permettant d'endommager rapidement et difficilement les câbles, ce qui s'inscrit dans le cadre de la rivalité grandissante entre les deux puissances. Le rapport indique que des centres de recherche chinois affiliés à l'Armée populaire de libération ont breveté des mécanismes de sectionnement de câbles à grande profondeur. Le dispositif le plus perfectionné, présenté par le Centre chinois de recherche scientifique navale (dont nous avons déjà parlé ), fonctionne à environ 4 km de profondeur et peut même sectionner des câbles blindés (il est équipé d'une meule diamantée) sans avoir à remonter à la surface. Des brevets chinois décrivent également des dispositifs ressemblant à des ancres munies de lames ou de couteaux électriques, remorqués par des navires ou des véhicules télécommandés. Officiellement utilisés pour des réparations, ils peuvent en réalité servir au sabotage.Le rapport décrit des cas de dommages matériels causés à des câbles par des navires affiliés à des entreprises chinoises. Le cas le plus médiatisé concerne le vraquier Yi Peng 3 qui, fin 2024, a dérapé son ancre sur plus de 160 km, interrompant les liaisons entre la Suède et la Lituanie, ainsi qu'entre l'Allemagne et la Finlande. Des manœuvres irrégulières et des informations floues concernant l'équipage ont fait naître des soupçons de sabotage. Les services de renseignement européens ont considéré ces incidents comme relevant d'opérations de la zone grise, c'est-à-dire des actions agressives n'entrant pas dans le cadre d'un conflit ouvert. Des analystes américains ont découvert des bases de données chinoises contenant des informations détaillées sur l'emplacement des câbles sous-marins à Taïwan. La commission estime que cela laisse supposer que des plans sont en cours d'élaboration pour perturber les communications taïwanaises en cas de crise dans le détroit de Taïwan. La Commission fédérale des communications a proposé des restrictions sur l'utilisation de matériel et de logiciels chinois dans les câbles reliant les États-Unis. Ces nouvelles règles comprennent des exigences de sécurité renforcées, des restrictions sur la participation d'entités provenant de pays considérés comme hostiles et une surveillance accrue de la construction de nouvelles routes.
Lire la suite (0 Commentaires)
Google et Meta sont contraints de suspendre des projets de câbles sous-marins essentiels en mer Rouge en raison de la montée des menaces sécuritaires. L'instabilité de la situation dans la région compromet la sécurité des opérations des navires et des équipages chargés de l'installation des infrastructures reliant l'Europe, l'Asie et l'Afrique.Les projets 2Africa de Meta et Blue-Raman de Google restent inachevés malgré des années de planification et des investissements massifs. D'autres projets, tels qu'India-Europe-Xpress, Sea-Me-We 6 et Africa-1, viennent également s'ajouter à la liste des projets retardés. Le problème réside dans le fait que l'installation de câbles sous-marins exige un accès prévisible, des eaux stables et un consentement politique – des conditions qui ne sont plus réunies dans les zones de conflit. Les retards créent un goulot d'étranglement sur un corridor qui a historiquement géré d'énormes volumes de trafic de données mondial. Les pays disposant de connexions par câble limitées subissent déjà des ralentissements et des hausses de prix. Le trafic internet se reporte sur des systèmes alternatifs qui n'ont pas été conçus pour gérer de tels volumes de données sur une période aussi longue.Les pays disposant de peu de connexions câblées sont les plus exposés, car ils ne possèdent pas la redondance nécessaire pour faire face à des interruptions prolongées. Les experts préviennent que la probabilité de nouvelles pannes d'Internet augmentera si les risques géopolitiques continuent d'entraver les travaux de construction dans la région (et pas seulement la recherche de câbles ). Les groupes de télécommunications étudient actuellement des itinéraires terrestres passant par Bahreïn, l'Arabie saoudite et l'Irak afin de contourner la mer Rouge. Ironie du sort, ces itinéraires avaient été auparavant écartés, jugés trop coûteux ou politiquement complexes. Certaines entreprises envisagent de solliciter des dérogations auprès du Trésor américain, ce qui leur permettrait de négocier directement avec les autorités yéménites concernant les permis. D'autres étudient la possibilité de solliciter l'aide d'organisations internationales de sécurité afin de garantir un accès sécurisé aux navires d'installation. La tâche ne sera certainement pas aisée.
Lire la suite (0 Commentaires)
Mardi matin, une grande partie d'Internet était hors service ou présentait des dysfonctionnements . Cette perturbation a affecté certains des services les plus populaires, notamment ChatGPT, Claude, Spotify et la plateforme X. La cause de cette panne s'est avérée être une défaillance majeure de l'infrastructure de Cloudflare, une entreprise qui gère une part importante du trafic Internet mondial. Vers 14 h, Cloudflare a annoncé sur sa page d'état que la cause de l'instabilité avait été identifiée et qu'un correctif était en cours de déploiement. Moins de deux heures plus tard, l'entreprise a annoncé que l'incident était résolu, tout en précisant que la surveillance restait active afin de garantir la stabilité de tous les composants. Pendant que les correctifs étaient en cours, Dane Knecht, directeur technique de Cloudflare, a présenté ses excuses aux utilisateurs et partenaires sur la plateforme X. Il a expliqué que les problèmes provenaient d'un bug caché dans le service responsable des mécanismes de protection contre les bots. Après une modification de configuration de routine, le service a commencé à planter, entraînant des répercussions sur le réseau et d'autres systèmes connexes.Knecht a souligné qu'il ne s'agissait ni d'une attaque ni d'un acte délibéré d'un tiers. Le bug ne s'est pas manifesté lors des tests, n'a provoqué aucune panne antérieure et est resté invisible jusqu'à une modification de la configuration. Le directeur technique a ajouté que l'entreprise assume la responsabilité des conséquences de cette interruption de service, tant pour ses clients que pour l'ensemble du réseau, et qu'elle prend déjà des mesures pour éviter qu'un incident similaire ne se reproduise. Il a également annoncé la publication d'un rapport technique plus détaillé. Malgré le correctif, certains utilisateurs rencontraient encore des difficultés pour se connecter au tableau de bord Cloudflare et utiliser certaines fonctionnalités. L'entreprise a continué à renforcer sa surveillance et à travailler à la résolution des problèmes restants. L'ampleur de la perturbation a clairement démontré à quel point le réseau moderne dépend d'un petit nombre de fournisseurs d'infrastructure. Quelques semaines auparavant, Amazon Web Services avait subi une panne similaire, affectant l'écosystème mondial des services et applications. Cela montre comment les problèmes rencontrés par une seule entreprise peuvent impacter la stabilité de pans entiers d'Internet.
Selon les estimations du secteur, Cloudflare alimente environ un cinquième des sites web. L'entreprise possède des centres de données dans 330 villes et assure des connexions directes à 13 000 réseaux, parmi lesquels figurent les principaux fournisseurs d'accès à Internet, les grandes plateformes cloud et les entreprises qui utilisent son infrastructure. L'un des principaux atouts de Cloudflare est sa protection contre les attaques DDoS, qui visent à perturber la disponibilité des sites web et des applications. Ironie du sort, les incidents de mardi ont touché une entreprise qui protège régulièrement ses clients contre ce type de perturbations.
Lire la suite (0 Commentaires)
Une panne généralisée d'Internet est actuellement en cours en raison de problèmes avec Cloudflare. Pour ceux qui ne connaissent pas Cloudflare, il s'agit d'une plateforme de services web qui accélère et protège les sites web et les applications. Par conséquent, si Cloudflare est hors service, de nombreux sites web deviennent inaccessibles . Le problème a été identifié à 12h17, mais ce n'est qu'à 12h48 que la situation est devenue critique . Cloudflare a pris connaissance d'un problème susceptible d'affecter plusieurs clients et mène actuellement une enquête. Plus de détails seront communiqués dès que de nouvelles informations seront disponibles. Il est impossible de dresser une liste exhaustive des sites touchés par ce problème, précisément parce que Cloudflare est tellement répandu : de X , le réseau social d'Elon Musk, jusqu'aux sites les plus éloignés, personne n'est « à l'abri » . Un problème similaire s'est produit il y a quelques mois avec une interruption de service d'AWS , le service d'Amazon auquel beaucoup pensent également dans ce cas, mais ce ne devrait pas être de sa faute cette fois-ci. À 14 h 09, Cloudflare a annoncé avoir identifié le problème et qu'un correctif était en cours de déploiement.Lire la suite (0 Commentaires)
Une nouvelle étude menée par des scientifiques américains a suscité une vague de discussions autour de Grokipedia, une encyclopédie générée par intelligence artificielle, que xAI a créée comme alternative à Wikipédia. Présenté comme un recueil de connaissances factuel, ce projet, selon une analyse menée par des spécialistes de Cornell Tech, s'appuie sur des milliers de références à des documents jugés douteux, biaisés, voire trompeurs. Les auteurs du rapport, Harold Triedman et Alexios Mantzarlis, soulignent l'absence de mécanismes de contrôle de la qualité des sources et la vulnérabilité apparente du système face à des contenus à forte connotation politique. L'analyse de centaines de milliers d'articles a révélé une concentration particulière de sources controversées sur des sujets liés aux personnalités politiques et aux débats sociaux houleux. À titre d'exemple, citons l'article relatif au « nombre de morts de Clinton », une théorie du complot maintes fois démentie par les médias et les chercheurs. Cet article fait référence à InfoWars, un site web connu pour diffuser des informations sensationnalistes et mensongères. Un problème similaire se pose lorsqu'on cite des médias d'État chinois et iraniens, des portails d'extrême droite américains, des sites web anti-immigration et des sites diffusant des contenus pseudo-scientifiques.Le rapport indique également que de nombreuses entrées sont des copies quasi exactes de contenus Wikipédia, mais sans les notes de bas de page ni les balises permettant de retracer leur origine. Grokipedia utilise plus fréquemment que Wikipédia des sources jugées non fiables, et ce pourcentage est bien plus élevé pour les sites figurant sur liste noire. Les chercheurs concluent que le système ne dispose d'aucune procédure visible d'évaluation de la qualité des liens. Une demande de commentaire adressée à xAI a reçu une réponse automatique et laconique : « Les médias traditionnels mentent. » Elon Musk a maintes fois insisté sur son objectif de créer une encyclopédie « fondée sur la vérité ». Il annonce désormais qu’il renommera Grokipedia « Galaxy Encyclopedia » une fois le projet suffisamment avancé. Il encourage également les utilisateurs à contribuer à la plateforme, qu’il présente comme une évolution futuriste de la Bibliothèque d’Alexandrie. La controverse sur la crédibilité des plateformes survient dans un contexte de multiplication des accusations portées contre Wikipédia par des groupes d'extrême droite. Elon Musk l'a surnommée « Wokepedia » et a appelé sur les réseaux sociaux à boycotter le projet. Les fondateurs de Wikipédia réfutent ces allégations. Jimmy Wales qualifie les accusations de partialité de factuellement infondées, tout en reconnaissant que la communauté de contributeurs bénévoles peut encore progresser.
Les représentants de la Fondation Wikimedia insistent sur le fait que la transparence est essentielle à leur fonctionnement. Le processus d'édition des articles est public et chaque entrée comprend un historique détaillé des sources. Ils soulignent que, contrairement à Grokipedia, le contenu est créé ouvertement et supervisé par la communauté, et non par une seule entreprise. Ce modèle, fondé sur la transparence et la responsabilité collective, vise à garantir la stabilité et la neutralité attendues par la communauté mondiale des utilisateurs.
Lire la suite (0 Commentaires)
La Commission européenne a annoncé la création du Bouclier européen de la démocratie, un programme ambitieux de lutte contre la désinformation et la manipulation en ligne. Un élément clé de cette initiative sera la mise en place d'un réseau européen indépendant de vérificateurs de faits chargés de contrôler les contenus dans toutes les langues officielles de l'UE. Le programme prévoit la création d'un Centre européen pour la résilience démocratique, chargé de surveiller le paysage numérique des États membres. Ce Centre reliera les structures existantes à un nouveau système d'alerte précoce géré par le Service européen pour l'action extérieure. Une attention particulière a été portée à la réglementation de l'intelligence artificielle dans le contexte des élections. La Commission a annoncé des orientations pour « l'utilisation responsable de l'IA dans les processus électoraux ». L'Observatoire européen des médias numériques se verra octroyer de nouveaux pouvoirs pour surveiller et analyser les situations lors des élections et des crises. Bruxelles prévoit également de coopérer plus étroitement avec les plateformes numériques dans le cadre d'un code de bonnes pratiques sur la désinformation. Un protocole de crise spécifique est en cours d'élaboration afin de permettre une réponse rapide aux opérations de désinformation de grande ampleur.Il s'agit d'une nouvelle étape dans le renforcement du dispositif de régulation d'Internet au sein de l'UE. Auparavant, l'UE avait adopté le règlement sur les services numériques ( DSA ), qui impose aux plateformes de modérer les contenus, et le règlement sur l'intelligence artificielle ( loi sur l'IA ), qui encadre le développement des systèmes d'IA. Bruxelles va désormais plus loin en créant un vaste réseau de surveillance et de vérification des informations. Les critiques mettent en garde contre les risques de restrictions à la liberté d'expression liés à un système de contrôle des contenus aussi étendu. Ses partisans, quant à eux, affirment qu'il s'agit d'une protection nécessaire contre les ingérences et les manipulations étrangères. Le programme prévoit également un renforcement du soutien financier au journalisme indépendant grâce à un nouveau programme de résilience des médias. La Commission annonce par ailleurs une mise à jour de la directive sur les services de médias audiovisuels, visant à accroître la visibilité des médias d'intérêt général. Nombre de propositions de ce type ont déjà été formulées, certaines mises en œuvre, et… aucune n'a vu le jour. En sera-t-il de même cette fois-ci ?
Lire la suite (0 Commentaires)
Ces dernières semaines, les chercheurs en cybersécurité ont observé une augmentation significative des attaques automatisées ciblant les serveurs PHP, les appareils IoT et les passerelles cloud. Cette activité provient principalement des réseaux de zombies Mirai, Gafgyt et Mozi. Le phénomène s'est intensifié si rapidement que les experts le qualifient de tendance récurrente observée il y a plusieurs années, mais qui opère désormais à une échelle bien plus vaste. Les attaques sont entièrement automatisées. Après avoir analysé le réseau à la recherche de systèmes vulnérables, les botnets tentent de détourner la capacité d'exécuter des commandes. Une fois l'infection réussie, les appareils infectés intègrent le botnet, qui les utilise pour étendre son infrastructure. Les serveurs PHP attirent particulièrement l'attention des cybercriminels. La popularité de WordPress, Craft CMS et autres systèmes basés sur PHP crée un vaste écosystème de solutions, facilitant la découverte d'installations négligées. Les chercheurs alertent sur le fait que de nombreuses implémentations reposent sur des versions logicielles obsolètes, des plugins abandonnés et des thèmes non pris en charge. Dans de tels environnements, même des vulnérabilités anciennes restent exploitables. Les vulnérabilités les plus fréquemment exploitées sont CVE-2017-9841 dans le framework PHPUnit, CVE-2021-3129 dans Laravel et CVE-2022-47945 dans ThinkPHP. Bien que documentées et corrigées il y a plusieurs années, l'absence de mises à jour les rend toujours exploitables. Des chercheurs signalent également des utilisations abusives du module Xdebug. De nombreuses requêtes HTTP incluent la balise /?XDEBUG_SESSION_START=phpstorm, ce qui active le mode débogage sur l'application cible. En théorie, Xdebug devrait être désactivé, mais en pratique, il reste souvent activé.Les botnets analysent également les objets connectés, les enregistreurs vidéo et les systèmes périphériques servant de points d'accès intermédiaires aux ressources de l'entreprise. Parmi les vulnérabilités les plus fréquemment exploitées figurent CVE-2022-22947 dans les passerelles cloud Spring, CVE-2024-3721 dans les enregistreurs vidéo numériques TBK et des vulnérabilités dans les enregistreurs MVPower permettant l'exécution de commandes arbitraires via de simples requêtes HTTP. De nombreux opérateurs d'infrastructures IoT négligent les mises à jour car la modification des configurations peut entraîner des interruptions de service, un accès physique aux appareils ou un recalibrage. Cela ouvre la porte aux prises de contrôle. Les experts de Qualys soulignent que le niveau d'expertise requis pour mener à bien une attaque est aujourd'hui nettement inférieur à celui d'hier. Les dépôts publics proposent des frameworks de gestion de botnets et des kits d'exploitation prêts à l'emploi, exécutables sans connaissances avancées en programmation. De nombreuses analyses proviennent de ressources cloud légitimes telles qu'Amazon Web Services, Google Cloud, Microsoft Azure, Digital Ocean et Akamai, ce qui complique davantage le traçage de l'origine de l'opération. James Maude de BeyondTrust commente ce phénomène, soulignant que les botnets modernes ne sont plus uniquement associés aux attaques DDoS et au spam. Ils ciblent de plus en plus les identifiants, les clés API et les jetons utilisés pour infiltrer les infrastructures.
Les experts soulignent que le problème se répète régulièrement car des failles de sécurité fondamentales demeurent non corrigées. Logiciels obsolètes, mots de passe par défaut, configurations de serveurs incorrectes et absence d'audits réguliers créent un environnement propice au développement quasi libre des botnets. Pour de nombreuses entreprises, le moment est venu de réévaluer si la sécurité numérique est un processus permanent ou une tâche effectuée « après coup ». Les événements de ces dernières semaines démontrent que les risques augmentent dès lors que les processus de maintenance des infrastructures sont considérés comme un coût plutôt que comme un fondement.
Lire la suite (0 Commentaires)
Se connecter
Inscription
Mot de passe perdu