Publié le: 12/11/2025 @ 14:43:10: Par Nic007 Dans "Programmation"
Faire confiance aux assistants IA est pratique, mais pas toujours judicieux, surtout lorsqu'il s'agit de sujets sensibles. Selon un nouveau rapport faisant autorité , ils peuvent contribuer à dissimuler des troubles alimentaires et produire du contenu faisant la promotion de la minceur . L'analyse en question , réalisée par des chercheurs de Stanford et du Centre pour la démocratie et la technologie (CDT) , décrit comment des outils accessibles au public tels que ChatGPT et Google Gemini , ainsi que Claude et Le Chat , fournissent des conseils sur des régimes extrêmes , des astuces pour masquer les symptômes et des images improvisées. L'analyse met en lumière des fonctionnalités conçues pour accroître l'engagement mais qui, en réalité, amplifient les risques. L'un des aspects les plus inquiétants de cette recherche est le fait que des indications pratiques masquent les symptômes des troubles alimentaires. Google Gemini suggérait des astuces pour dissimuler une perte de poids et des idées pour simuler des repas. ChatGPT décrivait des méthodes pour masquer des vomissements fréquents. Ceux qui les utilisent appliquent les mêmes modèles génératifs pour créer des images personnalisées , transformées en source d'inspiration pour la minceur . La production instantanée et sur mesure rend ce contenu plus pertinent et accessible, accentuant ainsi la pression sociale. La situation est d'autant plus complexe que les mannequins font preuve d'une certaine suffisance , un défaut que les entreprises du secteur reconnaissent. Cette attitude nuit à l'estime de soi , renforce les émotions négatives et encourage les comparaisons néfastes . Ces systèmes héritent également de préjugés culturels . Le rapport souligne qu'ils tendent à perpétuer l'idée fausse selon laquelle les troubles alimentaires ne touchent que les femmes blanches, cisgenres et très minces, ce qui entrave la reconnaissance des symptômes et l'accès aux soins. Les barrières de sécurité actuelles sont insuffisantes. Selon les chercheurs, elles ne permettent pas de saisir les nuances cliniquement importantes de l'anorexie , de la boulimie et de l'hyperphagie boulimique qu'un professionnel compétent peut reconnaître.De nombreux cliniciens , membres de la famille et soignants ignorent encore le véritable impact des outils génératifs sur les patients vulnérables. Les auteurs vous invitent à vous familiariser avec les services les plus courants , à en tester les points faibles et à en parler ouvertement avec les patients. Ce rapport intervient dans un contexte d'inquiétudes croissantes concernant le lien entre les assistants IA et la santé mentale . Plusieurs études établissent un lien entre l'utilisation de l'IA et des épisodes maniaques , des idées délirantes , des comportements d'automutilation et des suicides . Les entreprises concernées, comme OpenAI , reconnaissent les risques potentiels et font face à un nombre croissant de poursuites judiciaires, tandis qu'elles s'efforcent d'améliorer leurs systèmes de protection. Mais Google , Anthropic et Mistral figurent également parmi les fournisseurs d'assistants analysés dans l'étude, ce qui témoigne d'un problème qui touche l'ensemble du secteur . En bref, c'est un nouveau signal d'alarme : nous nous précipitons dans le développement de l'intelligence artificielle sans prendre le temps d'établir les règles et les limites qui, dans une société civilisée et respectueuse de l'État de droit, devraient être la priorité. Mais l'économie, elle, pousse dans une autre direction, et l'argent a toujours été un puissant moteur.
Lire la suite (0 Commentaires)
Publié le: 11/11/2025 @ 14:51:34: Par Nic007 Dans "Programmation"
Foxconn a annoncé le déploiement de robots humanoïdes dans ses usines, qui travailleront sur les chaînes de production. Ils fabriqueront des serveurs d'IA pour NVIDIA. Il s'agit d'une décision extrêmement ambitieuse et novatrice. On pourrait dire que l'intelligence artificielle va… créer de l'intelligence artificielle. Ce qui, par le passé, semblait relever de la fiction et suscitait des inquiétudes, devient aujourd'hui réalité. Foxconn, qui collabore avec des géants de la technologie tels qu'Apple, Nintendo, Sony, Google, Microsoft et NVIDIA, a annoncé que des robots humanoïdes seront désormais chargés de la production des serveurs d'IA pour NVIDIA. La présence de ces robots dans les usines de Foxconn préfigure une transformation plus profonde, s'inscrivant dans la tendance mondiale à l'automatisation des processus de production. Le PDG de Foxconn, Young Liu, a déclaré que l'objectif est d'accroître significativement l'efficacité de la production. Il a souligné que la rapidité, la précision et l'efficacité sont essentielles, notamment pour la production de serveurs utilisés dans l'intelligence artificielle générative, qui exige une puissance de calcul exceptionnellement élevée. Selon Foxconn, les nouveaux robots humanoïdes seront opérationnels dans une usine ultramoderne de Houston, construite en étroite collaboration avec NVIDIA.Les robots humanoïdes seront alimentés par le modèle Isaac GR00T N de NVIDIA. Cette technologie spécialisée vise à améliorer l'efficacité des processus de fabrication, notamment dans le domaine des serveurs d'intelligence artificielle. Foxconn et NVIDIA s'associent pour créer une usine qui deviendra une référence mondiale dans la production de serveurs destinés aux applications d'IA avancées. Cette approche pourrait constituer une avancée majeure dans un secteur déjà confronté à la demande croissante d'ordinateurs pour l'intelligence artificielle. L'introduction de robots humanoïdes dans les usines a soulevé de nombreuses questions quant aux aspects pratiques de cette solution. Bien que Foxconn possède une expérience en matière d'automatisation des processus de production, l'entreprise a principalement utilisé des robots industriels plus simples, plutôt que des machines humanoïdes capables d'interagir avec les opérateurs humains. Par conséquent, l'introduction de robots humanoïdes destinés à coopérer avec les humains dans le même espace de travail nécessitera une organisation et des solutions bien pensées garantissant la sécurité.
L'utilisation de robots humanoïdes en usine pourrait réduire l'intervention humaine dans certains processus de production. Foxconn, comme beaucoup d'autres entreprises, a déjà tenté de remplacer les travailleurs par des machines, notamment dans les chaînes de montage, où l'automatisation permet d'accroître l'efficacité. Cependant, faire travailler des robots humanoïdes dans le même espace que les humains comporte des défis, comme celui de garantir des mesures de sécurité appropriées et d'intégrer les robots de manière à ne pas perturber les processus de production ni à mettre en danger les travailleurs. Il est également important de s'interroger sur la manière dont les robots humanoïdes accompliront leurs tâches. Nombre d'entre eux sont encore en développement et ne sont pas toujours capables d'effectuer efficacement des tâches complexes. Les experts se demandent si la technologie des robots humanoïdes est suffisamment mature pour remplacer efficacement les ouvriers sur les chaînes de production, ou si elle restera pour l'instant une solution expérimentale.
Lire la suite (0 Commentaires)
Publié le: 07/11/2025 @ 17:31:12: Par Nic007 Dans "Programmation"
Lors de la dernière assemblée générale des actionnaires de Tesla, Elon Musk s'est une fois de plus imposé comme une figure très controversée. Les actionnaires ont voté des modifications renforçant son influence sur l'entreprise, alors même que les ventes de voitures sont en baisse et que la marque est confrontée à des problèmes d'image sur les marchés mondiaux. Les discussions sur la stratégie d'entreprise ont rapidement cédé la place à ce que Musk présente comme l'avenir de Tesla : les robots humanoïdes Optimus. Musk a proposé de remplacer les peines de prison traditionnelles par une surveillance robotisée. Les criminels se verraient attribuer un robot Optimus chargé de les suivre et de prévenir la récidive. Musk estime qu'un tel modèle serait plus humain et allègerait la pression sur le système pénitentiaire. Dans sa déclaration, il a décrit la situation ainsi : si une personne est reconnue coupable d’un crime, « elle reçoit un Optimus Prime gratuit pour la suivre et l’empêcher de commettre d’autres crimes. Hormis cela, elle peut agir librement. » Pour que le système fonctionne, Optimus devrait accomplir des tâches bien au-delà des capacités des prototypes actuels : prédire le comportement de l’utilisateur, reconnaître les situations nécessitant une intervention, maîtriser physiquement une personne et assurer une surveillance constante. Bien entendu, cela requiert un fonctionnement entièrement autonome et une longue autonomie. Par ailleurs, la génération actuelle d'Optimus est commandée à distance pendant les spectacles et nécessite une alimentation électrique filaire pour les opérations simples.Cette idée a suscité des réactions immédiates de la part des juristes et des sociologues. Un système fondé sur la surveillance constante du condamné impliquerait un renforcement des mécanismes de contrôle dans la sphère publique. Il signifierait également le transfert d'une part importante du contrôle technologique à des entités privées, et non à l'État. Le coût du programme a également été évoqué dans les débats. Optimus est encore en développement et pourrait s'avérer très onéreux. Remplacer une partie du système pénitentiaire par des robots impliquerait un financement public ou une augmentation de la dette nationale. Musk a déclaré qu'Optimus contribuera à la croissance de l'économie mondiale et, à terme, consolidera la valeur de Tesla. Il avait précédemment estimé que le marché des robots humanoïdes pourrait accroître la capitalisation boursière de l'entreprise de plusieurs milliers de milliards de dollars. L'annonce d'aujourd'hui confirme ces prévisions, même si elle n'aborde pas les difficultés actuelles liées à l'application industrielle des robots Tesla.
Lire la suite (0 Commentaires)
Publié le: 07/11/2025 @ 16:44:45: Par Nic007 Dans "Programmation"
Les chercheurs de Tenable ont découvert sept failles de sécurité critiques dans ChatGPT-4o qui pourraient permettre aux cybercriminels de dissimuler des commandes malveillantes, de voler des données et de diffuser de la désinformation. Baptisée « HackedGPT », cette série de vulnérabilités constitue une chaîne d'attaque complète contre le célèbre chatbot. Parmi les problèmes détectés figure l'injection indirecte de requêtes via des sites de confiance, où des attaquants peuvent dissimuler des commandes sur des sites web publics que ChatGPT exécute à l'insu de l'utilisateur lors de la lecture du contenu. Une attaque particulièrement dangereuse est l'attaque « zéro clic », dans laquelle le modèle recherche automatiquement sur Internet une page contenant du code malveillant et exécute des instructions cachées sans que l'utilisateur ne s'en aperçoive. Parmi les autres vulnérabilités, citons une attaque de phishing par clic sur un lien contenant des commandes GPT cachées, le contournement des mécanismes de sécurité par encapsulation de liens malveillants dans des adresses de confiance et « l'injection de conversation » - l'utilisation de SearchGPT pour insérer des instructions cachées que ChatGPT lit ensuite, s'attaquant ainsi lui-même.Les chercheurs ont également découvert que des instructions malveillantes peuvent être dissimulées dans du code ou du texte Markdown et stockées dans la mémoire de la conversation, ce qui entraîne une fuite de données persistante à chaque fois que la conversation enregistrée est lancée. OpenAI a réagi au rapport et corrigé certaines des vulnérabilités découvertes dans le modèle GPT-5, mais toutes n'ont pas été résolues, exposant ainsi des millions d'utilisateurs à des menaces potentielles. Ce problème affecte également d'autres chatbots : Gemini de Google est vulnérable à des attaques similaires via son intégration avec Gmail, permettant aux attaquants d'envoyer des courriels contenant des messages cachés (par exemple, du texte blanc sur fond blanc). HackedGPT révèle une faille fondamentale dans la manière dont les grands modèles de langage évaluent la fiabilité des informations. Par conséquent, il est toujours nécessaire de surveiller l'activité des quelques scripts que nous exécutons.
Lire la suite (0 Commentaires)
Publié le: 05/11/2025 @ 15:44:02: Par Nic007 Dans "Programmation"
OpenAI lance Sora 2 sur Android . L' application vidéo générée par IA fait également ses débuts sur le système de Google, avec toutes les dernières fonctionnalités récemment lancées sur iPhone : création , partage et remixage de vidéos, le tout dans un flux social qui permet de rendre publics des deepfakes , comme si de rien n'était. Après son lancement sur iOS en septembre, Sora a dépassé le million de téléchargements en seulement cinq jours, et sa base de téléchargements devrait croître de façon exponentielle grâce à sa disponibilité sur le Google Play Store , mais pas pour tout le monde. OpenAI a annoncé la disponibilité de Sora sur Google Play dans seulement sept marchés : les États-Unis , le Canada , le Japon , la Corée , Taïwan , la Thaïlande et le Vietnam . Nous avons essayé d' installer l'application en récupérant le fichier apk depuis APKMirror , mais à chaque fois que nous essayons de lancer l'application, nous sommes renvoyés au Play Store, sans possibilité de la lancer . En effet, une fois lancée, Sora effectue un contrôle d'intégrité et de géolocalisation via Google Play Services , afin d'éviter une installation manuelle dans les pays où l'application n'est pas disponible . Avec un fichier APK modifié, il devrait être possible de les contourner, mais nous ne vous conseillons pas de le faire, car vous pourriez installer un logiciel dangereux sur votre smartphone.Dès son ouverture, Sora 2 propose un flux de type TikTok alimenté par des clips générés par l'IA . Ce flux rassemble les publications de la communauté. Des outils intégrés permettent de créer , partager et remixer des vidéos directement depuis l'application. Mais la fonctionnalité la plus célèbre s'appelle « caméo » : Sora permet de créer du contenu où l'on se met en scène, soi-même ou ses amis , ou encore en empruntant l'« avatar » de personnalités comme Sam Altman. N'importe qui peut créer de fausses vidéos avec de fausses personnes , et seul le petit logo de Sora est superposé pour indiquer qu'il s'agit d'une IA. Combien de temps faudra-t-il avant que tous les réseaux sociaux soient envahis par ce type de contenu ? Un contenu auquel la plupart des utilisateurs croiront sans trop de difficultés . Ces dernières semaines, Sora a essuyé de vives critiques concernant sa gestion des deepfakes et la protection des droits d'auteur . Les protestations ont entraîné un revirement de la politique de retrait des ayants droit. OpenAI prévoit d'autoriser ces derniers à facturer leurs apparitions, mais pour l'instant, le service étant encore en développement, la stratégie reste incitative ; les mesures coercitives ne seront prises que plus tard.
Lire la suite (0 Commentaires)
Publié le: 04/11/2025 @ 17:21:32: Par Nic007 Dans "Programmation"
La Content Overseas Distribution Association (CODA), une organisation représentant les détenteurs de droits d'auteur japonais, dont le Studio Ghibli et Bandai Namco, a adressé à OpenAI une lettre officielle exigeant qu'elle cesse d'utiliser les contenus de ses membres pour l'entraînement de son modèle vidéo de Sora 2. Dans cette lettre, la CODA soutient que la copie lors du processus d'apprentissage automatique pourrait constituer une violation du droit d'auteur, le modèle résultant étant capable de générer des images utilisant des personnages et des éléments protégés de franchises japonaises. Suite à la sortie de Sora 2 fin septembre, une vague de contenus mettant en scène des personnages et des styles visuels japonais a déferlé sur Internet, incitant le gouvernement japonais à demander officiellement à OpenAI de cesser de reproduire des œuvres d'art japonaises.Ce n'est pas le premier incident de ce genre : lors de sa présentation de GPT-40 en mars, l'entreprise avait déjà mis en avant de nombreuses images de style Ghibli. Même l'avatar de Sam Altman, PDG d'OpenAI, sur les réseaux sociaux arbore une esthétique rappelant celle du Studio Ghibli. M. Altman avait précédemment annoncé que l'entreprise modifierait sa politique de retrait afin de faciliter la tâche des détenteurs de droits d'auteur souhaitant interdire l'utilisation de leurs œuvres pour l'entraînement des modèles. Cependant, CODA a indiqué que cette politique pourrait elle-même enfreindre la loi japonaise sur le droit d'auteur, car l'utilisation d'œuvres protégées au Japon requiert l'autorisation préalable du titulaire des droits.
Lire la suite (0 Commentaires)
Publié le: 04/11/2025 @ 14:54:13: Par Nic007 Dans "Programmation"
Les satellites peuvent-ils sauver la Terre du réchauffement climatique ? Cette question a pris une nouvelle dimension après qu’Elon Musk a suggéré sur la plateforme X que des satellites gérant le rayonnement solaire pourraient apporter une solution à la crise climatique. Face à la hausse des températures mondiales et aux difficultés rencontrées par les gouvernements pour tenir leurs engagements climatiques, l'espoir d'un salut technologique se fait de plus en plus séduisant. Musk, connu pour son ambition de repousser les limites de la science, a une fois de plus relancé le débat sur la frontière entre innovation et risque. Lundi matin, Elon Musk a publié un tweet proposant le déploiement d'une vaste constellation de satellites alimentés à l'énergie solaire. Selon son concept, des dispositifs contrôlés par intelligence artificielle pourraient réguler avec précision la quantité de lumière solaire atteignant la surface de la Terre. Ceci contribuerait à freiner le réchauffement climatique tout en prévenant un éventuel refroidissement de la planète. Interrogé sur la précision d'une telle méthode et les conflits potentiels liés au contrôle du soleil, Musk a répondu sèchement : « Oui. De petits ajustements suffiraient à éviter les changements de température globaux. La Terre a déjà connu plusieurs épisodes de réchauffement climatique. » Bien que ses réponses n'aient apporté aucun détail technique précis, l'idée elle-même a trouvé un large écho dans le monde des sciences et des technologies.Le concept évoqué par Musk n'est pas nouveau. Les scientifiques explorent depuis des années la possibilité de gérer le rayonnement solaire (GRS). L'idée est de réfléchir une partie de ce rayonnement vers l'espace, ce qui permettrait de réduire la température de la planète. Certaines start-ups expérimentent déjà l'idée d'utiliser des aérosols atmosphériques pour imiter les effets des éruptions volcaniques ou de placer des miroirs en orbite. Cependant, aucune de ces technologies n'a dépassé le stade conceptuel. Si SpaceX envisageait sérieusement de se lancer dans ce domaine, cela bouleverserait la donne. L'entreprise possède des milliers de satellites Starlink et une expérience qui fait défaut aux acteurs plus modestes. Cependant, Musk n'a encore rien annoncé officiellement. Pour l'instant, ce n'est qu'une idée, même si elle stimule l'imagination. La mise en place d'un bouclier anti-satellites exigerait un investissement colossal de la part de SpaceX. Cela impliquerait non seulement le coût du lancement des satellites en orbite, mais aussi le développement d'un nouveau type de satellite équipé de systèmes optiques de haute précision. Les satellites de communication Starlink actuels ne se prêtent pas à une telle modification. Les scientifiques sont incapables d'estimer le nombre de satellites SRM nécessaires pour avoir un impact significatif sur la température terrestre. Les estimations varient de quelques milliers à plusieurs millions. Leur production et leur maintenance coûteraient des milliers de milliards de dollars. Même Elon Musk, avec son empire technologique, ne pourrait financer un tel projet sans le soutien d'institutions internationales.
Les experts, cependant, se montrent peu optimistes et avertissent que la gestion du rayonnement solaire pourrait faire plus de mal que de bien. Les variations du rayonnement solaire pourraient perturber les cycles météorologiques, l'alternance jour-nuit, et même avoir un impact sur l'agriculture et la biodiversité. Il existe aussi des risques politiques. Qui décidera de la quantité de lumière qui atteindra la Terre ? L’équilibre climatique mondial pourrait-il dépendre des décisions d’une seule entreprise ? Ces questions ouvrent le débat non seulement sur la technologie, mais aussi sur la responsabilité et les limites de l’intervention humaine dans la nature.
Lire la suite (0 Commentaires)
Publié le: 04/11/2025 @ 00:17:48: Par Nic007 Dans "Programmation"
OpenAI a signé un accord de 38 milliards de dollars avec Amazon Web Services, lui donnant accès à des centaines de milliers de cartes graphiques NVIDIA pour l'entraînement et l'exécution de ses modèles d'IA. Ce partenariat de sept ans marque la fin de la relation exclusive d'OpenAI avec Microsoft, qui perd ainsi son statut de fournisseur unique de cloud et son droit de premier refus pour l'hébergement de ses charges de travail informatiques. Selon le communiqué de presse officiel, OpenAI commencera immédiatement à utiliser la puissance de calcul d'AWS pour entraîner ses modèles. L'ensemble de l'infrastructure prévue sera opérationnel d'ici fin 2026, avec la possibilité d'une extension ultérieure en 2027 et au-delà.La semaine dernière, OpenAI a finalisé sa restructuration, consolidant ainsi son statut commercial et annonçant un nouvel accord avec Microsoft. Cet accord accorde à Microsoft les droits d'utilisation de la technologie d'OpenAI jusqu'à ce que l'entreprise atteigne l'intelligence artificielle générale (IAG). OpenAI conservera la possibilité de collaborer avec d'autres partenaires et de publier des modèles open source individuels. Aux termes de ce nouveau partenariat, OpenAI s'engage à acquérir pour 250 milliards de dollars de services cloud Microsoft Azure, dépassant largement son contrat avec Amazon. L'entreprise a également un contrat de 300 milliards de dollars avec Oracle, tandis qu'Amazon continue d'investir des milliards dans son principal concurrent en IA, Anthropic.
Lire la suite (0 Commentaires)
Publié le: 03/11/2025 @ 15:02:03: Par Nic007 Dans "Programmation"
Dans le dernier épisode du podcast « Joe Rogan Experience », Elon Musk a une fois de plus surpris le public. Le PDG de Tesla, SpaceX et Neuralink a révélé que son entreprise pourrait dévoiler un prototype de voiture volante avant la fin de l'année. Bien que Musk n'ait donné aucun détail, sa déclaration a suscité une avalanche de réactions. La conversation avec Joe Rogan a débuté par une question sur le sort de la Tesla Roadster de deuxième génération, une supercar électrique dévoilée pour la première fois en 2017. À l'époque, Musk avait promis que les livraisons commenceraient en 2020, mais le projet n'a cessé d'être repoussé depuis. Parallèlement, Sam Altman, le PDG d'OpenAI, s'est plaint sur les réseaux sociaux des difficultés rencontrées pour récupérer un acompte de 50 000 $ versé en 2018. Au lieu d'aborder l'état d'avancement du Roadster, Musk a brusquement changé de sujet, parlant de la « démonstration inoubliable d'un prototype » d'un véhicule capable de… voler. « Mon ami Peter Thiel a un jour fait remarquer que le futur était censé être fait de voitures volantes, et pourtant, nous n'en avons pas. Je pense que si Peter veut une voiture volante, nous devrions pouvoir en acheter une », a déclaré Musk. Musk n'a pas souhaité trop en dévoiler, mais a décrit le projet comme utilisant une technologie « vraiment incroyable ». Il a également admis ne pas être certain qu'on puisse le qualifier de voiture à part entière, « mais ça y ressemble ». Il n'a pas répondu aux questions de Rogan concernant la présence d'ailes repliables ou la capacité du véhicule à décoller et atterrir verticalement (VTOL), à l'instar des drones et des concepts de taxis aériens actuels.Elon Musk parle de véhicules volants depuis des années. Dès 2014, il suggérait que de tels engins pourraient faire partie intégrante de l'avenir du design automobile. Cependant, sa réputation en matière de respect des délais laisse à désirer. Les exemples abondent : la Tesla Roadster n'est toujours pas en production et le premier vol de la fusée Falcon Heavy a eu lieu cinq ans plus tard que prévu. Par ailleurs, même si la nouvelle « voiture volante » de Tesla n'est qu'un prototype, elle pourrait constituer un nouveau projet ambitieux pour l'entreprise de Musk, contribuant ainsi à restaurer la confiance des investisseurs, récemment ébranlée. Les experts soulignent toutefois que la mise au point d'un véhicule volant conforme aux normes de sécurité routière et aérienne représente un défi technologique et réglementaire considérable. Même si Tesla parvient à proposer un produit spectaculaire, il pourrait s'écouler des années entre la présentation du prototype et la production en série.
Lire la suite (0 Commentaires)
Publié le: 03/11/2025 @ 14:59:55: Par Nic007 Dans "Programmation"
L'ingénieur Harishankar Narayanan a décrit une situation inquiétante sur son blog . Il s'avère que son aspirateur intelligent iLife A11 collectait non seulement une quantité massive de données sur son domicile, mais qu'à sa grande surprise, il avait également été désactivé à distance après que son propriétaire eut bloqué la communication avec les serveurs du fabricant. Tout a commencé innocemment. Intrigué par le fonctionnement de son aspirateur robot, Harishankar a décidé d'analyser le trafic réseau émis par l'appareil. Il a rapidement découvert que celui-ci envoyait constamment des journaux et des données de télémétrie au fabricant, sans qu'il l'ait jamais autorisé. Inquiet, il a bloqué les adresses IP des serveurs de collecte de données sur son routeur, tout en autorisant l'accès aux mises à jour et aux logiciels. Au début, tout fonctionnait, mais au bout de quelques jours, l'aspirateur a cessé de fonctionner. L'appareil ne démarrait plus, comme s'il avait été désactivé à distance.L'ingénieur a envoyé l'appareil à un centre de service agréé. Les techniciens ont facilement mis l'aspirateur en marche et n'ont constaté aucun défaut. Après avoir renvoyé l'appareil à son domicile, le même problème s'est reproduit : après quelques jours de fonctionnement, la panne est réapparue. Après plusieurs tentatives infructueuses, le centre de service a refusé de le réparer, prétextant que l'appareil n'était plus sous garantie. Harishankar a alors décidé de prendre les choses en main, en démontant l'aspirateur et en menant sa propre enquête. L'analyse matérielle a révélé que l'iLife A11 était un ordinateur sur roues sophistiqué. Il abritait un processeur AllWinner A33 fonctionnant sous TinaLinux, un microcontrôleur GD32F103 et un ensemble de capteurs : lidar, gyroscopes et encodeurs. L'ingénieur a conçu des connecteurs de circuit imprimé personnalisés, écrit des scripts Python pour contrôler l'aspirateur via l'ordinateur et même créé un joystick avec un Raspberry Pi pour piloter l'appareil manuellement. Tout fonctionnait correctement, confirmant que le problème était d'ordre logiciel et non matériel.
Harishankar a alors fait une découverte inquiétante. L'aspirateur robot avait le protocole Android Debug Bridge (ADB) activé, un outil permettant un accès complet au système sans mot de passe ni chiffrement. Le fabricant avait seulement ajouté un « protecteur » de fortune qui déconnectait ADB quelques secondes après le lancement. Pour un ingénieur expérimenté, la solution était un jeu d'enfant. Après avoir obtenu l'accès complet au système, il a découvert que l'appareil utilisait Google Cartographer pour créer une carte 3D en temps réel du domicile de l'utilisateur. Si cela est courant pour les aspirateurs robots, le problème résidait dans le fait que toutes les données étaient envoyées aux serveurs du fabricant sans le consentement explicite de l'utilisateur. La découverte la plus troublante est survenue plus tard. Harishankar a trouvé une commande d'arrêt dans les journaux système, envoyée au moment précis où son aspirateur s'est arrêté. Après avoir annulé cette commande et redémarré l'appareil, le robot s'est remis en marche. Cela ne signifiait qu'une chose : le fabricant avait bloqué l'appareil à distance, car il ne pouvait plus se connecter à ses serveurs de télémétrie. Pendant que l'aspirateur était en réparation, il avait été réinitialisé et fonctionnait correctement. De retour chez lui, lorsqu'il a réintégré le réseau bloqué, il a de nouveau été mis hors service. « Quelqu'un (ou quelque chose) a donné l'ordre à distance de mettre mon appareil hors service. Qu'il s'agisse d'une machine ou d'un humain, le résultat est le même : l'appareil s'est retourné contre son propriétaire », a écrit Harishankar.
L'ingénieur a finalement repris le contrôle de son aspirateur. Grâce à des modifications, celui-ci fonctionne désormais en mode entièrement autonome, sans aucun contact avec les serveurs du fabricant. Toutefois, son histoire soulève de sérieuses questions quant à la sécurité et à la confidentialité des données des utilisateurs d'objets connectés. Les appareils intelligents bon marché manquent souvent de puissance de traitement pour analyser eux-mêmes les données ; ils les transfèrent donc intégralement vers le cloud. Mais lorsque les données de l’utilisateur deviennent indispensables au fonctionnement de l’appareil, la frontière entre simple nettoyage et espionnage devient dangereusement floue. Enfin, Harishankar a partagé un conseil qui devrait parler à tous ceux qui possèdent des appareils intelligents à la maison : « Ne connectez jamais les appareils IoT à votre réseau Wi-Fi principal. Traitez-les comme des étrangers dans votre maison. »
Lire la suite (0 Commentaires)
Se connecter
Inscription
Mot de passe perdu
Press Releases