Publié le: 12/03/2025 @ 19:10:57: Par Nic007 Dans "Programmation"

Lire la suite (0 Commentaires)
Publié le: 11/03/2025 @ 15:41:56: Par Nic007 Dans "Programmation"

Delangue a raconté sur X une conversation qu'il a eue avec le fondateur de Manus, d'où il est ressorti que les capacités des agents pourraient être augmentées simplement en améliorant le "post-training" sur les trajectoires agentiques, un peu à la manière de ce qui se passe entre un modèle de base et un modèle instruct (les modèles de base sont les modèles qui ne sont pas optimisés et utilisés pour des tâches génériques, tandis que les instructs sont réglés pour effectuer des tâches spécifiques). Manus serait alors en mesure d'effectuer une variété de tâches de manière autonome, telles que la recherche de produits, l'analyse comparative, la création d'un blog qui passe le test d'IA de Google et même la programmation. Dans le benchmark GAIA , un test d’intelligence artificielle qui évalue la capacité d’une IA à raisonner, à utiliser des outils et à automatiser des tâches du monde réel, Manus bat clairement Deep Research d’OpenAI. Ji le décrit comme « le prochain paradigme de la collaboration homme-machine et potentiellement un aperçu de l'AGI ». Même ceux qui l’ont essayé sont d’accord. Malheureusement, l'accès se fait uniquement sur invitation et les codes sur le site (HUGGINGFACE si vous voulez essayer) ont déjà été utilisés. L'attente est si grande qu'en Chine ces invitations ont été vendues pour des milliers de dollars , mais les témoignages en disent long.
Le capital-risqueur Deedy Das le décrit comme « l'agent IA qu'on nous avait promis » après lui avoir demandé une analyse professionnelle des actions Tesla . L'investisseur Andrew Wilkinson, de son côté, déclare : « C'est complètement fou. J'ai l'impression d'avoir voyagé six mois dans le futur . » Vous pouvez voir des cas d’utilisation sur le site Web de Manus, et celui-ci sur la création d’un blog qui surpasse les mécanismes de reconnaissance de contenu IA de Google m’a particulièrement marqué. Mais est-ce vraiment si exceptionnel ? Malheureusement, il n’existe aucun moyen de vérifier ces affirmations, et on ne sait rien de l’apparence de Manus, mais certains récits incitent à la prudence. Premièrement, l'agent IA ne publie pas de sources , il n'y a donc aucun moyen de vérifier ce qu'il dit, et certains tests ont montré qu'il fait des erreurs sur des informations factuelles et ne fournit pas de réponses complètes aux questions .
Lire la suite (0 Commentaires)
Publié le: 07/03/2025 @ 14:06:53: Par Nic007 Dans "Programmation"

Bonne nouvelle également concernant la disponibilité. Pour l'instant, seuls les utilisateurs Plus, Pro et Team peuvent l'utiliser immédiatement : pour y accéder, il suffit de mettre à jour l'application pour commencer à l'utiliser, mais OpenAI a déjà promis qu'à partir de la semaine prochaine, elle sera également disponible pour les utilisateurs Enterprise, Edu et Free. Et la popularité (et la demande) de ces outils est telle qu’OpenAI prévoit de lancer dans les prochains temps un produit dédié pour soutenir l’ingénierie logicielle. Mais il y a un « mais ». Selon plusieurs rapports, l’utilisation de l’IA accélère l’écriture et la révision du code, mais avec un risque élevé d’ erreurs , d’introduction de vulnérabilités et même de violation du droit d’auteur. Une étude sur GitHub Copilot a révélé que le code généré par l'IA est de moindre qualité , tandis que Y Combinator a constaté que l'IA formée sur du code protégé par le droit d'auteur le reproduit exactement (avec des commentaires « inappropriés »), ce qui cause des problèmes évidents aux développeurs qui l'adoptent. En fait, les recherches menées par LeadDev ont montré que de nombreux développeurs passent plus de temps qu’auparavant à déboguer le code généré par l’IA. Certes, la mise en œuvre de modèles de plus en plus puissants tels que Claude 3.7 ou ChatGPT 4.5 et 5 augmentera encore l'utilisation de l'IA pour la programmation, mais le risque que cela produise du mauvais code ou des vulnérabilités pires qui ne sont pas détectées mérite une enquête plus approfondie.
Lire la suite (0 Commentaires)
Publié le: 05/03/2025 @ 13:05:58: Par Nic007 Dans "Programmation"

- Il comprend le contexte de la conversation et adapte le ton de sa voix en conséquence.
- Il gère mieux le timing des conversations , comme les pauses et les interruptions, pour rendre le dialogue plus fluide et naturel.
- Il reproduit les émotions et les nuances vocales , rendant la voix plus expressive et engageante.
En bref, le CSM est un modèle qui vise à donner à l’IA une certaine intelligence émotionnelle , afin qu’elle puisse répondre non seulement en fonction de l’entrée vocale qui lui est donnée, mais aussi de son ton. Vous voulez l'essayer par vous-même ? Allez sur https://www.sesame.com/research/crossing_the_uncanny_valley_of_voice#demo , choisissez la voix de Maya ou de Miles et ayez une bonne conversation. N'oubliez pas que le CSM a actuellement été formé en anglais et ne parle pas couramment d'autres langues. Sesame a promis que dans les mois à venir, il étendrait le support à 20 autres langues. Précisons également que, aussi naturelle que soit la voix, la connaissance générale de ce modèle est plutôt limitée par rapport à un ChatGPT ou à un Gemini , car son objectif principal est précisément le langage naturel.
Mais pourquoi alors Google et OpenAI n’ont-ils pas déjà mis en œuvre quelque chose de similaire ? Nous n'avons pas de réponse officielle, mais selon Sesame, l'implémentation de CSM nécessite des ressources importantes , notamment pendant la phase de formation, en raison de l'utilisation élevée de la mémoire et de la nécessité de gérer de gros lots de données. De plus, il n’est même pas facile de mesurer de manière objective les performances obtenues : donner un score, une valeur, aux capacités contextuelles et à l’expressivité d’un chatbot nécessite des méthodes d’évaluation avancées et pas toujours standardisées.
Lire la suite (0 Commentaires)
Publié le: 28/02/2025 @ 14:15:51: Par Nic007 Dans "Programmation"

- Précision accrue dans les réponses grâce à une base de connaissances large et à jour.
- Réduction des hallucinations par rapport aux modèles précédents.
- Une meilleure compréhension contextuelle , avec des réponses plus pertinentes et personnalisées.
- Une intelligence émotionnelle (« QE ») accrue , pour des interactions plus humaines et engageantes.
- Suivez des instructions plus complexes et fournissez des réponses détaillées sans perdre le fil de votre pensée.
- Mieux comprendre les nuances linguistiques et culturelles , rendant les conversations plus fluides.
Le GPT-4.5 est donc particulièrement efficace en pratique dans des activités telles que l’écriture , la programmation et la résolution de problèmes pratiques . Le nouveau modèle est actuellement disponible pour les utilisateurs et développeurs de ChatGPT Pro via l' API OpenAI . Pour les plans Plus et Team , la sortie débutera la semaine prochaine, tandis que pour les plans Enterprise et Edu , la semaine suivante.
Sans grande fanfare, OpenAI a également annoncé que Sora est désormais disponible en Europe et au Royaume-Uni . Il s'agit du modèle de génération de vidéos à partir d'invites de texte que nous avons testé il y a quelques semaines , via VPN , et qui est désormais directement accessible. Il s’agit d’une annonce très importante, car la génération vidéo est certainement une frontière de l’IA en pleine expansion qui suscitera certainement de l’intérêt dans les mois et les années à venir.
Lire la suite (0 Commentaires)
Publié le: 27/02/2025 @ 15:29:43: Par Nic007 Dans "Programmation"

L'agence Reuters a rapporté cette information hier , citant trois sources anonymes « familières avec l'entreprise ». DeepSeek avait apparemment prévu de sortir R2 début mai, mais selon deux contacts du portail d'information, il souhaite désormais le commercialiser le plus rapidement possible . À quoi s’attendre, pourquoi cette précipitation et qu’est -ce que cela signifie pour le monde de l’IA ? Il est difficile de faire des prédictions, mais essayons d’établir quelques points fixes. Comme vous vous en souvenez peut-être, le lancement de DeepSeek R1 avait provoqué un véritable tremblement de terre sur les marchés boursiers mondiaux. La raison ? Efficacité extrêmement élevée grâce à l'utilisation de techniques telles que le Mixture-of-Experts (MoE) et le Multihead Latent Attention (MLA), qui nous permettent d'offrir des tarifs bien inférieurs à ceux de nos concurrents (lire, ChatGPT ). L'impulsion évolutive pour rechercher une efficacité maximale a été motivée par l' interdiction de 2022 par les États-Unis d'exporter des technologies américaines vers la Chine, qui comprenait une interdiction d'achat des puces A100 de NVIDIA , nécessaires à la formation de l'IA.
Mais il y a eu aussi des polémiques, comme celle d'OpenAI, qui a accusé l'entreprise chinoise d'avoir "distillé" ses modèles pour entraîner DeepSeek (à ce propos, lisez cet article très drôle de Marina Hyde du Guardian), ou de Google, qui avait commenté comme exagérément basses les déclarations sur les coûts d'entraînement du modèle (seulement 5,6 millions de dollars, selon ce qui a été déclaré). Ou comme celui du PDG de Scale AI, Alexandr Wang, selon qui DeepSeek aurait encore jusqu'à 50 000 puces NVIDIA malgré l'interdiction. Néanmoins, DeepSeek R1 a secoué le monde, il fonctionne bien et, en Chine, il bénéficie du soutien du président Xi Jinping. A tel point qu’au moins 13 municipalités et 10 entreprises énergétiques publiques en Chine l’utilisent, en plus de Lenovo, Baidu et Tencent. Sans parler du succès en Occident, avec Microsoft ajoutant le modèle à Azure AI Foundry et sur GitHub, et Amazon à son catalogue Amazon Web Services (AWS). Il est peu probable que DeepSeek R2 provoque le même choc que son prédécesseur, mais il devrait apporter des améliorations en matière de programmation et devrait pouvoir raisonner dans d'autres langues que l'anglais.
Cela semble être une mise à jour mineure sur le papier, mais ce sont des fonctionnalités très importantes. Comme nous l’avons vu dans les récentes annonces d’ Anthropic et de Google , l’IA investit massivement dans l’espace de programmation, et la capacité de raisonner dans plusieurs langages permettra une plus grande diffusion d’un modèle déjà extrêmement populaire . Nous ne connaissons pas les raisons de cette accélération de DeepSeek, mais cela a probablement quelque chose à voir avec les récentes annonces d’OpenAI et d’Anthropic. L'arrivée de ChatGPT 4.5 et 5 a probablement mis la pression sur le géant chinois, qui va désormais à son tour mettre encore plus de pression sur son adversaire américain. Avec ChatGPT 4.5 attendu dans les prochaines semaines et ChatGPT 5 dans les prochains mois, pouvons-nous nous attendre à ce qu'OpenAI progresse également ? Il n’est pas impossible d’émettre des hypothèses. L’IA est désormais devenue un facteur très important en géopolitique également, presque au même titre que la course à l’espace dans les années 1960. Le soutien du gouvernement chinois à DeepSeek (dont l’application a été interdite en Italie et en Corée du Sud) ajoute une pression supplémentaire sur d’autres pays, qui pourraient y voir une raison supplémentaire d’ accroître les restrictions sur les puces d’IA ou les collaborations logicielles, selon Stephen Wu du fonds spéculatif Carthage Capital.
Lire la suite (0 Commentaires)
Publié le: 27/02/2025 @ 15:24:52: Par Nic007 Dans "Programmation"

Pour ceux qui sont abonnés à ChatGPT Plus, il existe une autre nouvelle fonctionnalité . Parlons de Deep Research , qui dans notre langue se traduit par l'option appelée En savoir plus . Cette nouvelle option est destinée à tous ceux qui sont abonnés aux profils ChatGPT Plus, Team, Edu et Enterprise. Pour ces profils, la limite d'utilisation de Deep Research est de 10 recherches par mois . Concrètement, la recherche approfondie vous permet d'effectuer des recherches approfondies sur des sujets très spécifiques . En activant cette option, ChatGPT vous montrera quelles étapes de « raisonnement » ont été suivies pour arriver à la réponse fournie en fonction de la question posée par l'utilisateur. Un peu comme ce que propose Google Gemini en activant Pro avec Deep Research. Toujours en termes de similitudes avec ses rivaux, il convient de rappeler comment Microsoft a rendu son Think Deeper accessible à tous sur Copilot , même pour les utilisateurs gratuits. Ce n'est pas un mode d'utilisation pour tous les cas d'utilisation , mais il est particulièrement adapté lorsque vous posez des questions structurées et complexes au chatbot, pour lesquelles vous devez également comprendre le flux logique suivi pour arriver à la réponse.
Lire la suite (0 Commentaires)
Publié le: 26/02/2025 @ 19:44:36: Par Nic007 Dans "Programmation"

La mise à niveau introduit une série de nouvelles fonctionnalités qui améliorent considérablement l'expérience utilisateur :
- Conversations plus fluides : Plus besoin de répéter la commande d'activation à chaque requête.
- Mémoire personnalisée : Alexa mémorise des détails personnels, comme votre régime alimentaire ou votre genre de musique préféré.
- Contrôle avancé de la maison intelligente : possibilité de créer des routines complexes avec des commandes vocales.
- Recherche de musique améliorée : vous pouvez désormais trouver des chansons en fonction de descriptions vagues (par exemple « cette chanson de Bradley Cooper avec une chanteuse féminine »).
- Interaction avec des appareils et services externes : compatibilité avec Uber Eats, Sonos, Zoom, Xbox, Bose, Ticketmaster et bien d'autres.
- Visualisation et analyse d'images : Alexa peut prendre des photos et les analyser , ainsi que contrôler les caméras de sécurité pour répondre à des questions telles que « quelqu'un a-t-il promené le chien ? »
- Création de contenu IA : possibilité de générer des images, des histoires et même des chansons personnalisées .
L’intelligence artificielle peut également analyser des documents (comme des règlements de copropriété ou des programmes sportifs) et fournir des réponses ciblées. Par exemple, il peut lire un calendrier d’événements et ajouter automatiquement des rendez-vous à votre calendrier .
Combien coûte Alexa Plus et quand arrivera-t-il ? Alexa Plus sera disponible dans les semaines à venir aux États-Unis pour 19,99 $ par mois , mais sera inclus gratuitement pour les abonnés Amazon Prime . Côté compatibilité, le service sera disponible sur presque tous les appareils Echo sortis jusqu'à présent, à commencer par les modèles Echo Show 8, 10, 15 et 21 . Amazon a officiellement annoncé qu'Alexa Plus sera ensuite distribué dans tous les pays où Alexa est déjà présent , il arrivera donc certainement aussi en Europe. Ce que nous ne savons pas, c'est quand la distribution sera élargie et combien cela coûtera dans notre pays. Compte tenu du prix de l' abonnement Amazon Prime sous nos latitudes et compte tenu de ce que serait le prix d'Alexa Plus, il est également possible qu'il arrive ici sous la forme d'un abonnement séparé, donc non inclus dans Prime.
Lire la suite (0 Commentaires)
Publié le: 26/02/2025 @ 13:27:38: Par Nic007 Dans "Programmation"

Cette approche, combinée au potentiel du modèle, est extrêmement efficace. Dans les benchmarks partagés par Anthropic, le Claude 3.7 Sonnet est capable de surpasser la plupart des autres modèles du marché. Quelques exemples sont SWE-Bench , qui mesure les tâches d'encodage de mots du monde réel (62,3 % contre 49,3 % pour o3-mini), ou TAU-Bench , qui mesure la capacité d'un modèle à interagir avec des utilisateurs simulés et des API externes dans un environnement de vente au détail (81,2 % contre 73,5 % pour o1). À partir de divers tests sur le terrain, les réponses de Claude 3.7 Sonnet se sont avérées conformes à celles de Grok 3 de xAI et meilleures que celles des autres modèles du marché, mais le modèle n'est pas capable d'effectuer une recherche Web en temps réel comme les autres modèles, et ses connaissances sont à jour en octobre 2024 .
Claude est également désormais moins susceptible de ne pas répondre aux questions : Anthropic affirme avoir réduit le gaspillage inutile de 45 % par rapport à Claude 3.5 Sonnet (cette approche est également courante parmi d'autres développeurs de modèles d'IA). Mais il y a un domaine spécifique dans lequel 3.7 Sonnet excelle : la programmation. C'est pour cette raison qu'Anthropic a introduit un agent spécifique pour ces opérations appelé Claude Code, capable de modifier le code en langage naturel. L'agent décrira ses modifications, testera le projet pour détecter les bugs ou même le poussera vers un référentiel GitHub. Tout cela ne sera pas gratuit et ne coûtera pas très cher. Anthropic rendra disponible lundi Claude 3.7 Sonnet , mais seuls les abonnés Claude Pro (18 euros par mois) ou Team (28 euros par mois pour 5 utilisateurs) pourront accéder aux fonctionnalités de raisonnement (Extended), tandis que les utilisateurs gratuits pourront accéder à la version du modèle qui n'affiche pas son raisonnement.
L'API coûte 3 $ par million de jetons d'entrée (environ 750 000 mots) et 15 $ par million de jetons de sortie, soit plus que o3-mini (1,10 $ / 4,40 $) et DeepSeek R1 (0,55 $ / 2,19 $). Le problème est que l’industrie progresse si rapidement qu’il n’est même plus judicieux de déterminer qui est « le meilleur ». OpenAI va bientôt publier ChatGPT 4.5 et 5 , qui suivent le même chemin que Claude 3.7 Sonnet , c'est-à-dire un modèle unique (et hybride) capable de tout faire.
Lire la suite (0 Commentaires)
Publié le: 24/02/2025 @ 14:17:55: Par Nic007 Dans "Programmation"

Mais le phénomène est encore plus intéressant si l’on prend en compte le trafic des développeurs . Le responsable observe que la part de ce type d'utilisateurs a également doublé au cours des six derniers mois, quintuplé si l'on considère le dernier modèle qui « pense » o3 . Dans ce cas, cependant, l’impact de l’IA est potentiellement encore plus dévastateur, car elle pourrait devenir une technologie fondamentale pour les entreprises , comme les services cloud . Des entreprises comme Uber, Morgan Stanley et Moderna intègrent déjà les services d’IA d’OpenAI dans leurs applications, mais la croissance ne fait que commencer. Dans l'interview, Lightcap parle également de DeepSeek, mais sans s'attarder sur les frictions récentes. Les observateurs attentifs se rappelleront qu'OpenAI accusait l'entreprise chinoise d'avoir mal entraîné ses modèles en utilisant une technique appelée distillation (qui permet de transférer des connaissances d'un modèle plus grand, en l'occurrence celui d'OpenAI, vers un plus petit). Des accusations appuyées par plusieurs indices, notamment le fait que lorsqu'on a demandé à DeepSeek V3 de quel modèle il s'agissait, il a répondu « Je suis ChatGPT ».
Le responsable relance cependant avec grâce, une attitude qui est probablement possible étant donné qu'à la lumière des faits, DeepSeek n'a eu aucun impact sur OpenAI, ni même un impact positif, car c'est la preuve à quel point l'IA est entrée dans le débat public. Quoi qu’il en soit, la concurrence n’a pas changé « la façon dont OpenAI envisage l’open source, sa feuille de route ou ses plans de dépenses ». Les critiques noteront qu’OpenAI n’est peut-être pas exactement un champion dans l’ espace open source , mais néanmoins certaines de ses contributions sont extrêmement importantes, comme le modèle Whisper, que nous avons vu exploité admirablement par l’ application MacWhisper .
Lire la suite (0 Commentaires)