Publié le: 26/07/2024 @ 13:51:03: Par Nic007 Dans "Programmation"
![Programmation Programmation](images/news/categories/coding.png)
Nous en avions déjà parlé précédemment , donc la nouvelle n'est certainement pas inattendue : Amazon travaille sur une nouvelle version de son assistant vocal, appelée "Remarkable Alexa", qui ne sera pas totalement gratuite . Cette nouvelle Alexa payante comprendra des fonctionnalités avancées et utilisera (évidemment) l’intelligence artificielle générative pour tenter d’offrir quelque chose de plus à l’utilisateur. L'idée serait celle d'un service par abonnement , dont le prix reste cependant encore à définir. Ce qui est sûr c’est que pour compenser tous ces milliards de pertes il faudra beaucoup d’abonnements ! Le lancement serait attendu prochainement, peut-être même très prochainement ( d'ici fin juillet ), même si nous ne sommes pas prêts de mettre la main au feu. De toute façon, la question est simplement de savoir quand, pas si. Cependant, compte tenu du grand nombre d'abonnements numériques qui existent déjà aujourd'hui ( Netflix , Spotify , etc., sans parler d'Amazon Prime lui-même), Alexa doit être vraiment "remarquable" pour justifier un abonnement supplémentaire, et le problème nous dépasse. Cela semble être une solution simple. Cependant, nous sommes également sûrs qu'Amazon essaiera, il ne reste plus qu'à savoir quelle sera la réaction des utilisateurs.
Lire la suite (0 Commentaires)
Publié le: 26/07/2024 @ 13:47:45: Par Nic007 Dans "Programmation"
![Programmation Programmation](images/news/categories/coding.png)
Il y a quelques années encore, le Web regorgeait de contenus, certains douteux, d’autres peu crédibles, d’autres encore inexacts. L'élément commun qui caractérisait ces contenus était la source humaine . Aujourd’hui, ce n’est plus le cas : ces dernières années, l’IA a été utilisée à grande échelle par des millions de personnes, et chaque jour le contenu qu’elle génère rebondit sur le web . Ce contenu, de plus en plus riche en apports venus de l’IA, ne profite pas aux nouveaux apprentissages de l’IA. Cela a été prouvé par l’étude que nous avons mentionnée ci-dessus. En fait, les chercheurs ont entraîné l'IA avec du contenu généré par l'IA elle-même, de manière récursive , c'est-à-dire plusieurs fois. Et le résultat a été une détérioration de la qualité du contenu généré cycle après cycle de formation. Au point que l'IA était devenue vraiment peu "intelligente" , générant des textes avec des phrases très répétées , voire arrivant au point de ne plus pouvoir faire la différence entre une église et un lièvre . Cela ouvre la discussion sur un sujet important : ceux qui développent l’IA, et en particulier ceux qui le font à grande échelle comme les grandes entreprises technologiques, doivent adopter une politique de transparence concernant les données qu’ils utilisent pour entraîner leurs modèles génératifs. Cela permettrait de toujours maintenir un certain seuil de qualité pour l’IA, également en termes de formation.
Lire la suite (0 Commentaires)
Publié le: 25/07/2024 @ 14:22:14: Par Nic007 Dans "Programmation"
![Programmation Programmation](images/news/categories/coding.png)
Dans tous les cas, toute cette puissance a besoin d’énergie . Et si l’on parle de l’IA la plus puissante au monde, on en déduit que l’énergie nécessaire sera énorme. Les habitants de Memphis , où le supercalculateur xAI a été installé pour fonctionner à puissance maximale, se posent également cette question . En fait, on se demande si les besoins électriques du nouveau xAI pourraient provoquer une crise du système électrique local . Les autorités ont indiqué que xAI s'est implanté dans des bâtiments existants, connectés au réseau électrique selon les besoins commerciaux standards. Ce qui n’est peut-être pas suffisant compte tenu des activités de xAI. Pour cela, l'entreprise disposerait d'un plan de secours, composé d'une flotte de 14 générateurs de gaz naturel VoltaGrid qui fourniraient une énergie supplémentaire au cluster informatique de Memphis. En attente d'un accord avec la compagnie d'électricité locale.
Lire la suite (0 Commentaires)
Publié le: 24/07/2024 @ 14:46:42: Par Nic007 Dans "Programmation"
![Programmation Programmation](images/news/categories/coding.png)
Meta pense que Llama 3.1 permettra de nouvelles applications et paradigmes de modélisation, y compris la génération de données synthétiques pour permettre l'amélioration et la formation de modèles plus petits. Une curiosité : vous avez peut-être remarqué que Gemini est absent des comparaisons. Selon une déclaration à The Verge , Meta n'a pas réussi à utiliser l'API de Google pour reproduire ses résultats, elle ne l'a donc pas inclus dans les comparaisons. Mais sur quoi Llama 3.1 est- il formé ? C'est un point assez obscur. La société a déclaré avoir adopté une procédure post-formation itérative, dans laquelle chaque cycle utilise un réglage fin supervisé et une optimisation directe des préférences. Cela nous aurait permis de créer des données synthétiques de très haute qualité pour chaque tour et d'améliorer les performances de chaque capacité. Cependant, pour la formation, il n'a pas été révélé quelles données ont été utilisées, ce qui est assez courant pour les entreprises qui créent des modèles d'IA. Il est désormais clair qu’Internet ne suffit plus à former des modèles, et de plus en plus d’entreprises se tournent vers les données synthétiques (une des applications possibles de Llama 3.1). Cependant, selon certains, il s’agit d’une tactique visant à retarder l’inévitable assaut des poursuites pour violation du droit d’auteur . Lors du lancement, Zuckerberg a expliqué pourquoi ces énormes investissements pour un projet open source : au fond, il est convaincu que cela permettra d'économiser des milliards de dollars à l'avenir. Selon le fondateur de Facebook, les modèles d'IA open source surpasseront les modèles propriétaires , un peu comme Linux est devenu le système d'exploitation open source qui alimente la plupart des téléphones, serveurs et appareils du marché.
Zuckerberg fait la comparaison avec son Open Compute Project , le système de centre de données de Meta, qui, selon lui, a permis à l'entreprise d'économiser des milliards de dollars en permettant à d'autres entreprises d'aider à améliorer et à standardiser le code. Il en va de même pour les modèles d'IA, et pour cette raison, Llama 3.1 constituera un tournant dans l'industrie : à partir de maintenant, « la plupart des développeurs commenceront à utiliser principalement l'open source ». Pour lancer Llama 3.1, Meta travaille avec plus de deux douzaines d'entreprises, dont Microsoft, Amazon, Google, NVIDIA et Databricks, pour aider les développeurs à implémenter leurs propres versions. Llama 3.1 arrive cette semaine sur Meta AI, l'assistant IA de Meta. Llama 3.1 sera d'abord accessible via WhatsApp et le site Meta AI aux États-Unis, suivi par Instagram et Facebook dans les semaines à venir. Nous vous rappelons que pour le moment Meta AI n'est pas encore disponible en Europe, mais vous pouvez y accéder en utilisant un VPN et en configurant le serveur aux États-Unis. Meta a souligné que Llama 3.1 sera disponible gratuitement, mais pour un nombre limité (on n'a pas dit combien) de demandes, puis il passera à Llama 3. Alternativement, vous pouvez le télécharger depuis Hugging Face .
Lire la suite (0 Commentaires)
Publié le: 19/07/2024 @ 14:13:07: Par Nic007 Dans "Programmation"
![Programmation Programmation](images/news/categories/coding.png)
Le nouveau modèle d'IA, plus léger, prend en charge le texte et la vision dans l'API, la société indiquant clairement qu'elle sera bientôt capable de gérer toutes les entrées et sorties multimodales telles que l'audio et la vidéo. Grâce à ces capacités, GPT-4o Mini apparaîtra comme un assistant virtuel plus capable de comprendre un itinéraire de voyage et ainsi de fournir des suggestions adéquates. Le nouveau modèle a obtenu un score de 82 % au Measurement Massive Multitask Language Understanding (MMLU), qui est le test de référence composé de 16 000 questions à choix multiples sur 57 matières universitaires. À titre de comparaison, sur le même test, GPT-3.5 a obtenu un score de 70 %, tandis que GPT-4o a obtenu un score de 88,7 % (Google, cependant, a affirmé que Gemini Ultra avait obtenu un score de 90 %). Les autres concurrents, comme Claude 3 Haiku et Gemini 1.5 Flash ont obtenu respectivement 75,2% et 78,9%. Il convient toutefois de préciser que les chercheurs ne sont pas très convaincus par ce test puisque le monde dans lequel il est administré varie d'une entreprise à l'autre. Tout cela rend un peu complexe la comparaison des différents résultats obtenus.
OpenAI a permis à la startup technologique financée Ramp d'utiliser son nouveau modèle. L'objectif était de créer un outil capable d'extraire les données de dépenses des reçus. De plus, le même modèle a été exploité par Superhuman , un client de messagerie, pour créer une fonctionnalité de suggestion automatique dédiée aux réponses par courrier électronique. Enfin, Godement a également expliqué pourquoi OpenAI a mis autant de temps à développer ce type de modèle d'IA, précisant qu'il s'agit d'une "pure priorité" , ce qui signifie que l'entreprise s'est d'abord concentrée sur la création de modèles plus performants, comme le GPT-4, qui nécessitent " beaucoup de monde et d'efforts de traitement".
Lire la suite (0 Commentaires)
Publié le: 15/07/2024 @ 15:07:41: Par Nic007 Dans "Programmation"
![Programmation Programmation](images/news/categories/coding.png)
- Demandez conseil concernant un produit spécifique à acheter. De la série « Cette machine à café que je souhaite acheter est-elle facile à entretenir ? »
- Demandez conseil sur le produit à acheter dans une catégorie spécifique , peut-être pour voir quels sont les meilleurs modèles pour le produit spécifique que vous avez l'intention d'acheter.
- Demandez une liste de produits qui pourraient être utiles pour organiser une pool party.
- Demandez des mises à jour ou d'autres détails concernant l'état de votre commande.
Mais cela ne s'arrête pas là, car Rufus est automatiquement activé même en accédant à une seule page produit. Par exemple, Rufus vous proposera des questions judicieuses lorsque vous parcourez une page de montre intelligente, comme la durée de vie de la batterie. Et pour couronner le tout, Rufus est également en mesure de fournir des réponses concernant des questions allant au-delà des produits sur Amazon . Bref, vous l'aurez compris, Rufus se situe justement au niveau des chatbots à intelligence artificielle les plus actuels , et est certainement spécialisé pour les produits de la plateforme. Il pourrait remplacer cette personne de la famille (qui peut être vous) à qui on demande constamment des conseils sur les meilleurs produits technologiques à acheter sur Amazon.
Comme mentionné dès le titre, Rufus n'est actuellement disponible que pour les utilisateurs américains . Au début de l'année, il était distribué à un petit nombre d'utilisateurs aux États-Unis, et maintenant il arrive à tout le monde. Il sera possible de l'utiliser directement depuis l'application Amazon Shopping. Quand arrivera-t-il en Europe ? Pour le moment, nous n’avons aucune information officielle à ce sujet. Cela pourrait arriver dans la dernière partie de l’année, ou directement dans les premiers mois de 2025.
Lire la suite (0 Commentaires)
Publié le: 11/07/2024 @ 14:00:31: Par Nic007 Dans "Programmation"
![Programmation Programmation](images/news/categories/coding.png)
Il existe en fait déjà des fonctionnalités d'IA générative dans Bixby, du moins sur les appareils de dernière génération de Samsung, mais elles ne sont pas du tout comparables à ChatGPT. Un Bixby doté de fonctionnalités d'IA avancées pourrait être une aubaine notable pour les utilisateurs de Galaxy , en fonction du type d'implémentation et de sa capacité à interagir avec le système ou des applications tierces. Et si l'on ne sait pas encore quelles seront les fonctions de l'IA de Bixby , une chose est sûre : elle sera meilleure pour comprendre les commandes vocales en langage naturel . Et surtout, c'est la première fois que Samsung confirme quelque chose à ce sujet, révélant même un timing de lancement . Et cela nous amène au Galaxy S25 . TM Roh a déclaré que la mise à jour de Bixby arriverait d'ici la fin de l'année , mais est-il possible qu'une innovation aussi importante ne soit pas introduite avec un nouvel appareil ? Certains observateurs pensent que Samsung annoncera le nouveau Bixby avec IA plus tard cette année, puis le lancera aux côtés de la série Galaxy S25
Lire la suite (0 Commentaires)
Publié le: 01/07/2024 @ 17:01:03: Par Nic007 Dans "Programmation"
![Programmation Programmation](images/news/categories/coding.png)
Comme cela ressortait des rumeurs précédentes, le nouveau service Alexa AI devrait être basé sur un modèle de langage avancé (LLM). Le fait qu'Amazon entende le rendre payant ne nous surprend pas , surtout au vu de ce que font déjà ses concurrents du secteur, comme Google et OpenAI. L'hypothèse est qu'Amazon entend donc augmenter ses bénéfices avec Alexa AI, en se concentrant sur l'expansion substantielle du service en s'appuyant sur les utilisateurs qui utilisent déjà Alexa quotidiennement sur les appareils Echo. Nous savons encore peu de choses sur le calendrier de lancement . Des rumeurs circulant en ligne indiquent qu'Amazon aurait fixé au mois d'août la date limite pour le lancement d'Alexa AI. Nous ne nous attendons pas à le voir en Europe tout de suite , tout comme Apple Intelligence le fera .
Lire la suite (0 Commentaires)
Publié le: 28/06/2024 @ 14:46:46: Par Nic007 Dans "Programmation"
![Programmation Programmation](images/news/categories/coding.png)
Bien que CriticGPT soit similaire à ChatGPT, la différence notable est que pour le former, les chercheurs lui ont montré un ensemble de données contenant des exemples de code avec des bogues intentionnellement insérés, lui apprenant à reconnaître et à signaler diverses erreurs de codage. Avant de le publier, OpenAI a comparé les résultats d'analyses humaines du code ChatGPT avec et sans le modèle « critique ». Le résultat était réconfortant : 63 % des annotateurs préféraient les critiques du modèle à celles formulées par ChatGPT lui-même, rapportant comment CriticGPT rédigeait des critiques plus complètes, produisait moins de critiques inutiles, générait moins de faux positifs et réduisait globalement les taux d' hallucinations. Les chercheurs ont également créé une nouvelle technique appelée Force Sampling Beam Search (FSBS), qui aide CriticGPT à rédiger des critiques plus détaillées du code, lui permettant d'ajuster sa précision et d'agir efficacement sur les hallucinations. Le tout de manière dynamique selon les besoins.
Selon les rapports, CriticGPT pourrait être utile non seulement dans la révision du code . Les chercheurs ont appliqué le modèle à un sous-ensemble de données de formation ChatGPT qui avaient déjà été jugées valides par des annotateurs humains. Étonnamment, CriticGPT a identifié des erreurs dans 24 % de ces cas, erreurs qui ont ensuite été confirmées par des évaluateurs humains. OpenAI pense que cela démontre le potentiel du modèle à être utilisé pour des tâches plus générales , où il se peut qu'il n'y ait pas d'évaluation humaine minutieuse. Dans tous les cas, le taux d’erreur de 24 % dans les données utilisées pour la formation ChatGPT devrait être un signal d’alarme en soi. Cela signifie que près d’ un point de données sur quatre utilisé pour entraîner ChatGPT contient une erreur. CriticGPT est certes une solution prometteuse, mais comme tous les modèles d’IA elle pose des problèmes. Tout d’abord, il a été formé sur des réponses ChatGPT relativement courtes, ce qui peut le rendre inadéquat pour évaluer des tâches complexes. De plus, même s'il a de faibles taux d'hallucinations , cela ne veut pas dire qu'il en est exempt, et en termes absolus, ils restent très élevés. OpenAI affirme que les annotateurs font des erreurs d'étiquetage après avoir vu des hallucinations de modèles, mais aucune donnée n'a été partagée à ce sujet.
De plus, l’équipe de recherche reconnaît que CriticGPT est plus efficace pour identifier les erreurs pouvant être trouvées à un emplacement spécifique du code. Dans le monde réel, les erreurs peuvent souvent être réparties sur plusieurs parties d’une réponse, ce qui présente un défi qui n’a pas encore été analysé et qui sera résolu dans les futures itérations du modèle. À l'avenir, OpenAI prévoit d'intégrer des modèles similaires à CriticGPT dans son pipeline d'étiquetage RLHF , fournissant à ses formateurs une assistance en matière d'IA. Néanmoins, pour certains experts, certaines réponses peuvent être trop difficiles à évaluer, même avec l’aide de CriticGPT, ce qui serait contre-productif. En fait, la crainte concerne les faux négatifs , c'est-à-dire les problèmes qui pourraient passer inaperçus et qui constituent l'un des plus grands risques du machine learning .
Lire la suite (0 Commentaires)
Publié le: 27/06/2024 @ 13:51:30: Par Nic007 Dans "Programmation"
![Programmation Programmation](images/news/categories/coding.png)
Entre-temps, le nouveau modèle avancé aurait dû arriver fin juin pour les premiers tests de la version alpha , mais OpenAI n'est visiblement pas encore prêt. L'entreprise a en effet publié un article sur X dans lequel elle explique avoir besoin « d'un mois de plus » avant de le lancer. L'entreprise a expliqué qu'elle travaille à améliorer les « capacités du modèle à détecter et rejeter certains contenus » et « l'expérience utilisateur », ainsi que l'infrastructure pour permettre à des millions de personnes d'obtenir les réponses en temps réel. À ce stade, la nouvelle feuille de route prévoit que le modèle arrive en version alpha fin juillet , puis parvienne aux utilisateurs de ChatGPT Plus à l'automne, mais avec l'avertissement qu'il peut y avoir des retards si la fonction ne respecte pas les exigences de sécurité et de fiabilité. Inutile de dire que de nombreux utilisateurs ont exprimé leur mécontentement sur X.
Lire la suite (0 Commentaires)