Se connecter
Se connecter
Inscription
Mot de passe perdu
Connexion:
[Actualités]
Les Technos #466 : Harder, Better, Faster, Stronger
[Actualités]
Test The Bridge Curse 2 : The Extrication (PS5)
[Actualités]
Google révolutionne Maps, Earth et Waze grâce à Gemini : une avalanche de nou...
[Actualités]
Le directeur des logiciels de Rivian déclare que l'utilisation de boutons dans ...
[Actualités]
Le télescope Euclid « Dark Universe » dévoile une fenêtre époustouflante d...
[Actualités]
iPhone 17 : début de la production de milliers d'appareils en Inde
[Actualités]
Amazon reporte Alexa 2.0 avec IA à 2025
[Actualités]
Le service de streaming Nintendo Music annoncé pour iOS et Android
[Actualités]
Test Mind Seize (PS5)
[Actualités]
Ubisoft lance le tout premier jeu blockchain, avec des NFT coûtant jusqu'à 64 ...
[Articles]
Peglin
[Articles]
Super Mario Party Jamboree
[Articles]
The Bridge Curse 2 : The Extrication
[Articles]
Fund Insight : ODDO BHF AM Artificial Intelligence
[Articles]
28 % des travailleurs dans le monde craignent l’impact de l’IA sur leur emploi
[Articles]
MindSeize
[Articles]
The Last Shot
[Articles]
Iron Meat
[Articles]
Devoteam et SecurityScorecard unissent leurs forces pour fournir des solutions d...
[Articles]
Plus d'un quart des scale-ups voient leur croissance ralentir en raison d'infras...
Actualités
Lettre d'information
Proposer une actualité
Archives
Actualités
Articles
Programmation
Press Release
Matériel
Logiciels
Livres
Interviews
Derniers commentaires
Jeux Vidéos
XBox One
XBox 360
Wii U
PSP
PS4
PS3
PC
DS
GameCube
3DS
Forum
Derniers messages
Informatique
Fun
Divers
Logithèque
Blogs
Divers
A Propos
Annonceurs
Contact
Recherche
RSS
Créer un nouveau sujet
forum_emoticons.html
[quote]À mesure que les chatbots IA entrent dans nos vies, le besoin de savoir quand ils rapportent des informations vraies ou inventées, ou s'ils « hallucinent » devient de plus en plus pressant. Les développeurs ont mis en place plusieurs solutions, telles que des citations, pour vérifier la source d'une actualité ou, dans le cas de Gemini, une double vérification , qui permet au chatbot d'évaluer s'il existe sur le Web du contenu qui confirme sa réponse. Désormais, ChatGPT dispose également d'un outil pour vérifier la véracité de ses déclarations, au moins lors de l'écriture de code : CriticGPT. Annoncé hier par OpenAI, CriticGPT est un nouveau modèle basé sur GPT-4 qui analyse le code créé par ChatGPT et indique les erreurs potentielles, permettant ainsi aux humains de repérer plus facilement les problèmes qui autrement pourraient passer inaperçus. Le modèle sert d'assistant d'IA pour les humains qui examinent le code de programmation généré par ChatGPT, dans le but de faire en sorte que les systèmes d'IA se comportent comme les humains l'attendent. Ce processus, appelé « alignement », se produit grâce à un outil appelé « Reinforcement Learning from Human Feedback » (RLHF), qui est basé sur la comparaison de différentes réponses ChatGPT lorsqu'elles sont comparées et évaluées. Bien que CriticGPT soit similaire à ChatGPT, la différence notable est que pour le former, les chercheurs lui ont montré un ensemble de données contenant des exemples de code avec des bogues intentionnellement insérés, lui apprenant à reconnaître et à signaler diverses erreurs de codage. Avant de le publier, OpenAI a comparé les résultats d'analyses humaines du code ChatGPT avec et sans le modèle « critique ». Le résultat était réconfortant : 63 % des annotateurs préféraient les critiques du modèle à celles formulées par ChatGPT lui-même, rapportant comment CriticGPT rédigeait des critiques plus complètes, produisait moins de critiques inutiles, générait moins de faux positifs et réduisait globalement les taux d' hallucinations. Les chercheurs ont également créé une nouvelle technique appelée Force Sampling Beam Search (FSBS), qui aide CriticGPT à rédiger des critiques plus détaillées du code, lui permettant d'ajuster sa précision et d'agir efficacement sur les hallucinations. Le tout de manière dynamique selon les besoins. Selon les rapports, CriticGPT pourrait être utile non seulement dans la révision du code . Les chercheurs ont appliqué le modèle à un sous-ensemble de données de formation ChatGPT qui avaient déjà été jugées valides par des annotateurs humains. Étonnamment, CriticGPT a identifié des erreurs dans 24 % de ces cas, erreurs qui ont ensuite été confirmées par des évaluateurs humains. OpenAI pense que cela démontre le potentiel du modèle à être utilisé pour des tâches plus générales , où il se peut qu'il n'y ait pas d'évaluation humaine minutieuse. Dans tous les cas, le taux d’erreur de 24 % dans les données utilisées pour la formation ChatGPT devrait être un signal d’alarme en soi. Cela signifie que près d’ un point de données sur quatre utilisé pour entraîner ChatGPT contient une erreur. CriticGPT est certes une solution prometteuse, mais comme tous les modèles d’IA elle pose des problèmes. Tout d’abord, il a été formé sur des réponses ChatGPT relativement courtes, ce qui peut le rendre inadéquat pour évaluer des tâches complexes. De plus, même s'il a de faibles taux d'hallucinations , cela ne veut pas dire qu'il en est exempt, et en termes absolus, ils restent très élevés. OpenAI affirme que les annotateurs font des erreurs d'étiquetage après avoir vu des hallucinations de modèles, mais aucune donnée n'a été partagée à ce sujet. De plus, l’équipe de recherche reconnaît que CriticGPT est plus efficace pour identifier les erreurs pouvant être trouvées à un emplacement spécifique du code. Dans le monde réel, les erreurs peuvent souvent être réparties sur plusieurs parties d’une réponse, ce qui présente un défi qui n’a pas encore été analysé et qui sera résolu dans les futures itérations du modèle. À l'avenir, OpenAI prévoit d'intégrer des modèles similaires à CriticGPT dans son pipeline d'étiquetage RLHF , fournissant à ses formateurs une assistance en matière d'IA. Néanmoins, pour certains experts, certaines réponses peuvent être trop difficiles à évaluer, même avec l’aide de CriticGPT, ce qui serait contre-productif. En fait, la crainte concerne les faux négatifs , c'est-à-dire les problèmes qui pourraient passer inaperçus et qui constituent l'un des plus grands risques du machine learning . %news:source%: [url=news_item-38047.html]news_item-38047.html[/url] [/quote]
Ada
CSS
Cobol
CPP
HTML
Fortran
Java
JavaScript
Pascal
Perl
PHP
Python
SQL
VB
XML
Anon URL
DailyMotion
eBay
Flickr
FLV
Google Video
Google Maps
Metacafe
MP3
SeeqPod
Veoh
Yahoo Video
YouTube
6px
8px
10px
12px
14px
16px
18px
Informaticien.be
- © 2002-2024
Akretio
SPRL - Generated via
Kelare
The Akretio Network:
Akretio
-
Freedelity
-
KelCommerce
-
Votre publicité sur informaticien.be ?