Se connecter
Se connecter
Inscription
Mot de passe perdu
Connexion:
[Actualités]
Selon Nature, les scientifiques se tournent vers Bluesky, l'application est moin...
[Actualités]
DOOM : The Dark Ages, Bethesda a annoncé la date de sortie : 15 mai 2025
[Actualités]
L'Epic Games Store sur mobile accueille ses premiers titres tiers, ajoute des je...
[Actualités]
Preplexity surpasse ChatGPT et remplace Gemini sur Android : comment ça marche ...
[Actualités]
Netflix veut adoucir les augmentations avec de nouveaux jeux de société et des...
[Actualités]
OpenAI lance Operator, l'agent IA qui nous réserve un hôtel ou achète un arti...
[Actualités]
Le contrôle d'identité arrive sur Android : à quoi ça sert et comment ça ma...
[Actualités]
Android 16 Beta 1 est parmi nous : notifications en direct et plus, comment l'es...
[Actualités]
Les Technos #478 : Episode du 22 janvier 2025
[Actualités]
Un bug dans 7-Zip pourrait permettre de contourner une fonctionnalité de sécur...
[Articles]
3 Minutes to Midnight
[Articles]
Blade Chimera
[Articles]
Semaine de la Protection des Données (du 27 au 31 janvier) : : principales tend...
[Articles]
Dynasty Warriors : Origins
[Articles]
Blood Bowl 3
[Articles]
Leif's Adventure: Netherworld Hero
[Articles]
ESET Research découvre une vulnérabilité de contournement du démarrage sécu...
[Articles]
Mexico,1921: A Deep Slumber
[Articles]
Stellar Blade x NieR:Automata
[Articles]
YS Memoire : The Oath in Felghana
Actualités
Lettre d'information
Proposer une actualité
Archives
Actualités
Articles
Programmation
Press Release
Matériel
Logiciels
Livres
Interviews
Derniers commentaires
Jeux Vidéos
XBox One
XBox 360
Wii U
PSP
PS4
PS3
PC
DS
GameCube
3DS
Forum
Derniers messages
Informatique
Fun
Divers
Logithèque
Blogs
Divers
A Propos
Annonceurs
Contact
Recherche
RSS
Créer un nouveau sujet
forum_emoticons.html
[quote]Il se passe quelque chose d'étrange autour de Mountain View : moins d'une semaine après l'annonce de Gemini 1.0, le nouveau modèle d'IA très avancé disponible dans les versions Gemini Nano, Pro et Ultra, c'est déjà au tour du successeur, Gemini 1.5. Selon Google, le nouveau modèle « offre des performances nettement améliorées », notamment en ce qui concerne « la compréhension des contextes longs », à tel point que Gemini 1.5 Pro est déjà aux niveaux de Gemini 1.0 Ultra , mais nécessite moins de puissance de calcul. Donc en théorie les utilisateurs gratuits pourraient bientôt accéder à des fonctionnalités comparables à celles des utilisateurs payants (le modèle Pro est disponible dans le chatbot gratuit Gemini , tandis que le modèle Ultra est accessible via le chatbot payant Gemini Advanced. Dans son annonce, qui ne prend pas en compte la version Ultra du modèle (probablement encore en développement), Google affirme que Gemini 1.5 représente une nouvelle génération de LLM (Large Language Models) qui « offre une percée dans la compréhension des contextes longs » et que si actuellement dans la version Gemini 1.5 Pro traite une fenêtre contextuelle de 128 000 jetons , certains développeurs sont déjà en mesure d'essayer jusqu'à 1 million de jetons, " obtenant la fenêtre contextuelle la plus longue de tous les modèles de fondation à grande échelle ". Les jetons représentent des fragments d'un mot : plus il y en a, plus le contexte qui peut être donné au chatbot dans le prompt pour le faire « réfléchir » à un sujet est important. Une fenêtre contextuelle plus grande vous permet de traiter des documents plus longs et d'avoir des conversations plus longues. À titre de comparaison, Gemini 1.0 gère 32 000 jetons, tandis que GPT-4 Turbo d'Open AI possède une fenêtre contextuelle de 128 000 jetons, ce qui équivaut à environ 300 pages de texte dans une invite. Google a publié un article à l'appui du potentiel du modèle dans lequel il explique que Gemini 1.5 utilise une nouvelle architecture de mélange d'experts (MoE), ce qui signifie que le système active sélectivement différents « experts » ou sous-modèles spécialisés au sein d'un réseau neuronal plus large. réseau pour des tâches spécifiques basées sur les données d’entrée. Dans le rapport, BigG explique que Gemini 1.5 offre une amélioration substantielle par rapport à la version 1.0, affirmant qu'elle bat la 1.0 Pro de 28,9 % en « Math, Science & Reasoning » et la 1.0 Ultra de 5,2 %, dans les mêmes matières. De même, Google compare le nouveau modèle au GPT-4 Turbo, révélant en moyenne de meilleures performances. BigG déclare que le nouveau modèle est capable d'effectuer « un raisonnement complexe sur de grandes quantités d'informations » et fournit un exemple d'analyse d'une transcription de 402 pages de la mission Apollo 11 (celle qui s'est rendue sur la Lune). Certes, le résultat est impressionnant et Google affirme qu'il n'y a aucune détérioration des performances. Plus étonnant encore, Google a montré au modèle Gemini 1.5 Pro un film muet de Buster Keaton de 44 minutes , et a ensuite pu analyser avec précision divers points et événements de l'intrigue , et même raisonner sur de petits détails, tandis qu'un autre exemple concerne la capacité de réfléchir à un projetez à partir de plus de 100 000 lignes de code et donnez des explications sur son fonctionnement. Dans l'ensemble, nous pouvons définir cinq façons dont Gemini 1.5 est supérieur à Gemini 1.0. La première est une fenêtre contextuelle beaucoup plus grande , qui va de 32 000 tokens à 128 000 et jusqu'à 1 million de tokens . Cela signifie que pour un travail intensif, Gemini 1.5 sera plus efficace. Le deuxième aspect concerne la programmation : grâce à la fenêtre contextuelle plus grande, mais pas seulement, Gemini 1.5 Pro est meilleur que Gemini 1.0 Ultra sur cet aspect, et Google lui-même le déclare. [quote][i]Gemini 1.5 Pro est notre modèle de code le plus performant à ce jour, surpassant Gemini 1.0 Ultra sur Natural2Code, notre ensemble de tests de génération de code interne conçu pour éviter les fuites Web.[/i][/quote] De plus, Gemini peut non seulement analyser plus de données , comme 100 000 lignes de code (800 000 jetons) ou un film muet, mais sans dégradation des performances : [quote][i]Gemini 1.5 Pro étend considérablement cette frontière de longueur de contexte à plusieurs millions de jetons avec presque aucune dégradation des performances, permettant de traiter des entrées beaucoup plus volumineuses. Comparé à Claude 2.1 avec une fenêtre contextuelle de 200 000 jetons, Gemini 1.5 Pro atteint un rappel de 100 % à 200 000 jetons, dépassant les 98 % de Claude 2.1. Ce rappel à 100 % est maintenu jusqu'à 530 000 jetons et le rappel est de 99,7 % à 1 million de jetons. En passant de 1 million de jetons à 10 millions de jetons, le modèle maintient un rappel de 99,2 %.[/i][/quote] Gemini 1.5 Pro peut également apprendre lors d'une conversation . Généralement, vous pouvez enseigner une langue aux modèles, mais vous risquez de remplir la fenêtre contextuelle avant qu'ils puissent apprendre. Le nouveau modèle de Google, en le dotant d'un livre de grammaire et d'un dictionnaire, est capable de traduire de l'anglais vers le kalang de la même manière qu'un être humain ayant appris des mêmes sources. Enfin, Gemini 1.5 Pro devrait avoir des temps de réponse inférieurs grâce à l' architecture MoE, qui améliore l'efficacité des calculs. On ne sait pas dans quelle mesure, mais le modèle Mixtral 8x7B qui utilise la même technologie est un modèle 47B mais avec les besoins informatiques d'un modèle 12,9B. Bref, Gemini 1.5 semble être une avancée notable, mais ce qui est surprenant, c'est le timing. Quel est l'intérêt d'annoncer cela une semaine après le lancement de Gemini 1.0 ? [youtube]LHKL_210CcU[/youtube] %news:source%: [url=news_item-37229.html]news_item-37229.html[/url] [/quote]
Ada
CSS
Cobol
CPP
HTML
Fortran
Java
JavaScript
Pascal
Perl
PHP
Python
SQL
VB
XML
Anon URL
DailyMotion
eBay
Flickr
FLV
Google Video
Google Maps
Metacafe
MP3
SeeqPod
Veoh
Yahoo Video
YouTube
6px
8px
10px
12px
14px
16px
18px
Informaticien.be
- © 2002-2025
Akretio
SPRL - Generated via
Kelare
The Akretio Network:
Akretio
-
Freedelity
-
KelCommerce
-
Votre publicité sur informaticien.be ?