Google Lens accède immédiatement à l'appareil photo dans sa version pour Android et iOS. En effet, ces dernières heures, Google a présenté cette innovation pour son service de reconnaissance et d'interprétation d'images . La mise à jour de Google Lens s'inscrit également dans le contexte de l'expansion de Circle and Search , la fonctionnalité de Google qui permet d'identifier et de rechercher n'importe quel contenu à l'écran. Auparavant, cependant, Lens prévoyait une ouverture sur l'interface qui collecte les images présentes dans la galerie , au cas où nous aurions besoin de reconnaître quelque chose que nous avions déjà photographié. Même dans l'implémentation précédente, il était possible d'accéder rapidement à la caméra en sélectionnant la partie supérieure de l'interface pour démarrer complètement la caméra. Après cette mise à jour, Lens réduit d'une étape la procédure de démarrage de la reconnaissance de l'appareil photo , en la démarrant immédiatement après son ouverture.
Pour utiliser cette nouvelle implémentation, démarrez simplement Lens à partir du raccourci correspondant . Sur Android on retrouve cela, par exemple, dans la barre de recherche du Pixel Launcher , celle qui se trouve en bas de l'écran d'accueil. L'innovation introduite par Google est logique . Avec Circle and Search qui se développent de plus en plus rapidement parmi les utilisateurs d'Android, il est facile de comprendre comment la fonction Lens est de plus en plus dédiée à la reconnaissance d'images que nous pouvons prendre en temps réel de ce qui nous entoure. Pour reconnaître et interpréter les images que nous avons déjà sur notre appareil, il suffit de lancer rapidement Circle and Search . Après la mise à jour il sera toujours possible de lancer Lens sur une image déjà présente dans la galerie. Faites simplement glisser votre doigt vers le haut ou sélectionnez l'aperçu des images dans la galerie située à gauche du déclencheur. L'innovation que nous avons décrite devrait être en train d'être automatiquement distribuée via serveur sur l'application Google .
Pour utiliser cette nouvelle implémentation, démarrez simplement Lens à partir du raccourci correspondant . Sur Android on retrouve cela, par exemple, dans la barre de recherche du Pixel Launcher , celle qui se trouve en bas de l'écran d'accueil. L'innovation introduite par Google est logique . Avec Circle and Search qui se développent de plus en plus rapidement parmi les utilisateurs d'Android, il est facile de comprendre comment la fonction Lens est de plus en plus dédiée à la reconnaissance d'images que nous pouvons prendre en temps réel de ce qui nous entoure. Pour reconnaître et interpréter les images que nous avons déjà sur notre appareil, il suffit de lancer rapidement Circle and Search . Après la mise à jour il sera toujours possible de lancer Lens sur une image déjà présente dans la galerie. Faites simplement glisser votre doigt vers le haut ou sélectionnez l'aperçu des images dans la galerie située à gauche du déclencheur. L'innovation que nous avons décrite devrait être en train d'être automatiquement distribuée via serveur sur l'application Google .
Lire la suite (0 Commentaires)
Gemini 2.0 Advanced arrive également officiellement sur Android et iOS . Nous parlons de la version de Gemini qui est encore en phase expérimentale, celle particulièrement optimisée pour les opérations les plus complexes. L'actualité concerne de près ceux qui ont accès à Gemini Advanced, c'est-à-dire ceux qui ont souscrit à la version payante du célèbre service d'intelligence artificielle de Google . Il s'agit de la version Gemini-Exp-1206 du service d'IA de Google. La nouveauté consiste précisément à pouvoir utiliser cette version de Gemini également sur Android et iOS , alors qu'auparavant elle n'était disponible que dans la version de bureau. Et que pouvons-nous faire avec cette version expérimentale et avancée de Gemini ? Google précise qu'il s'agit d'une version adaptée pour réaliser des opérations et des activités plus complexes . En tant qu'activités qui concernent la résolution de problèmes mathématiques et logiques particulièrement complexes, ou la génération ou la personnalisation de plans procéduraux particulièrement structurés et détaillés .
On s'attend donc à pouvoir utiliser cette version de Gemini pour tirer le meilleur parti de ses performances lorsque l'on a besoin de traiter des textes particulièrement longs et complexes, ou de demander à l'IA de résoudre des problèmes de programmation logicielle compliqués . Il est à noter qu'avec cette version 2.0 Experimental Advanced de Gemini, il n'est pas encore possible de télécharger des fichiers pour demander des opérations et des activités qui s'y rapportent. Cette fonction est disponible en utilisant la version standard de Gemini Advanced (actuellement Gemini 1.5 Pro). La nouveauté que nous avons vue devrait déjà être disponible pour tous ceux qui sont abonnés à Gemini Advanced. Ouvrez simplement l'application Gemini sur votre appareil Android ou iOS. Si vous ne le voyez toujours pas, vous devrez peut-être forcer la fermeture de l' application et la redémarrer.
On s'attend donc à pouvoir utiliser cette version de Gemini pour tirer le meilleur parti de ses performances lorsque l'on a besoin de traiter des textes particulièrement longs et complexes, ou de demander à l'IA de résoudre des problèmes de programmation logicielle compliqués . Il est à noter qu'avec cette version 2.0 Experimental Advanced de Gemini, il n'est pas encore possible de télécharger des fichiers pour demander des opérations et des activités qui s'y rapportent. Cette fonction est disponible en utilisant la version standard de Gemini Advanced (actuellement Gemini 1.5 Pro). La nouveauté que nous avons vue devrait déjà être disponible pour tous ceux qui sont abonnés à Gemini Advanced. Ouvrez simplement l'application Gemini sur votre appareil Android ou iOS. Si vous ne le voyez toujours pas, vous devrez peut-être forcer la fermeture de l' application et la redémarrer.
Lire la suite (0 Commentaires)
Gemini est sur le point d'atterrir sur les voitures sous la forme d'un « agent IA », et l'un des premiers constructeurs à l'accueillir sera Mercedes-Benz . La nouveauté, appelée Automotive AI Agent , représente un nouveau type de solution appelée « Agents IA verticaux » et conçue pour transformer différents types d'expériences grâce à des fonctionnalités d'IA génératives (évidemment médiatisées par Gemini). Pour ceux qui ne le savent pas, les « agents IA » sont des applications dans lesquelles l'IA est capable d' interagir avec l'environnement, de collecter des données et de les utiliser pour effectuer ses actions de manière autonome, en fonction d'objectifs fixés par les humains. Google vient d'annoncer deux de ces agents d'IA verticaux basés sur Gemini avec Vertrex AI, la plateforme de création d'agents de GrandeG : Automotive et Food Ordering .
Automotive AI Agent permet aux constructeurs automobiles de « créer et fournir rapidement des assistants multimodaux, intelligents et personnalisables dans le véhicule ». Ses caractéristiques sont :
- Interaction multilingue , raisonnement multimodal et compréhension du langage naturel grâce aux modèles Google Gemini
- Conversation naturelle et personnalisée pour toutes les fonctions et commandes du véhicule, de la navigation à la musique en passant par la recherche. Des exemples de conversation sont : « Y a-t-il un restaurant italien à proximité ? », suivi de questions complémentaires telles que : « Le restaurant a-t-il de bonnes critiques ? », ou « Quel est le plat le plus populaire là-bas ? ». Il est également capable de gérer des dialogues complexes à plusieurs tours et de mémoriser les conversations, afin que vous puissiez reprendre là où vous vous étiez arrêté.
- Possibilité d' étendre les fonctionnalités avec une suite d'outils pour personnaliser l'expérience, grâce à des intégrations et d'autres outils
- Assistant grand public prêt à l'emploi sur lequel le constructeur automobile peut construire un système propriétaire
- Capacité à s'intégrer aux architectures de véhicules existantes , au système d'exploitation Android Automotive et aux applications Google
Mercedes-Benz est l'un des premiers constructeurs automobiles à implémenter l'Automotive AI Agent dans son assistant exclusif MBUX Virtual Assistant , qui arrivera avec la nouvelle Mercedes-Benz CLA plus tard cette année. L'autre agent IA, Food Ordering AI Agent , est conçu pour les restaurants et vous permet d'offrir des expériences de commande de nourriture précises, cohérentes et multilingues grâce à une solution conversationnelle entièrement automatisée. Le premier client de cette solution est la chaîne de restauration rapide Wendy's qui l'utilisera pour les commandes au volant .
Automotive AI Agent permet aux constructeurs automobiles de « créer et fournir rapidement des assistants multimodaux, intelligents et personnalisables dans le véhicule ». Ses caractéristiques sont :
- Interaction multilingue , raisonnement multimodal et compréhension du langage naturel grâce aux modèles Google Gemini
- Conversation naturelle et personnalisée pour toutes les fonctions et commandes du véhicule, de la navigation à la musique en passant par la recherche. Des exemples de conversation sont : « Y a-t-il un restaurant italien à proximité ? », suivi de questions complémentaires telles que : « Le restaurant a-t-il de bonnes critiques ? », ou « Quel est le plat le plus populaire là-bas ? ». Il est également capable de gérer des dialogues complexes à plusieurs tours et de mémoriser les conversations, afin que vous puissiez reprendre là où vous vous étiez arrêté.
- Possibilité d' étendre les fonctionnalités avec une suite d'outils pour personnaliser l'expérience, grâce à des intégrations et d'autres outils
- Assistant grand public prêt à l'emploi sur lequel le constructeur automobile peut construire un système propriétaire
- Capacité à s'intégrer aux architectures de véhicules existantes , au système d'exploitation Android Automotive et aux applications Google
Mercedes-Benz est l'un des premiers constructeurs automobiles à implémenter l'Automotive AI Agent dans son assistant exclusif MBUX Virtual Assistant , qui arrivera avec la nouvelle Mercedes-Benz CLA plus tard cette année. L'autre agent IA, Food Ordering AI Agent , est conçu pour les restaurants et vous permet d'offrir des expériences de commande de nourriture précises, cohérentes et multilingues grâce à une solution conversationnelle entièrement automatisée. Le premier client de cette solution est la chaîne de restauration rapide Wendy's qui l'utilisera pour les commandes au volant .
Lire la suite (0 Commentaires)
Une nouvelle mise à jour pour Google Photos arrive également pour les utilisateurs d'Android, celle qui apporte le nouvel emplacement et le nouveau nom de la section Souvenirs . Nous avions vu cette innovation arriver sur l'application iOS de Google Photos, et maintenant nous la voyons arriver également sur Android . Nous avons évoqué la symétrie car avec cette mise à jour l'écran principal de Google Photos reçoit une barre avec trois éléments , un au centre et deux aux extrémités. La même mise en page que l'on retrouve dans la barre de navigation de Google Maps. Signe qu’il s’agit d’une approche de conception que Google a choisie sur toute la ligne. Dans cette nouvelle disposition de la barre de navigation, nous voyons les nouveautés de la section Souvenirs. On ne voit plus ce dernier au sein du bar, mais il est intégré à la section Collections . En résumé, la barre de navigation comprend les Collections au centre , les Photos à gauche et la Recherche à droite . La section Souvenirs est déplacée vers Collections. Et aussi la section Souvenirs change de nom. La distribution de la nouveauté est actuellement en cours via le serveur de l'application Android Google Photos.
Lire la suite (0 Commentaires)
Google Gemini arrive officiellement sur Google TV et nous pouvons désormais avoir une idée de à quoi cela ressemblera et comment cela fonctionnera . Le populaire service d'intelligence artificielle de Google étend officiellement sa puissante portée sur la plateforme de télévision intelligente de Google (voici les meilleurs téléviseurs intelligents du moment ) et nous pouvons voir ce que nous pouvons en faire. L'annonce de Gemini sur Google TV a été faite par BigG il y a quelques jours seulement. Pour le voir en action sur nos téléviseurs intelligents, il faut encore attendre un peu, mais nous pouvons avoir un aperçu de ses nouvelles fonctionnalités. La présentation de Gemini pour Google TV est certainement une étape importante . Jusqu'à présent, sur Google TV, nous disposions de Google Assistant, un assistant qui commence à sentir le poids du temps et qui surtout connaît la montée en puissance de Gemini avec un support de plus en plus négligeable. Gemini est donc une bouffée d' air frais et d'innovation pour tous ceux qui s'interfacent avec leur smart TV via un assistant vocal. Cependant, il faut dire que Gemini sur Google TV fera une impression différente en fonction de la présence ou de l'absence du capteur de présence sur la smart TV elle-même.
Gemini pour Google TV a en effet été présenté en parallèle de la mise en place de ce capteur, dont ne disposent clairement pas toutes les smart TV. Par conséquent, certaines de ses fonctionnalités, qui sont peut-être les plus intelligentes, ne seront pas accessibles à tout le monde . Mais voyons ce que nous pouvons faire avec Gemini sur Google TV , grâce à une démo réalisée par 9to5Google lors du CES de Las Vegas. La première innovation significative concerne l'utilisation du Gemini couplé au capteur de présence sur la smart TV. En effet, le logiciel permet au système de s'animer lorsqu'un utilisateur qui s'approche est détecté . Cependant, lorsqu'il n'y a aucun utilisateur à proximité, et donc on suppose que la smart TV est allumée sans aucune utilisation réelle par aucun utilisateur, un tableau de bord s'affiche avec des informations pertinentes sur la météo, les actualités et les rendez-vous du calendrier. Gemini sur Google TV s'accompagne également d'une prise en charge considérablement améliorée de l'interaction via les commandes vocales. Cela signifie une plus grande rapidité et précision dans la réponse et la reconnaissance des demandes. Cela amènera donc les utilisateurs à utiliser beaucoup plus l'assistant vocal sur les téléviseurs intelligents .
Google a également montré comment Gemini permettra de rechercher du contenu avec une plus grande précision, en permettant une sélection, à partir de la saisie vocale, selon des paramètres plus spécifiques , comme la tranche d'âge indiquée pour le visionnage par exemple. Transversalement, nous verrons clairement aussi une mise à jour graphique pour montrer l'interaction avec Gemini. Si vous souhaitez vous faire une idée, vous pouvez jeter un oeil à la vidéo ci-dessus. En plus de cela, Google TV recevra également News Brief , une nouvelle section qui utilise l'intelligence artificielle pour résumer les sujets d'actualité tendance, tout en extrayant des vidéos de sources d'information fiables. Cette section sera mise à jour plusieurs fois par jour pour permettre aux utilisateurs de rester synchronisés avec ce qui se passe dans le monde directement depuis leur téléviseur. Bref, nous n'avons pas envie de dire que Gemini apportera une révolution complète à Google TV par rapport à l'époque où Assistant était présent. Si on y réfléchit, on voit que Gemini perfectionne et optimise de nombreuses fonctionnalités qui sur papier étaient également disponibles avec Assistant. Sauf que certains d’entre eux n’ont pas été particulièrement utilisés car l’assistant était peu réactif, ou peu précis, et les utilisateurs étaient donc apathiques. Enfin, voyons comment Google a investi dans Gemini sur Google TV pour augmenter les cas d'utilisation de la télévision par rapport à d'autres appareils. Nous verrons si l’histoire lui donne raison.
Gemini pour Google TV a en effet été présenté en parallèle de la mise en place de ce capteur, dont ne disposent clairement pas toutes les smart TV. Par conséquent, certaines de ses fonctionnalités, qui sont peut-être les plus intelligentes, ne seront pas accessibles à tout le monde . Mais voyons ce que nous pouvons faire avec Gemini sur Google TV , grâce à une démo réalisée par 9to5Google lors du CES de Las Vegas. La première innovation significative concerne l'utilisation du Gemini couplé au capteur de présence sur la smart TV. En effet, le logiciel permet au système de s'animer lorsqu'un utilisateur qui s'approche est détecté . Cependant, lorsqu'il n'y a aucun utilisateur à proximité, et donc on suppose que la smart TV est allumée sans aucune utilisation réelle par aucun utilisateur, un tableau de bord s'affiche avec des informations pertinentes sur la météo, les actualités et les rendez-vous du calendrier. Gemini sur Google TV s'accompagne également d'une prise en charge considérablement améliorée de l'interaction via les commandes vocales. Cela signifie une plus grande rapidité et précision dans la réponse et la reconnaissance des demandes. Cela amènera donc les utilisateurs à utiliser beaucoup plus l'assistant vocal sur les téléviseurs intelligents .
Google a également montré comment Gemini permettra de rechercher du contenu avec une plus grande précision, en permettant une sélection, à partir de la saisie vocale, selon des paramètres plus spécifiques , comme la tranche d'âge indiquée pour le visionnage par exemple. Transversalement, nous verrons clairement aussi une mise à jour graphique pour montrer l'interaction avec Gemini. Si vous souhaitez vous faire une idée, vous pouvez jeter un oeil à la vidéo ci-dessus. En plus de cela, Google TV recevra également News Brief , une nouvelle section qui utilise l'intelligence artificielle pour résumer les sujets d'actualité tendance, tout en extrayant des vidéos de sources d'information fiables. Cette section sera mise à jour plusieurs fois par jour pour permettre aux utilisateurs de rester synchronisés avec ce qui se passe dans le monde directement depuis leur téléviseur. Bref, nous n'avons pas envie de dire que Gemini apportera une révolution complète à Google TV par rapport à l'époque où Assistant était présent. Si on y réfléchit, on voit que Gemini perfectionne et optimise de nombreuses fonctionnalités qui sur papier étaient également disponibles avec Assistant. Sauf que certains d’entre eux n’ont pas été particulièrement utilisés car l’assistant était peu réactif, ou peu précis, et les utilisateurs étaient donc apathiques. Enfin, voyons comment Google a investi dans Gemini sur Google TV pour augmenter les cas d'utilisation de la télévision par rapport à d'autres appareils. Nous verrons si l’histoire lui donne raison.
Lire la suite (0 Commentaires)
Google vient de franchir une étape majeure vers la standardisation de la maison intelligente en permettant aux hubs Google Home de se connecter et de contrôler les appareils Matter localement. Qu'est-ce que ça veut dire? Matter n'est pas importante "seulement" parce qu'elle vous permet d'utiliser une seule langue pour gérer les appareils de notre maison intelligente , mais aussi parce qu'elle vous permet de le faire beaucoup plus rapidement, sans vous connecter à un serveur externe. C’est- à-dire localement , en communiquant directement sur le réseau . Cette fonction, qui permet de gérer la maison intelligente même sans connexion Internet , est possible grâce à Google Home Runtime, désormais enfin intégré aux hubs Google Home. Ainsi, désormais, des appareils tels que les enceintes Google Nest , Chromecast , les appareils Google TV sous Android 14 et certains téléviseurs LG peuvent contrôler les appareils Matter localement.
Mais ce n'est pas la seule nouvelle. Google a également ouvert l' API Home à tous les développeurs (auparavant, elle n'était ouverte qu'à des sociétés telles que Eve, Nanoleaf, LG, ADT, Cync, Yale et Aqara) :
- API d'appareil et de structure , qui vous permet d'accéder aux appareils Google Home
- API de mise en service , qui simplifient la configuration des appareils avec Fast Pair, la commande vocale via Google Assistant et la compatibilité avec l'écosystème Google Home.
- API d'automatisation , qui vous permet de gérer les automatisations depuis l'application
Cette solution présente un grand avantage, qui permet d' intégrer les appareils et automatismes Google Home dans les applications, et un risque intrinsèque : que se passerait-il si Google fermait une API comme cela s'est produit avec le programme Works with Nest ? Cela dit, la voie est claire et, en général, les avantages dépassent largement les risques. Enfin, Google a également montré ses efforts pour pousser l'expansion de Matter , en facilitant la certification des appareils pris en charge et, grâce à une collaboration avec MediaTek , en créant une puce tout-en-un (avec Wi-Fi, Bluetooth LE et Thread ) qui permet vous permet de créer plus facilement des appareils compatibles Thread.
Mais ce n'est pas la seule nouvelle. Google a également ouvert l' API Home à tous les développeurs (auparavant, elle n'était ouverte qu'à des sociétés telles que Eve, Nanoleaf, LG, ADT, Cync, Yale et Aqara) :
- API d'appareil et de structure , qui vous permet d'accéder aux appareils Google Home
- API de mise en service , qui simplifient la configuration des appareils avec Fast Pair, la commande vocale via Google Assistant et la compatibilité avec l'écosystème Google Home.
- API d'automatisation , qui vous permet de gérer les automatisations depuis l'application
Cette solution présente un grand avantage, qui permet d' intégrer les appareils et automatismes Google Home dans les applications, et un risque intrinsèque : que se passerait-il si Google fermait une API comme cela s'est produit avec le programme Works with Nest ? Cela dit, la voie est claire et, en général, les avantages dépassent largement les risques. Enfin, Google a également montré ses efforts pour pousser l'expansion de Matter , en facilitant la certification des appareils pris en charge et, grâce à une collaboration avec MediaTek , en créant une puce tout-en-un (avec Wi-Fi, Bluetooth LE et Thread ) qui permet vous permet de créer plus facilement des appareils compatibles Thread.
Lire la suite (0 Commentaires)
Google Discover a lancé ce que l'on peut comprendre comme son podcast . L'innovation introduite par Google constitue une source supplémentaire de contenu personnalisé pour les utilisateurs. Le service populaire de Google qui regroupe et sélectionne le contenu d'actualité pertinent pour les utilisateurs sur Android a donc reçu une nouvelle fonctionnalité qui viserait à impliquer davantage les utilisateurs . La nouveauté dont nous parlons s’appelle techniquement Daily Listen . Essentiellement, il s’agit d’une sélection de contenu sous forme audio sélectionnée en fonction des intérêts de chaque utilisateur individuel. On obtient donc un contenu audio d'une durée d'environ 5 minutes , comme s'il s'agissait d'un épisode quotidien à écouter pour rester au courant des sujets d'actualité qui nous intéressent le plus. De toute évidence, la sélection des contenus à inclure dans ce nouveau et inattendu podcast Discover est effectuée automatiquement par les algorithmes Discover et Google Search , clairement calibrés sur les intérêts personnels de chaque utilisateur.
En gros, le contenu Daily Listen sera proposé sur l'écran principal de découverte, immédiatement sous la barre de recherche. En lançant le contenu, nous verrons un lecteur vocal , comme s'il s'agissait d'un podcast en cours d'écoute, avec quelques commandes rapides pour gérer la lecture. Google Gemini est également impliqué dans tout cela , et en effet, lors de l'écoute, le message " Generative AI is experimental " s'affichera, indiquant qu'il s'agit d'une fonctionnalité en cours de test et qu'elle pourrait présenter des imperfections. L’innovation que nous venons de voir est donc encore en phase de test. En fait, nous le trouvons disponible pour les utilisateurs d'Android et iOS qui ont rejoint Search Labs , mais uniquement s'ils résident aux États-Unis . Le fonctionnement est donc assuré en anglais. Nous reviendrons pour vous tenir au courant dès que nous aurons des nouvelles de sa sortie pour l'Europe.
En gros, le contenu Daily Listen sera proposé sur l'écran principal de découverte, immédiatement sous la barre de recherche. En lançant le contenu, nous verrons un lecteur vocal , comme s'il s'agissait d'un podcast en cours d'écoute, avec quelques commandes rapides pour gérer la lecture. Google Gemini est également impliqué dans tout cela , et en effet, lors de l'écoute, le message " Generative AI is experimental " s'affichera, indiquant qu'il s'agit d'une fonctionnalité en cours de test et qu'elle pourrait présenter des imperfections. L’innovation que nous venons de voir est donc encore en phase de test. En fait, nous le trouvons disponible pour les utilisateurs d'Android et iOS qui ont rejoint Search Labs , mais uniquement s'ils résident aux États-Unis . Le fonctionnement est donc assuré en anglais. Nous reviendrons pour vous tenir au courant dès que nous aurons des nouvelles de sa sortie pour l'Europe.
Lire la suite (0 Commentaires)
Gemini va encore plus loin et obtient la fonctionnalité permettant de fournir des informations sur les fichiers PDF . Le célèbre service d'intelligence artificielle de Google a en effet reçu une mise à jour pour sa version Android avec laquelle il élargit son champ d'action. L'innovation qui vient d'être évoquée concerne une nouvelle petite extension Gemini qui permet d'interagir directement avec les fichiers PDF lors de leur ouverture sur nos smartphones Android . En effet,, la nouvelle fonction Gemini vous permet de demander rapidement des informations sur le fichier PDF que vous consultez . De cette manière, il sera possible de demander des informations immédiatement contextualisées par rapport au dossier que vous consultez. Pour accéder à cette fonctionnalité, vous devrez ouvrir le fichier PDF qui vous intéresse via la visionneuse PDF intégrée à l' application Google Files . Nous devrons donc démarrer Gemini en utilisant l'un de ses raccourcis et, si la fonction est déjà arrivée, nous verrons un bouton en haut de la fenêtre Gemini avec la légende « Demander des informations sur ce PDF ».
En lançant cette option, nous verrons une boîte de dialogue Gemini déjà contextualisée dans le fichier PDF ouvert. Nous pourrons alors poser notre demande, soit en tapant depuis le clavier, soit par saisie vocale . Les réponses fournies concerneront toutes le fichier PDF que nous visualisons. Il s'agit donc d'une fonctionnalité similaire à celle dont nous disposons dans l'application Gemini, avec l'avantage de ne pas avoir besoin de télécharger de fichiers. La nouvelle fonction est déjà distribuée en Italie également, pour être sûr de la recevoir bientôt, vérifiez que l'application Google est mise à jour au moins vers la version 16.0.5 .
En lançant cette option, nous verrons une boîte de dialogue Gemini déjà contextualisée dans le fichier PDF ouvert. Nous pourrons alors poser notre demande, soit en tapant depuis le clavier, soit par saisie vocale . Les réponses fournies concerneront toutes le fichier PDF que nous visualisons. Il s'agit donc d'une fonctionnalité similaire à celle dont nous disposons dans l'application Gemini, avec l'avantage de ne pas avoir besoin de télécharger de fichiers. La nouvelle fonction est déjà distribuée en Italie également, pour être sûr de la recevoir bientôt, vérifiez que l'application Google est mise à jour au moins vers la version 16.0.5 .
Lire la suite (0 Commentaires)
Au cours des dernières heures, Google a publié une nouvelle mise à jour pour son Opinion Rewards, avec laquelle arrive enfin le support du thème sombre. L'introduction du thème sombre sur Android et dans les différentes applications de Google est un processus qui a commencé et pratiquement terminé depuis quelques années maintenant. Cependant, Opinion Rewards ne prenait pas en charge le thème sombre jusqu’à présent. C'est un thème sombre tout à fait cohérent avec ce que l'on retrouve sur les autres applications Google. Cela affecte toute l’interface de l’application, y compris la section des paramètres et de l’historique des enquêtes.
Comment activer le thème sombre sur Google Opinion Rewards ? Le processus est assez simple :
- Nous ouvrons l'application Opinion Rewards sur notre smartphone.
- Nous ouvrons le menu latéral à gauche.
- Nous accédons à l' application Paramètres .
- Nous accédons à la section Thème et choisissons Dark en option.
La nouvelle fonctionnalité que nous venons de voir est actuellement distribuée via le serveur dans le monde entier , nous nous attendons donc à la voir bientôt pour tout le monde.
Comment activer le thème sombre sur Google Opinion Rewards ? Le processus est assez simple :
- Nous ouvrons l'application Opinion Rewards sur notre smartphone.
- Nous ouvrons le menu latéral à gauche.
- Nous accédons à l' application Paramètres .
- Nous accédons à la section Thème et choisissons Dark en option.
La nouvelle fonctionnalité que nous venons de voir est actuellement distribuée via le serveur dans le monde entier , nous nous attendons donc à la voir bientôt pour tout le monde.
Lire la suite (0 Commentaires)
Gemini , l'assistant IA de Google, s'apprête à débarquer partout , notamment sur Google TV, Wear OS et Android Auto . C’est justement sur ce dernier que l’on peut désormais le voir en action. L'icône de l' Assistant Google de plus en plus ancien a été remplacée par le dégradé typique de Gemini , tandis qu'en appuyant sur le microphone, nous passerons en mode Gemini Live , doté d'une animation similaire à celle disponible sur les smartphones. Malheureusement, le clip est sans son, également parce que malgré les efforts d' Android Authority , qui a partagé la vidéo, Gemini n'a jamais répondu de quelque manière que ce soit, signe de la façon dont son code est encore expérimental dans Android Auto, du moins pour le moment. Pour en savoir plus sur Gemini Live vous pouvez vous référer à notre challenge contre ChatGPT . Ainsi, à l’avenir, même lors de voyages en voiture seul, nous aurons quelqu’un à qui parler . Cependant, nous espérons que, exactement comme sur les smartphones, sur Android Auto, il sera également possible de choisir d'utiliser Gemini ou l'Assistant Google, du moins dans un avenir proche. Néanmoins, l'avenir de l'entreprise est clair et il est inutile de se faire des illusions sur le fait que Gemini ne deviendra pas la seule et unique option en l'espace d'un certain temps.
Lire la suite (0 Commentaires)