Dans la Silicon Valley , une véritable frénésie de conversation a éclaté avec diverses intelligences artificielles (IA). D'abord est venu Meta , qui a commencé une phase de test pour converser avec son BlenderBot 3 AI , et maintenant Google a ouvert l'enregistrement pour parler avec l'un de ses chatbots les plus avancés , LaMDA 2 . En réalité, le projet de Google a démarré début 2022, lorsqu'il a présenté son application Android AI Test Kitchen , qui permettra d'interagir avec l'IA et pourra être téléchargée sous peu (par ceux qui se seront inscrits). Pour cette phase initiale , réservée aux seuls utilisateurs américains (tout comme BlenderBot 3), Google a appliqué quelques restrictions , limitant les conversations à quelques modes de base. L'application dispose de trois modes : « Imaginer (quelque chose) », « Parler de (quelque chose) » et « Liste (quelque chose) », chacun conçu pour tester un aspect différent de la fonctionnalité du système.
« Imaginez » demande aux utilisateurs de nommer un lieu réel ou imaginaire, que LaMDA décrira (le test est de savoir si LaMDA peut reconnaître la description). " Talk About " propose un démarreur de conversation dans le but de tester si l'IA reste sur le sujet. "Liste" demande aux utilisateurs de nommer une entreprise ou un sujet, dans le but de voir si LaMDA peut le décomposer en puces, donc si vous demandez "Je veux planter un potager", la réponse peut inclure des sous-thèmes comme "Que faire tu veux grandir?" ou "L'eau et les soins". L'approche de Google est donc plus conservatrice que celle adoptée par Meta, dont le chatbot , taquiné par les utilisateurs, a commencé à dire des choses plutôt dérangeantes et même à critiquer son patron, Mark Zuckerberg . Mais c'est précisément le sens de ces tests. Selon Mary Williamson , responsable de l'ingénierie de recherche chez Facebook AI Research (FAIR), de nombreuses entreprises n'aiment pas tester leurs chatbots avec des gens parce que ce qu'ils disent sera préjudiciable à l'entreprise, tout comme ce qui s'est passé avec Tay de Microsoft . appris à dire des phrases racistes et antisémites sur Twitter .
Malheureusement, le risque est définitivement au coin de la rue, mais pour les scientifiques, c'est le meilleur moyen de tester l'IA d'une manière qu'ils ne pourraient jamais faire en laboratoire. A condition que ces expérimentations se limitent précisément à leur domaine d'action et ne soient ensuite pas négligemment disséminées dans des applications concrètes , comme l'a longtemps prévenu Timnit Gebru (précisément licencié par Google pour ses positions). Google pourra- t -il malgré toutes ses précautions l'éviter ? Si vous êtes curieux, voici la page d'inscription officielle et même si elle est réservée uniquement à ceux qui vivent aux États-Unis , elle propose quelques informations intéressantes : https://aitestkitchen.withgoogle.com/
« Imaginez » demande aux utilisateurs de nommer un lieu réel ou imaginaire, que LaMDA décrira (le test est de savoir si LaMDA peut reconnaître la description). " Talk About " propose un démarreur de conversation dans le but de tester si l'IA reste sur le sujet. "Liste" demande aux utilisateurs de nommer une entreprise ou un sujet, dans le but de voir si LaMDA peut le décomposer en puces, donc si vous demandez "Je veux planter un potager", la réponse peut inclure des sous-thèmes comme "Que faire tu veux grandir?" ou "L'eau et les soins". L'approche de Google est donc plus conservatrice que celle adoptée par Meta, dont le chatbot , taquiné par les utilisateurs, a commencé à dire des choses plutôt dérangeantes et même à critiquer son patron, Mark Zuckerberg . Mais c'est précisément le sens de ces tests. Selon Mary Williamson , responsable de l'ingénierie de recherche chez Facebook AI Research (FAIR), de nombreuses entreprises n'aiment pas tester leurs chatbots avec des gens parce que ce qu'ils disent sera préjudiciable à l'entreprise, tout comme ce qui s'est passé avec Tay de Microsoft . appris à dire des phrases racistes et antisémites sur Twitter .
Malheureusement, le risque est définitivement au coin de la rue, mais pour les scientifiques, c'est le meilleur moyen de tester l'IA d'une manière qu'ils ne pourraient jamais faire en laboratoire. A condition que ces expérimentations se limitent précisément à leur domaine d'action et ne soient ensuite pas négligemment disséminées dans des applications concrètes , comme l'a longtemps prévenu Timnit Gebru (précisément licencié par Google pour ses positions). Google pourra- t -il malgré toutes ses précautions l'éviter ? Si vous êtes curieux, voici la page d'inscription officielle et même si elle est réservée uniquement à ceux qui vivent aux États-Unis , elle propose quelques informations intéressantes : https://aitestkitchen.withgoogle.com/
Envoyer une nouvelle à un ami