Twitter est à nouveau disponible pour les non-abonnés, mais peut-être que cette fois le problème est structurel. Nous essayons de comprendre ce qui se passe. Vendredi 30 juin , les utilisateurs habitués à consulter certains comptes Twitter depuis le Web sans se connecter se sont réveillés avec une mauvaise surprise : la plateforme les a renvoyés sur la page de connexion. Maintenant, pour les abonnés, cela était plus une nuisance qu'un gros problème, ils n'avaient qu'à se connecter, mais des millions d'utilisateurs qui ne sont pas abonnés à Twitter et l'utilisent pour rester informés se sont soudainement retrouvés exclus . Tout le monde pensait qu'il s'agissait de la énième coupure de Musk, après avoir fermé les clients tiers et réduit le nombre de tweets pour les utilisateurs gratuits, mais six heures après le tweet de TitterDaily, Musk a répondu personnellement en rassurant qu'il s'agissait d'une mesure temporaire . Ici, nous avons affaire à un problème plus profond, et Musk lui-même y fait allusion : « Les données ont été tellement pillées que cela a dégradé le service pour les utilisateurs normaux ».
Quiconque a étudié l'analyse de données saura ce que cela signifie. L'une des méthodes classiques utilisées pour collecter rapidement des données sur Internet est le soi-disant web scraping , qui vous permet de collecter des informations accessibles au public en peu de temps et ainsi de remplir une feuille de calcul à utiliser à des fins statistiques (ou pire, pour profiler ou collecter subtilement des informations sur les utilisateurs). Twitter a toujours autorisé, après avoir enregistré un compte et indiqué la raison (à des fins d'étude, pour créer un client ou autre), l'accès à ces données via son API. Le problème est que désormais les intelligences artificielles prennent toutes les informations nécessaires pour s'entraîner en quantité et avec une fréquence hors échelle. C'est pourquoi Reddit et Twitter ont coupé l'accès aux API et aux clients tiers : si OpenAI et ses partenaires gagnent de l'argent grâce à l'intelligence artificielle, même les entreprises dont ils s'entraînent aux données veulent leur part du gâteau (on peut se demander pourquoi les utilisateurs non , puisque les données sont les leurs et ils paient à la fois pour les publier puis les réviser à l'aide de chatbots IA, mais c'est un autre problème).
Et c'est pourquoi, depuis peu et suite aux réductions d'effectifs, l'infrastructure de Twitter est désormais plus délicate et supporte plus mal l'impact de ce scraping sur ses serveurs (qui est certainement bien accru de toute façon). C'est Musk lui-même qui déclare son impuissance. Musk ne mentionne pas directement l'intelligence artificielle , mais le problème est que, et un article du New York Times d'il y a quelque temps le confirme . Ce qui explique des choix qui paraissent erratiques et des décisions bâclées : Internet est frappé par une vague d'exploration sans précédent.
Quiconque a étudié l'analyse de données saura ce que cela signifie. L'une des méthodes classiques utilisées pour collecter rapidement des données sur Internet est le soi-disant web scraping , qui vous permet de collecter des informations accessibles au public en peu de temps et ainsi de remplir une feuille de calcul à utiliser à des fins statistiques (ou pire, pour profiler ou collecter subtilement des informations sur les utilisateurs). Twitter a toujours autorisé, après avoir enregistré un compte et indiqué la raison (à des fins d'étude, pour créer un client ou autre), l'accès à ces données via son API. Le problème est que désormais les intelligences artificielles prennent toutes les informations nécessaires pour s'entraîner en quantité et avec une fréquence hors échelle. C'est pourquoi Reddit et Twitter ont coupé l'accès aux API et aux clients tiers : si OpenAI et ses partenaires gagnent de l'argent grâce à l'intelligence artificielle, même les entreprises dont ils s'entraînent aux données veulent leur part du gâteau (on peut se demander pourquoi les utilisateurs non , puisque les données sont les leurs et ils paient à la fois pour les publier puis les réviser à l'aide de chatbots IA, mais c'est un autre problème).
Et c'est pourquoi, depuis peu et suite aux réductions d'effectifs, l'infrastructure de Twitter est désormais plus délicate et supporte plus mal l'impact de ce scraping sur ses serveurs (qui est certainement bien accru de toute façon). C'est Musk lui-même qui déclare son impuissance. Musk ne mentionne pas directement l'intelligence artificielle , mais le problème est que, et un article du New York Times d'il y a quelque temps le confirme . Ce qui explique des choix qui paraissent erratiques et des décisions bâclées : Internet est frappé par une vague d'exploration sans précédent.
Envoyer une nouvelle à un ami