![Social Social](images/news/categories/social.png)
Quiconque a étudié l'analyse de données saura ce que cela signifie. L'une des méthodes classiques utilisées pour collecter rapidement des données sur Internet est le soi-disant web scraping , qui vous permet de collecter des informations accessibles au public en peu de temps et ainsi de remplir une feuille de calcul à utiliser à des fins statistiques (ou pire, pour profiler ou collecter subtilement des informations sur les utilisateurs). Twitter a toujours autorisé, après avoir enregistré un compte et indiqué la raison (à des fins d'étude, pour créer un client ou autre), l'accès à ces données via son API. Le problème est que désormais les intelligences artificielles prennent toutes les informations nécessaires pour s'entraîner en quantité et avec une fréquence hors échelle. C'est pourquoi Reddit et Twitter ont coupé l'accès aux API et aux clients tiers : si OpenAI et ses partenaires gagnent de l'argent grâce à l'intelligence artificielle, même les entreprises dont ils s'entraînent aux données veulent leur part du gâteau (on peut se demander pourquoi les utilisateurs non , puisque les données sont les leurs et ils paient à la fois pour les publier puis les réviser à l'aide de chatbots IA, mais c'est un autre problème).
Et c'est pourquoi, depuis peu et suite aux réductions d'effectifs, l'infrastructure de Twitter est désormais plus délicate et supporte plus mal l'impact de ce scraping sur ses serveurs (qui est certainement bien accru de toute façon). C'est Musk lui-même qui déclare son impuissance. Musk ne mentionne pas directement l'intelligence artificielle , mais le problème est que, et un article du New York Times d'il y a quelque temps le confirme . Ce qui explique des choix qui paraissent erratiques et des décisions bâclées : Internet est frappé par une vague d'exploration sans précédent.
Envoyer une nouvelle à un ami