26/05/2023 @ 16:06:26: Droit - L'avenir de ChatGPT en Europe n'a jamais été aussi incertain
L'intelligence artificielle est là pour rester, mais cela ne signifie pas que l' Union européenne n'a pas l'intention de réglementer l'utilisation de ChatGPT et de ses partenaires. Au point que Sam Altman lui-même, à la tête d'Open AI, a déclaré avoir « de nombreuses inquiétudes » concernant la loi et pourrait envisager de retirer ses services de l'UE. La menace est la même que celle lancée par Mark Zuckerberg en 2022, lorsqu'il a été pressé par l'UE, il a menacé d'abandonner le continent, pour ensuite reculer. Une chose est sûre : personne ne peut se passer du marché européen, que ce soit Zuckerberg ou AI. Mais que se passe-t-il ? L'UE serait en train de finaliser la loi sur l'IA pour obliger les entreprises travaillant sur les IA à divulguer les détails de leurs méthodes de formation et de leurs sources de données. Ceci dans l'espoir de rendre plus transparent non seulement le développement, mais aussi les éventuelles attributions de droits d'auteur, un problème que l'avènement de Midjourney a récemment soulevé. Les termes de la loi ont été élargis ces derniers mois pour inclure de nouvelles obligations pour les créateurs de soi-disant "modèles de base", des systèmes d'IA à grande échelle qui alimentent des services comme ChatGPT et DALL-E d'OpenAI. Mais Altman a déclaré que ces règles sont difficiles à respecter et qu'il pourrait même envisager de retirer ses services du marché européen en réponse à la réglementation sur l'IA. L'homme d'affaires a déclaré à Time qu'il craignait que des systèmes comme ChatGPT ne soient désignés par l'UE comme à haut risque. Outre les défis techniques, les divulgations requises par la loi européenne sur l'IA présentent également des menaces commerciales potentielles pour OpenAI. Une disposition du projet actuel exige que les fabricants de modèles de référence divulguent des détails sur la conception de leur système (y compris "la puissance de calcul requise, le temps de formation et d'autres informations pertinentes concernant la taille et la puissance du modèle") et fournissent un " résumé des données protégées par le droit d'auteur utilisées pour la formation " .
OpenAI partageait à l'origine ce type d'informations, mais a cessé car ses outils devenaient de plus en plus précieux sur le plan commercial . Sans parler du fait que forcer OpenAI à identifier son utilisation de données protégées par le droit d'auteur exposerait l'entreprise à d'éventuelles poursuites judiciaires. En utilisant les données du web, de nombreux acteurs pourraient réclamer des redevances, comme l' a fait Getty Images pour avoir utilisé ses données protégées par le droit d'auteur pour former le générateur d'images d'IA. Un peu comme dire " tout le monde sait que nous utilisons les données des autres, mais il vaut mieux ne pas l'écrire noir sur blanc pour leur donner un fondement légal pour nous demander de l'argent ". De toute évidence, cependant, Altman a changé d'avis, car après une série de conversations avec des législateurs européens, il a ouvert une fenêtre. En effet, « il n'a pas l'intention de partir ». Qu'auront-ils dit ? Les détails n'ont pas été divulgués, mais si d'une part Altman ne peut certainement pas abandonner un marché comme celui européen, il est possible que les caractéristiques de la législation aient été mieux décrites , afin de la proposer comme moins contraignante pour OpenAI. Ou peut-être parlait-il simplement à ses investisseurs (quelqu'un a-t-il mentionné Microsoft ?). À l'heure actuelle, l'entreprise est également au centre d'une série de confrontations avec la législation américaine, mais alors qu'aux États-Unis, la réglementation devrait principalement s'appliquer aux futurs systèmes, l'EU AI Act pense au présent et aux capacités actuelles de l'IA.