Alors que l’intelligence artificielle remodèle le paysage technologique, les régulateurs et les législateurs s’efforcent de suivre le rythme. Le retrait de Microsoft du conseil d’administration d’OpenAI, une prochaine audience du Sénat sur la confidentialité de l’IA et les appels des experts à une nouvelle approche réglementaire mettent en évidence les défis complexes auxquels sont confrontés le secteur de l’IA et ses superviseurs.
- Microsoft quitte OpenAI, le Sénat enquête sur l'IA.
- Microsoft se retire du conseil d'administration d'OpenAI.
- Le Sénat examine les préoccupations liées à la confidentialité de l'IA.
- Les régulateurs doivent jongler entre sécurité et concurrence dans le domaine de l'IA.
Microsoft coupe les ponts avec le conseil d’administration d’OpenAI
Selon certaines informations, Microsoft aurait retiré son siège d’observateur au conseil d’administration d’OpenAI, alors que les régulateurs des deux côtés de l’Atlantique font monter la pression sur les partenariats en matière d’IA.
L’équipe juridique du géant de la technologie affirme que ce siège a rempli son rôle, en fournissant des informations sans compromettre l’indépendance d’OpenAI. Cette décision intervient alors que la Commission européenne et les régulateurs américains examinent de près la relation privilégiée entre les deux géants de l’IA. Si l’UE a admis à contrecœur que le siège d’observateur ne menaçait pas l’autonomie d’OpenAI, elle cherche toujours à obtenir l’avis de tiers sur l’accord.
Le retrait de Microsoft du conseil d’administration, initialement obtenu lors de la bataille de la direction d’OpenAI en novembre dernier, semble avoir pour but d’esquiver les balles réglementaires. Alors que l’IA continue de remodeler le paysage technologique, cette étape stratégique met en évidence le cheminement sur la corde raide auquel les grandes entreprises technologiques sont confrontées : équilibre entre collaboration et indépendance sous le regard vigilant des régulateurs mondiaux. Le partenariat Microsoft-OpenAI, évalué à plus de 10 milliards de dollars, a été la pierre angulaire des stratégies d’IA des deux entreprises.
Il a permis à Microsoft d’intégrer l’IA actuelle dans ses produits tout en fournissant à OpenAI des ressources informatiques cruciales. Ce partenariat a donné naissance à des produits de grande envergure comme ChatGPT et le générateur d’images DALL-E, qui ont suscité à la fois enthousiasme et inquiétude quant aux progrès rapides de l’IA.
Le Sénat se penche sur les préoccupations liées à la confidentialité de l’IA
La commission du commerce du Sénat s’apprête à s’attaquer à l’épineuse question des problèmes de confidentialité liés à l’IA lors d’une audience prévue jeudi (11 juillet).
Les États-Unis, qui abritent des géants de la technologie à l’origine de l’innovation en matière d’intelligence artificielle, sont à la traîne en matière de législation sur la protection de la vie privée. Les États et d’autres pays comblent ce vide, créant un patchwork de réglementations qui devient de plus en plus difficile à gérer pour les entreprises. Un projet bipartisan, l’American Privacy Rights Act, semblait prêt à progresser, mais s’est heurté à un obstacle le mois dernier lorsque les dirigeants républicains de la Chambre des représentants ont freiné la décision.
Le projet de loi vise à donner aux consommateurs plus de contrôle sur leurs données, notamment la possibilité de refuser la publicité ciblée et les transferts de données. L’audience de jeudi sera l’occasion de recueillir les témoignages d’experts juridiques et de spécialistes de la politique technologique, notamment de représentants de l’Université de Washington et de Mozilla. À mesure que l’intelligence artificielle prend de l’ampleur, la pression sur le Congrès pour qu’il agisse se fait de plus en plus forte.
La question demeure : les législateurs peuvent-ils suivre le rythme effréné des avancées technologiques ?
Sécurité et concurrence de l’IA : les régulateurs face à un exercice d’équilibriste
Dans un paysage de l’IA en constante évolution, Tom Wheeler et Blair Levin, membres de la Brookings Institution, appellent les régulateurs fédéraux à un délicat exercice d’équilibre. Alors que la Federal Trade Commission (FTC) et le ministère de la Justice (DOJ) intensifient leurs enquêtes antitrust sur les collaborations en matière d’IA, les deux experts soutiennent dans un commentaire publié lundi (8 juillet) qu’il est crucial – et réalisable – de favoriser à la fois la concurrence et la sécurité. Wheeler et Levin proposent une approche réglementaire novatrice, inspirée de secteurs comme la finance et l’énergie.
Leur modèle comporte trois éléments clés : un processus supervisé pour l’élaboration de normes de sécurité évolutives, des incitations du marché pour récompenser les entreprises qui dépassent ces normes et une surveillance rigoureuse de la conformité. Pour apaiser les craintes antitrust, les auteurs évoquent des précédents historiques dans lesquels le gouvernement a autorisé des collaborations entre concurrents dans l’intérêt national. Ils suggèrent que la FTC et le DOJ publient une déclaration de politique commune, similaire à celle publiée sur la cybersécurité en 2014, précisant que les collaborations légitimes en matière de sécurité de l’IA ne déclencheront pas d’alarmes antitrust.
Cette initiative intervient dans un contexte d’inquiétude croissante face aux risques potentiels de l’IA et à la concentration du pouvoir entre les mains d’une poignée de géants de la technologie. Alors que le développement de l’IA dépasse les cadres réglementaires traditionnels, Wheeler et Levin estiment qu’une nouvelle approche est nécessaire de toute urgence. Leur proposition vise à trouver un équilibre entre l’exploitation du potentiel de l’IA et la protection de l’intérêt public.
Alors que les décideurs politiques sont aux prises avec ces défis, les recommandations des auteurs pourraient fournir une feuille de route pour favoriser un écosystème d’IA compétitif mais responsable.
Voir plus dans : IA, réglementation de l’IA, intelligence artificielle, Big Tech, Brookings Institution, Microsoft, Actualités, OpenAI, confidentialité, PYMNTS News, réglementations, Sénat, Comité sénatorial du commerce, Technologie
FAQ
Comment supprimer son compte OpenAI ?
Si vous souhaitez supprimer votre compte OpenAI, vous devez d'abord vous connecter à celui-ci. Ensuite, cliquez sur l'icône en forme de roue dentée dans le coin supérieur droit et sélectionnez "Paramètres". Sur la page de paramètres, faites défiler jusqu'à trouver l'option "Supprimer mon compte" et suivez les instructions pour confirmer la suppression de votre compte.
Veuillez noter que cette action est irréversible et toutes vos données seront effacées.
Quelle entreprise a acheté OpenAI ?
L'entreprise qui a acheté OpenAI est Microsoft. Cela s'est produit en 2020, avec un investissement de 1 milliard de dollars.
Cette acquisition permet à Microsoft d'accéder à l'expertise en intelligence artificielle d'OpenAI pour renforcer ses propres technologies dans ce domaine. Elle s'inscrit également dans la stratégie de développement durable de Microsoft en promouvant une utilisation responsable et éthique de l'IA.
OpenAI a-t-il été racheté par Microsoft ?
Oui, OpenAI a été racheté en juin 2020 par Microsoft. Cette transaction permet à Microsoft de devenir le principal partenaire commercial d'OpenAI et de collaborer sur sa plateforme de cloud Azure.
Cependant, OpenAI conserve son indépendance en tant qu'entité juridique distincte.
Comment s'inscrire sur OpenAI ?
Pour s'inscrire sur OpenAI, il faut se rendre sur leur site officiel et cliquer sur le bouton "Sign up" en haut à droite de la page d'accueil. Ensuite, il suffit de remplir un formulaire avec son nom, son adresse email, un mot de passe et une courte présentation de ses projets AI.
Une fois inscrit, on peut accéder aux différents outils et ressources proposés par OpenAI.
Quelle est la définition d'OpenAI ?
OpenAI est une entreprise de recherche en intelligence artificielle fondée en 2015 par Elon Musk et d'autres personnalités. Elle se concentre sur le développement et la promotion d'une IA bénéfique pour l'humanité.
Son but est de créer une intelligence artificielle avancée mais aussi sûre et éthique. Sa devise est "L'humanité doit rester maîtresse de sa destinée technologique".