Publié le 12 juillet 2024 par Alexandre Duval

OpenAI est un leader dans la course au développement d’une IA aussi intelligente qu’un humain. Pourtant, les employés continuent de s’exprimer dans la presse et sur des podcasts pour exprimer leurs graves inquiétudes concernant la sécurité du laboratoire de recherche à but non lucratif de 80 milliards de dollars. La dernière en date provient du Washington Post, où une source anonyme a affirmé qu’OpenAI avait précipité les tests de sécurité et avait vanté son produit avant de s’assurer de sa sécurité.« Ils ont planifié la soirée qui a suivi le lancement avant même de savoir si le lancement était sûr », a déclaré un employé anonyme au Washington Post. « Nous avons échoué dans ce processus. »Les problèmes de sécurité sont omniprésents chez OpenAI et semblent ne jamais s’arrêter. Les employés actuels et anciens d’OpenAI ont récemment signé une lettre ouverte exigeant de meilleures pratiques de sécurité et de transparence de la part de la startup, peu de temps après la dissolution de son équipe de sécurité suite au départ du cofondateur Ilya Sutskever. Jan Leike, un chercheur clé d’OpenAI, a démissionné peu de temps après, affirmant dans un message que « la culture et les processus de sécurité ont été relégués au second plan par rapport aux produits brillants » dans l’entreprise.La sécurité est au cœur de la charte d’OpenAI, avec une clause qui stipule qu’OpenAI aidera d’autres organisations à faire progresser la sécurité si l’AGI est atteinte chez un concurrent, au lieu de continuer à rivaliser. L’entreprise affirme se consacrer à la résolution des problèmes de sécurité inhérents à un système aussi vaste et complexe. OpenAI garde même ses modèles propriétaires privés, plutôt qu’ouverts (provoquant des critiques et des poursuites judiciaires), pour des raisons de sécurité. Les avertissements donnent l’impression que la sécurité a été déclassée alors qu’elle est si primordiale pour la culture et la structure de l’entreprise.Il est clair qu’OpenAI est sur la sellette, mais les efforts de relations publiques à eux seuls ne suffiront pas à protéger la société« Nous sommes fiers de notre expérience en matière de fourniture des systèmes d’IA les plus performants et les plus sûrs et nous croyons en notre approche scientifique pour gérer les risques », a déclaré Taya Christianson, porte-parole d’OpenAI, dans une déclaration à The Verge. « Un débat rigoureux est essentiel compte tenu de l’importance de cette technologie, et nous continuerons à collaborer avec les gouvernements, la société civile et d’autres communautés du monde entier au service de notre mission. » Selon OpenAI et d’autres chercheurs qui étudient cette technologie émergente, les enjeux en matière de sécurité sont immenses. « Le développement actuel de l’IA de pointe pose des risques urgents et croissants pour la sécurité nationale », a déclaré un rapport commandé par le département d’État américain en mars. « L’essor de l’IA avancée et de l’AGI « a le potentiel de déstabiliser la sécurité mondiale d’une manière qui rappelle l’introduction des armes nucléaires. »Les sonnettes d’alarme d’OpenAI font également suite au coup d’État de l’année dernière qui a brièvement évincé le PDG Sam Altman. Le conseil d’administration a déclaré qu’il avait été démis de ses fonctions en raison de son incapacité à « communiquer de manière constante », ce qui a donné lieu à une enquête qui n’a guère rassuré le personnel.Lindsey Held, porte-parole d’OpenAI, a déclaré au Post que le lancement de GPT-4o « n’a pas fait de concessions » sur la sécurité, mais un autre représentant anonyme de l’entreprise a reconnu que le délai d’examen de la sécurité avait été réduit à une seule semaine. « Nous sommes en train de repenser toute notre façon de procéder », a déclaré le représentant anonyme au Post. « Cela ce n’est tout simplement pas la meilleure façon de procéder.En savez-vous plus sur ce qui se passe à l’intérieur d’OpenAI ? J’adorerais discuter avec vous. Vous pouvez me contacter en toute sécurité sur Signal @kylie.01 ou par e-mail à [email protected] aux controverses qui se succèdent (vous vous souvenez de l’incident Her ?), OpenAI a tenté d’apaiser les craintes avec quelques annonces opportunes. Cette semaine, elle a annoncé qu’elle s’associait au Los Alamos National Laboratory pour étudier comment des modèles d’IA avancés, tels que GPT-4o, peuvent contribuer en toute sécurité à la recherche bioscientifique, et dans la même annonce, elle a souligné à plusieurs reprises le bilan de sécurité de Los Alamos lui-même. Le lendemain, un porte-parole anonyme a déclaré à Bloomberg qu’OpenAI avait créé une échelle interne pour suivre les progrès réalisés par ses grands modèles de langage vers l’intelligence artificielle générale.Les annonces de cette semaine d’OpenAI concernant la sécurité semblent n’être qu’une façade défensive face aux critiques croissantes sur ses pratiques de sécurité. Il est clair qu’OpenAI est sur la sellette – mais les efforts de relations publiques ne suffiront pas à eux seuls à protéger la société. Ce qui compte vraiment, c’est l’impact potentiel sur ceux qui se trouvent au-delà de la bulle de la Silicon Valley si OpenAI continue à ne pas développer l’IA avec des protocoles de sécurité stricts, comme le prétendent ses membres en interne : le citoyen moyen n’a pas son mot à dire dans le développement de l’IAG privatisée, et pourtant il n’a pas le choix quant à son degré de protection contre les créations d’OpenAI.« Les outils d’intelligence artificielle peuvent être révolutionnaires », a déclaré Lina Khan, présidente de la FTC, à Bloomberg en novembre. Mais « à l’heure actuelle », a-t-elle ajouté, certains craignent que « les données critiques de ces outils soient contrôlées par un nombre relativement restreint d’entreprises ».Si les nombreuses allégations contre leurs protocoles de sécurité sont exactes, cela soulève sûrement de sérieuses questions sur l’aptitude d’OpenAI à jouer ce rôle de gardien de l’AGI, un rôle que l’organisation s’est essentiellement attribué à elle-même. Permettre à un groupe de San Francisco de contrôler une technologie susceptible de changer la société est un motif d’inquiétude, et il existe une demande urgente, même au sein de ses propres rangs, de transparence et de sécurité, aujourd’hui plus que jamais.

  • OpenAI est confronté à des problèmes de sécurité.
  • Les employés expriment des inquiétudes sur la sécurité du laboratoire.
  • Des critiques sont émises concernant les pratiques de sécurité.
  • Les annonces récentes d’OpenAI sur la sécurité sont perçues comme une tentative défensive.


FAQ

Quels sont les problèmes de sécurité d'OpenAI ?

OpenAI présente plusieurs problèmes de sécurité potentiels. Tout d’abord, son modèle GPT-3 peut être utilisé pour générer des contenus trompeurs ou des deepfakes. Ensuite, le manque de transparence concernant la collecte et l’utilisation des données pour entraîner ses modèles soulève des inquiétudes quant à la vie privée et à la protection des données personnelles. De plus, en raison de sa capacité à apprendre par elle-même, il existe un risque que ses décisions puissent être biaisées ou discriminatoires, reflétant ainsi les préjugés humains existants dans les données. Enfin, OpenAI utilise également une infrastructure informatique coûteuse qui pourrait potentiellement creuser davantage l’écart technologique entre les grandes entreprises et les petites startups.

Quels sont les problèmes de sécurité d'Azure et OpenAI ensemble ?

L’utilisation d’Azure et OpenAI ensemble peut poser des problèmes de sécurité comme les fuites de données sensibles, les attaques par injection de code malveillant ou encore l’utilisation abusive des ressources cloud. Des mesures de protection telles que la sécurisation des accès et le chiffrement des données doivent être mises en place pour prévenir ces risques. La complexité des infrastructures Azure peut également représenter un défi en matière de sécurité, car elle demande une expertise technique pouvant faire défaut chez certains utilisateurs d’OpenAI. Enfin, la collaboration entre plusieurs fournisseurs cloud peut aussi causer des problèmes en termes de gestion et de suivi des activités, rendant la détection et la réaction face à une éventuelle intrusion plus difficile.

Quel est le problème de sécurité avec l'API d'OpenAI ?

Le principal problème de sécurité avec l’API d’OpenAI est lié à la possibilité pour des utilisateurs malveillants de produire du contenu trompeur ou dangereux. En effet, cette API permet de générer du texte très réaliste à partir de quelques phrases d’entrée, ce qui peut être utilisé pour propager des fausses informations ou même manipuler les personnes qui le lisent. De plus, certaines fonctionnalités proposées par l’API peuvent également présenter des risques en termes de confidentialité et de vie privée. Pour y remédier, OpenAI a mis en place plusieurs mesures de sécurité telles que la vérification manuelle des utilisateurs et le filtrage du contenu généré par l’API. Cependant, cela reste un défi complexe car il est difficile de prévoir toutes les utilisations potentiellement nuisibles d’une telle technologie.

Quels sont les enjeux en matière de sécurité avec OpenAI ?

OpenAI soulève plusieurs enjeux en matière de sécurité, notamment celui de la divulgation involontaire d’informations sensibles ou confidentielles. En effet, l’utilisation des algorithmes développés par OpenAI peut permettre à des tiers d’accéder à des données personnelles sans l’autorisation de leurs propriétaires. De plus, les biais présents dans les programmes d’OpenAI peuvent avoir un impact sur leur prise de décision, pouvant ainsi mener à des résultats imprévisibles voire dangereux. L’un des grands défis pour OpenAI est donc de garantir la transparence et la responsabilité dans le développement et l’utilisation de ses technologies afin d’éviter les conséquences néfastes sur la sécurité humaine et informatique.

Pourquoi OpenAI n'est-il pas accessible ?

OpenAI n’est pas accessible car il s’agit d’une société privée qui ne propose pas ses services au grand public. De plus, OpenAI utilise des technologies et des algorithmes très avancés, qui nécessitent une expertise et des ressources importantes pour y accéder. Enfin, l’accès à OpenAI pourrait soulever des questions éthiques car ses outils peuvent être utilisés de manière inappropriée ou dangereuse par certaines personnes.

Categories: IA

Alexandre Duval

Alexandre Duval

S’abonner
Notification pour
guest

0 Commentaires
Le plus ancien
Le plus récent Le plus populaire
Commentaires en ligne
Afficher tous les commentaires
0
Nous aimerions avoir votre avis, veuillez laisser un commentaire.x