Intelligence artificielle et apprentissage automatique, technologies de nouvelle génération et développement sécurisé
- OpenAI met en place un comité de sécurité pour prendre des décisions critiques
- Le comité évaluera les processus et recommandera des améliorations
- Il comprendra des responsables techniques et politiques de l'entreprise ainsi que des experts externes
- Cette décision intervient après la démission du personnel clé et les critiques sur la sécurité de l'entreprise
Le comité intervient après la démission du personnel clé et les critiques de l'entreprise sur la sécurité Rashmi Ramesh (rashmiramesh_) – 28 mai 2024 OpenAI a mis en place un comité de sécurité après avoir apparemment dissous une équipe axée sur les risques à long terme posés par l'intelligence artificielle. (Image : Shutterstock)
OpenAI a mis en place mardi un comité chargé de prendre des décisions « critiques » en matière de sûreté et de sécurité pour tous ses projets, alors que le géant de la technologie commence à former son prochain modèle d'intelligence artificielle.
Voir également: Une discussion au coin du feu avec les équipes de réponse aux incidents et rouges de CyberArk
Le PDG Sam Altman et les membres du conseil d'administration Adam D'Angelo, Nicole Seligman et Bret Taylor dirigeront le comité, a indiqué la société. Au cours des trois prochains mois, l'équipe évaluera les processus et les garanties d'OpenAI et recommandera des améliorations. OpenAI partagera une mise à jour sur les recommandations qu'il choisit d'adopter « d'une manière compatible avec la sûreté et la sécurité ».
Le comité comprendra également des responsables techniques et politiques de l'entreprise, dont Aleksander Mądry, responsable de la préparation ; Lilian Weng, responsable des systèmes de sécurité ; John Schulman, responsable de la science de l'alignement ; Matt Knight, responsable de la sécurité ; et Jakub Pachocki, scientifique en chef. La société prévoit de consulter des experts externes en matière de sécurité et techniques, notamment l'ancien responsable de la cybersécurité de la Maison Blanche, Rob Joyce.
La formation du comité intervient après qu'OpenAI aurait dissous son équipe de sécurité de « superalignement » dédiée à empêcher les systèmes d'IA de devenir malveillants.
Les dirigeants de l'équipe de sécurité du superalignement – Ilya Sutskever et Jan Leike, co-fondateurs d'OpenAI – ont quitté l'entreprise en raison de leur mauvais alignement sur l'approche de la sécurité, tout comme la chercheuse en politiques Gretchen Kreuger.
Sutskever et Leike ont tous deux travaillé sur la gestion des risques de sécurité à long terme auxquels l'entreprise et la technologie sont confrontées, et Leike a critiqué le manque de soutien d'OpenAI à l'équipe de sécurité du superalignement dans une publication sur les réseaux sociaux. « Au cours des dernières années, la culture et les processus de sécurité ont été relégués au second plan face aux produits brillants », a déclaré Leike. Sutskever faisait partie des membres du conseil d'administration qui, en novembre, ont retiré Altman d'OpenAI pour le voir réintégré en tant que PDG cinq jours plus tard. Krueger a déclaré qu'elle avait décidé de démissionner quelques heures avant ses deux autres collègues, car elle partageait leurs préoccupations en matière de sécurité.
FAQ
Comment investir dans OpenAI ?
Pour investir dans OpenAI, il est tout d'abord nécessaire de se familiariser avec l'entreprise et ses activités afin de prendre une décision éclairée. Ensuite, il est possible d'acheter des actions directement via certaines plateformes en ligne ou de passer par un courtier. Il est également possible d'investir dans OpenAI à travers des fonds d'investissement spécialisés dans les technologies et l'intelligence artificielle.
N'oubliez pas de toujours diversifier votre portefeuille pour minimiser les risques.
Quelle est la déclaration de sécurité de Microsoft pour OpenAI ?
La déclaration de sécurité de Microsoft pour OpenAI est axée sur la transparence et la responsabilité. Cela signifie que toutes les décisions prises par l'IA développée en collaboration avec OpenAI seront expliquées de manière claire et compréhensible, et que Microsoft s'engage à assumer toute responsabilité en cas d'événements imprévus liés à ces technologies.
De plus, Microsoft s'engage à respecter les normes éthiques élevées en matière de développement et d'utilisation de ces technologies tout en veillant à la protection des données personnelles des utilisateurs. Enfin, la déclaration souligne également l'importance de travailler avec une diversité d'experts afin d'intégrer différents points de vue dans le processus créatif.
Quels sont les problèmes de sécurité avec OpenAI ?
OpenAI présente plusieurs problèmes potentiels en termes de sécurité. Tout d'abord, il existe un risque que les algorithmes développés par OpenAI soient utilisés à des fins malveillantes, tels que la manipulation de l'opinion publique ou le détournement de données confidentielles.
De plus, le contenu généré par la plateforme peut être trompeur ou dangereux s'il est mal exploité. Enfin, la combinaison de différentes technologies et l'évolution constante des outils peuvent rendre difficile la détection et la prévention des éventuelles failles de sécurité.
Comment utiliser OpenAI dans Microsoft Teams ?
Pour utiliser OpenAI dans Microsoft Teams, il faut tout d'abord installer l'application OpenAI pour Teams via le Store. Ensuite, il suffit de cliquer sur « Nouveau message » dans l'équipe ou le canal où vous souhaitez utiliser OpenAI et choisir l'option « OpenAI » dans la barre de menu en bas. Vous pouvez ensuite commencer à écrire vos commandes pour obtenir des prédictions générées par l'intelligence artificielle d'OpenAI.
Enfin, n'oubliez pas de sauvegarder les réponses qui vous semblent pertinentes afin qu'elles puissent être utilisées ultérieurement par votre équipe.
Comment déployer OpenAI dans Teams ?
Pour déployer OpenAI dans Teams, il faut d'abord s'assurer que tous les utilisateurs ont un compte Microsoft. Ensuite, il suffit de suivre les instructions fournies par OpenAI pour se connecter à l'API depuis Teams.
Une fois l'API configurée, elle sera disponible dans l'onglet « Apps » de la fenêtre de discussion pour tous les membres de l'équipe. Enfin, il est possible d'utiliser des commandes slash pour interagir avec OpenAI directement depuis Teams.