OpenAI dit qu’il s’agit de former le prochain modèle de frontière, selon un communiqué de presse de mardiet espère que cela rapprochera la start-up des systèmes d’intelligence artificielle qui sont généralement plus intelligents que les humains. La société a également annoncé un nouveau comité de sûreté et de sécurité pour guider les décisions critiques en matière de sûreté et de sécurité, dirigé par le PDG Sam Altman et d’autres membres du conseil d’administration d’OpenAI.
« Bien que nous soyons fiers de construire et de publier des modèles qui sont à la pointe du secteur en termes de capacités et de sécurité, a déclaré OpenAI dans un communiqué de presse. . «Nous nous félicitons d’un débat vigoureux à ce moment important.»
L’annonce fait suite à un mois tumultueux pour OpenAI, au cours duquel un groupe dirigé par Ilya Sutskever et Jan Leike qui ont effectué des recherches Les risques de l’IA existentiels pour l’humanité ont été dissous.Helen Toner et Tasha McCauley, anciens membres du conseil d’administration d’OpenAI, ont écrit dimanche dans The Economist ces développements et d’autres à la suite du retour d’Altman. ”de mauvais augure pour l’expérience OpenAI en auto-gouvernance.” Plusieurs employés préoccupés par la sécurité ont également quitté l’entreprise au cours des derniers mois, dont beaucoup ont appelé à les dangers des systèmes d’IA.
Ce nouveau groupe semble être la tentative d’OpenAI de répondre à ces craintes, et la première tâche du groupe sera d’évaluer les processus et les mesures de protection d’OpenAI. au cours des 90 prochains jours. Cependant, l’inclusion d’Altman dans ce groupe est peu susceptible d’apaiser les critiques d’OpenAI. Toner et McCauley écrivent que les seniors Les dirigeants leur ont dit qu’Altman cultivait « une culture toxique du mensonge » à OpenAI. ScarlettJohanssonsemblait remettre en question la fiabilité d’Altman alors que l’entreprise créait une voix qui lui ressemblait.
Altman, le président Bret Taylor et les membres du conseil d’administration Adam D’Angelo et Nicole Seligman dirigeront le comité de sûreté et de sécurité. Le nouveau chef de l’entreprise Le scientifique Jakub Pachocki siégera également au comité aux côtés des chefs de département Matt Knight, John Sculman, Lilian Weng et Aleksander Madry. Le groupe consultera également des experts externes et fera des recommandations au plus grand conseil d’administration d’OpenAI sur les procédures de sécurité.
Courant mai, l’entreprise a également publié GPT-4 Omni, qui a présenté une nouvelle frontière dans l’interaction humaine avec les modèles d’IA. Ce modèle a choqué de nombreuses dans la communauté de l’IA avec son mode multimodal en temps réel interactions, et il semble qu’OpenAI va déjà devant la formation du prochain. la start-up d’Altman est faite face à une pression de rivaliser avec Google pour Gagnez un partenariat avec un chatbot IA avec Apple, qui devrait en grande partie être dévoilé au cours du mois de juin WWDC. Le partenariat pourrait être l’un des accords commerciaux les plus importants dans le technologique.
Cela dit, la nouvelle équipe de sécurité d’OpenAI est en grande partie composée de membres du conseil d’administration recrutés après le retour d’Altman à OpenAI et de nouveaux chefs de département. qui ont reçu plus de pouvoir à la suite de récents départs. Le nouveau groupe de sécurité est un petit pas vers la résolution des problèmes de sécurité qui affligent OpenAI, mais le rassemblement d’initiés ne semble pas suffisant pour faire taire ces inquiétudes.