Passer au contenu
Tech

Après l’explosion d’OpenAI, il semble assez clair que la « sécurité de l’IA »n’est pas une chose réelle

Alors que le chaos d’OpenAI touche à sa fin, le développement de l’IA ne sera plus jamais le même.
Par

Temps de lecture 9 minutes

Bienvenue dans AIThis Week, le tour d’horizon hebdomadaire de Gizmodo où nous examinons en profondeur ce qui se passe dans le domaine de l’intelligence artificielle.

Eh bien, putain de merde. En ce qui concerne l’industrie technologique, il est difficile de dire s’il y a déjà eu une série d’événements plus choquants. que celles qui ont eu lieu au cours des derniers jours. L’intrigue du palais et le drame de la salle de réunion de L’éviction de Sam Altman par le conseil d’OpenAI (et son réintégration victorieuse plus tôt aujourd’hui) restera sans aucun doute dans l’histoire comme l’un des épisodes les plus explosifs jamais arrivés à Silicon Valley. Cela dit, le les retombées à long terme de cet incident captivant seront forcément beaucoup moins agréables que le spectacle initial de celui-ci.

Le « coup d’État », comme beaucoup l’ont appelé, a été largement attribué à un désaccord idéologique entre Sam et le conseil d’administration d’OpenAI. le rythme du développement technologique dans l’entreprise. Ainsi, selon ce récit, le conseil d’administration, qui est censé avoir le dernier mot sur le direction de l’organisation, était préoccupé par la vitesse à laquelle Altman poussait pour commercialiser la technologie, et a décidé de l’expulser avec des préjugés extrêmes. Altman, qui a par la suite été soutenu par le puissant partenaire et financeur d’OpenAI, Microsoft, également comme la majorité du personnel de la startup, a ensuite mené un contre-coup d’État, poussant les traîtres et de se réinstaller en tant que dirigeant de l’entreprise.

Une grande partie du drame semble tourner autour de la dispute entre Altman et le conseil d’administration au sujet de la « sécurité de l’IA ». dans l’histoire de l’entreprise ressemble à une poussée de deux personnalités opposées d’OpenAI : l’une basée sur la recherche et le développement technologique responsable, et l’autre basé sur le fait de gagner beaucoup d’argent. Un côté a décidément dominé l’autre (indice : c’était le côté de l’argent).

D’autres écrivains ont déjà proposé pannes sur la façon dont la structure organisationnelle unique d’OpenAI semble l’avoir mis sur une trajectoire de collision avec elle-même. Peut-être avez-vous vu la start-up organigramme flottant sur le Web, mais, au cas où ce ne serait pas le cas, voici un bref récapitulatif : contrairement à presque toutes les autres entreprises technologiques qui existent, OpenAI est en fait, une organisation à but non lucratif, entièrement régi par son conseil d’administration, qui exploite et contrôle une entreprise à but lucratif. Cette conception est censée donner la priorité à la mission de l’organisation de rechercher le bien public plutôt que l’argent. OpenAI propre description de soi promeut cette notion idéaliste, en affirmant que son objectif principal est de rendre le monde meilleur, et non de gagner de l’argent :

Nous avons conçu la structure d’OpenAI (un partenariat entre notre organisation à but non lucratif d’origine et une nouvelle branche à but lucratif plafonnée) comme un châssis pour la mission d’OpenAI : construire des un renseignement général (AGI) qui est sûr et qui profite à l’ensemble de l’humanité.

En effet, la charte du conseil d’administration doit son allégeance à « l’humanité », et non à ses actionnaires. Ainsi, malgré le fait que Microsoft a investi une mégatonne d’argent et de ressources dans OpenAI, le conseil d’administration de la start-up est toujours (hypothétiquement) censé avoir le dernier mot sur ce qui arrive à ses produits et à sa technologie. l’entreprise qui fait partie de l’organisation est vaudrait desdizaines de milliards de dollars. Comme beaucoup l’ont déjà noté, la mission éthique de l’organisation semble être entre directement en conflit avec les intérêts économiques de ceux qui avait investi dans l’organisation.

Tout cela étant dit, vous pourriez faire valoir que nous ne devrions pas encore approuver pleinement cette interprétation, car les véritables raisons de la décision d’Altman l’éviction n’a toujours pas été rendue publique. Pour la plupart, les membres de l’entreprise soit je ne parle pas sur les raisons pour lesquelles Sam a été expulsé ou a été expulsé catégoriquement nié que son éviction avait quelque chose à voir avec la sécurité de l’IA. Des théories alternatives ont tourbillonné entre-temps, certaines suggérant que les vraies raisons car la sortie agressive d’Altman était décidément plus colorée, comme les accusations qu’il recherché un financement supplémentaire via les régimes autocratiques du Moyen-Orient.

Mais s’embourber trop dans des spéculations sur les catalyseurs spécifiques du drame d’OpenAI, c’est ignorer ce que tout l’épisode a définitivement révélé : En ce qui concerne la Silicon Valley, la « sécurité de l’IA » n’existe pas. En effet, nous savons maintenant que, malgré structure organisationnelle et sa mission déclarée de développement responsable de l’IA, OpenAI n’allait jamais être autorisé à réellement faire passer l’éthique avant l’argent.

Pour être clair, la sécurité de l’IA est un domaine très important, et si elle était réellement pratiquée par les entreprises américaines, ce serait le cas. super. Cela dit, la version qui existait chez OpenAI, sans doute l’une des entreprises qui a j’ai fait le plus pour pour suivre un modèle orienté sur la « sécurité » – ne . En termes encore plus francs, les gens qui ont été ordonnés avec une gestion responsable de cette nouvelle et puissante technologie ne semblent pas avoir savaient ce qu’ils faisaient. Ils ne semblent pas avoir compris que Sam avait toutes les connexions dans l’industrie, les amis en haut lieu. , était très apprécié, et que se déplacer contre lui dans un monde où ce genre de capital social est tout équivalait à un suicide de carrière. Si vous venez chez le roi, vous feriez mieux de ne pas le rater.

En tant que tel, si le but de la sécurité de l’IA est de protéger l’humanité contre une IA en fuite, alors, en tant que stratégie pour y parvenir, il vient en fait de rater son premier grand test. Pourquoi ? Parce qu’il est assez difficile de mettre sa foi dans un groupe de personnes qui n’étaient pas et même capables de prédire le résultat très prévisible qui se produirait lorsqu’ils renverraient leur patron. Comment, exactement, un tel groupe peut-il être chargés de superviser une technologie soi-disant « super-intelligente » qui bouleversera le monde ? Si vous ne parvenez pas à déjouer un groupe d’investisseurs indignés, alors vous nous ne pouvons probablement pas déjouer l’entité de type Skynet que vous prétendez construire. Cela dit, nous ne pouvons pas non plus faire confiance aux lâches et obsédés par l’argent. C-suite qui a maintenant réaffirmé sa dominance. Ils évidemment ne fera pas la bonne chose. Ainsi, en réalité, l’humanité est coincée entre le marteau et l’enclume.

Alors que le conflit issu de la poussière d’OpenAI s’installe, il semble que l’entreprise soit bien placée pour reprendre ses activités comme d’habitude. largage les deux seules femmes à son bord, a ajouté la société. le fiscaliste Larry Summers. Altman est de retour dans l’entreprise (tout comme l’ancien président de l’entreprise Greg Brockman, qui a démissionné en solidarité avec Altman), et de Microsoft haut dirigeant, Satya Nadella, a dit que il est “encouragé » par les changements apportés au tableau OpenAI et a déclaré que c’est une “première étape essentielle sur la voie d’une meilleure stabilité, eh bien une gouvernance éclairée et efficace.

Avec l’échec du conseil d’administration, il semble clair que les bienfaiteurs d’OpenAI pourraient non seulement avoir retardé leur propre mission de « sécurité », mais ont également déclenché une réaction violente contre le mouvement pour l’éthique de l’IA au sens large. Exemple concret : le drame de ce week-end semble s’être encore plus radicalisé. une idéologie anti-sécurité déjà assez radicale qui circulait dans le business. Le des « accélérateurs efficaces » (en abrégé « e/acc ») croient que des éléments comme les réglementations gouvernementales supplémentaires, l’« éthique technologique » et la « sécurité de l’IA » sont tous des obstacles pesants à un véritable développement technologique et un profit exponentiel. Au cours du week-end, alors que le récit sur la « sécurité de l’IA » émergeait, certains des plus fervents adhérents de ce système de croyance a pris à X à dénoncer ce qu’ils ont perçu comme une attaque sur la véritable victime de l’épisode (le capitalisme, bien sûr).

Dans une certaine mesure, l’intérêt de l’adoption par l’industrie technologique de « l’éthique » et de la « sécurité » est de rassurer. les technologies qu’ils vendent peuvent être déconcertantes et perturbatrices ; ils veulent rassurer le public sur le fait qu’ils font de leur mieux pour protéger les consommateurs et société. En fin de compte, cependant, nous savons maintenant qu’il n’y a aucune raison de croire que ces efforts permettront un jour de Cela fera une différence si « l’éthique » de l’entreprise finit par entrer en conflit avec son argent. Et quand ces deux choses n’ont-elles jamais été en conflit ?

Question du jour : Quel était le meilleur mème OpenAI ?

Screenshot: X/pinatafarms
Screenshot: X/pinatafarms

Cette semaine imbroglio sans précédent a inspiré tant de mèmes que la possibilité de choisir un favori semble presque impossible. Immédiatement après l’éviction d’Altman, il y a eu beaucoup de Mèmes du complot de Rust Cohl qui circulait alors que le monde de la technologie se démenait pour comprendre exactement de quoi il était témoin. Il y avait aussi des blagues à ce sujet. qui devrait remplacer Altman et qu’est-ce qui a pu causer la lutte pour le pouvoir en premier lieu. Puis, comme il devenait clair que Microsoft serait derrière le PDG évincé, le récit — et les mèmes ont été décalés. Sam le triomphant revient à OpenAI après avoir évincé le genre est devenu populaire, tout comme des tonnes de Mèmes liés à Satya Nadelle. Il y avait Succession mèmes. Enfin, un genre inévitable de mèmes a émergé dans lequel les internautes s’est moqué du tableau OpenAI pour avoir si totalement raté le coup d’État contre Altman. J’ai personnellement trouvé cela vidéo deepfake qui remplace le visage d’Altman par celui de Jordan Belfort dans Le loup de Wall Street pour être un bon. Cela dit, parlez-en dans les commentaires avec votre favori.

Plus de titres de cette semaine

L’autre société d’IA qui a eu une très mauvaise semaine. OpenAI n’est pas la seule entreprise technologique à avoir traversé des épreuves cette semaine. Cruise, la société de robot-taxi appartenant à General Motors, est et cela a également été assez difficile. Le fondateur et PDG de l’entreprise, Kyle Vogt, résigné lundi après que l’État de Californie ait accusé l’entreprise de ne pas divulguer des détails clés liés à un incident violent avec un piéton. Vogt a fondé l’entreprise en 2013 et l’a dirigée vers une place importante dans le secteur du voyage automatisé. déploiement de véhicules à San Francisco en août, cela a provoqué une consternation généralisée et de nombreuses plaintes de la part des habitants de la ville et des responsables de la sécurité publique. Les scandales de Cruise ont conduit l’entreprise à se retirer. tous ses véhicules hors des routes en Californie en octobre et puis éventuellement d’arrêter les opérations dans tout le pays.

MC Hammer est apparemment un grand fan d’OpenAI. Pour ajouter à l’étrangeté de cette semaine, nous avons aussi découvert que le rappeur « U Can’t Touch This » MC Hammer est un a confirmé OpenAI stan. Mercredi, alors que le chaos de la lutte de pouvoir de cette semaine prenait fin, le rappeur tweeté: « Salut et félicitations aux 710 plus@OpenAI des membres de l’équipe qui ont fait une démonstration sans précédent de loyauté, d’amour et d’engagement envers @sama et @gdb en ces temps périlleux, c’était une chose de beauté d’en être témoin.

Les créatifs perdent la guerre des droits d’auteur sur l’IA.Le procès de Sarah Silverman contre OpenAI et Meta ne se passe pas très bien. Cette semaine, il a été révélé que le procès du comédien contre le Les géants de la technologie (qu’elle accuse de violations de droits d’auteur) ont perdu. Silverman n’est pas seul. Une poursuite déposée par un nombre d’artistes visuels contre Midjourney et Stability AI était presque jeté dehors par un juge le mois dernier. Cela dit, même si ces poursuites semblent échouer, il pourrait s’agir simplement de trouver le un argument juridique approprié pour qu’ils réussissent. Même si les revendications actuelles ne sont peut-être pas assez fortes, les cas pourrait être révisé et reclassé.

Ce contenu a été traduit automatiquement à partir du texte original. En raison des nuances de traduction, il peut y avoir de légères différences.Pour la version originale, cliquez-ici.

Partager cet article