OpenAI (ChatGPT) dissout l’équipe dédiée aux risques futurs liés à une « super IA »

Le logo d'openai

Après le départ de ses deux responsables, l'équipe d'OpenAI chargée de la sécurité d'une potentielle super intelligence artificielle (IA) a été dissoute et ses membres intégrés à d'autres groupes de recherche de l'entreprise.

Publié le 18-05-2024 par latribune.fr

L'annonce a suscité des inquiétudes. Après le départ de ses deux responsables, l'équipe d'OpenAI (ChatGPT) chargée de la sécurité d'une potentielle super intelligence artificielle (IA) a été dissoute et ses membres intégrés à d'autres groupes de recherche de l'entreprise. OpenAI a confirmé cette information vendredi à l'AFP, précisant que le changement de structure avait commencé il y a plusieurs semaines. L'inventeur de ChatGPT assure que les chercheurs chargés de la sûreté des modèles d'IA pourront ainsi travailler de concert avec les ingénieurs qui développent ces modèles.

Mais les deux responsables de l'ancienne équipe viennent de quitter la société star de la Silicon Valley. Jan Leike a expliqué vendredi sur X, anciennement Twitter, qu'il démissionnait à cause de désaccords fondamentaux avec les dirigeants sur les priorités de l'entreprise : l'innovation ou la sécurité. « Nous avons atteint un point de rupture », a indiqué l'ingénieur qui chapeautait l'équipe chargée du « Superalignement », c'est-à-dire de s'assurer qu'une future IA générale, aussi intelligente que les humains, soit alignée sur nos valeurs.

OpenAI promet une IA générale « sûre et bénéfique »

Sam Altman, le cofondateur et patron de l'entreprise basée à San Francisco, s'est dit « très triste de voir (Jan Leike) partir »« Il a raison, nous avons encore beaucoup à faire (pour la recherche sur l'alignement et la sécurité), et nous sommes déterminés à le faire », a-t-il ajouté, promettant un message plus lon

Lire la suite

Voir la suite...

Les dernières actualités