Principal entreprise Elon Musk et Steve Wozniak craignent que les «leaders technologiques non élus» détiennent trop de pouvoir

Elon Musk et Steve Wozniak craignent que les «leaders technologiques non élus» détiennent trop de pouvoir

Quel Film Voir?
 
  Sam Altman dans une chemise verte.
Le PDG d'OpenAI, Sam Altman. Le Washington Post via Getty Images

Un groupe croissant de leaders technologiques et d'informaticiens, dont Elon Musk et le cofondateur d'Apple Steve Wozniak , appellent OpenAI et d'autres laboratoires d'intelligence artificielle pour suspendre la formation A.I. des systèmes plus avancés que GPT-4, le dernier modèle de langage derrière le générateur de texte ChatGPT.



Dans un lettre ouverte intitulé 'Pause Giant A.I. Experiments », publié hier (28 mars) par l'Institut à but non lucratif Future of Life, A.I. les entreprises sont invitées à rédiger un ensemble partagé de protocoles de sécurité autour de l'I.A. avancée. développement avant de créer des logiciels plus puissants qui peuvent présenter des dangers pour l'humanité.








La lettre a recueilli plus de 1 000 signatures d'entrepreneurs, d'universitaires et d'investisseurs influents, dont Elon Musk, Steve Wozniak, le candidat à la présidentielle de 2020 Andrew Yang, l'auteur israélien Yuval Noah Harari, l'informaticien Yoshua Bengio, entre autres.



Le succès de ChatGPT a déclenché une course parmi A.I. petites et grandes entreprises à développer des systèmes toujours plus puissants que même leurs créateurs ne peuvent comprendre ou contrôler.

'L'IA avancée pourrait représenter un changement profond dans l'histoire de la vie sur Terre, et devrait être planifiée et gérée avec un soin et des ressources proportionnés. Malheureusement, ce niveau de planification et de gestion ne se produit pas », indique la lettre.






'Nous devons nous demander : devrions-nous automatiser tous les emplois, y compris ceux qui sont épanouissants ?' Cela a continué. « Devrions-nous développer des esprits non humains qui pourraient éventuellement être plus nombreux, plus intelligents, plus obsolètes et nous remplacer ? Devrions-nous risquer de perdre le contrôle de notre civilisation ? De telles décisions ne doivent pas être déléguées à des leaders technologiques non élus.



Inquiétude croissante concernant l'I.A. à usage général.

I.A. Les systèmes sont souvent décrits comme une technologie de boîte noire dont, une fois lancée, personne ne sait exactement comment elle fonctionne. Alors que de nouveaux logiciels comme ChatGPT deviennent apparemment capables d'effectuer de nombreuses tâches humaines, il y a une peur croissante du futur A.I. systèmes déjouant et se retournant contre leurs créateurs humains. C'est une préoccupation pour de nombreux leaders de l'industrie, y compris le créateur de ChatGPT.

« Une machine pourrait-elle décider que les humains sont une menace, conclure que ses intérêts sont différents des nôtres, ou simplement cesser de se soucier de nous ? Bill Gates a écrit dans un article de blog la semaine dernière. 'Ces questions deviendront plus pressantes avec le temps.'

Geoffrey Hinton, un professeur d'informatique salué comme ' le parrain d'A.I. ', a récemment déclaré A.I. progresse plus vite que la plupart des gens ne le pensent. 'Jusqu'à tout récemment, je pensais qu'il faudrait environ 20 à 50 ans avant que nous ayons une intelligence artificielle à usage général. Et maintenant, je pense que cela peut faire 20 ans ou moins », Hinton a déclaré à CBS News pendant le weekend.

stylos cbd vape pour l'anxiété

I.A. à usage général ou l'intelligence générale artificielle (AGI) sont des termes décrivant A.I. des systèmes capables de faire tout ce qu'un cerveau humain peut faire avec des limites sur la taille de la mémoire ou la vitesse.

Hinton pense qu'il est possible que les ordinateurs finissent par acquérir la capacité de créer des idées pour s'améliorer. 'C'est un problème … Nous devons réfléchir sérieusement à la façon dont vous contrôlez cela', a-t-il déclaré dans l'interview de CBS.

Fin février, le PDG d'OpenAI, Sam Altman, a écrit un article de blog abordant spécifiquement le problème AGI. 'À un moment donné, il peut être important d'obtenir un examen indépendant avant de commencer à former de futurs systèmes, et pour les efforts les plus avancés d'accepter de limiter le taux de croissance du calcul utilisé pour créer de nouveaux modèles', a déclaré Altman dans le post.

Les partisans du message du Future of Life Institute pensent que ce point est maintenant. 'A.I. les chercheurs devraient utiliser ce temps pour développer un ensemble partagé de protocoles de sécurité pour l'IA avancée. développement », indique la lettre ouverte. 'Cela ne signifie pas une pause sur A.I. développement en général, simplement un pas en arrière de la course dangereuse vers des modèles de boîtes noires imprévisibles toujours plus grands avec des capacités émergentes.

Le Future of Life Institute est une organisation à but non lucratif basée à Cambridge, dans le Massachusetts, qui promeut l'utilisation éthique et responsable de l'IA avancée. L'organisation est à l'origine d'un engagement signé en 2018 par Musk et les cofondateurs de DeepMind, un A.I. laboratoire appartenant à Google, promettant de ne jamais développer de robots tueurs à des fins de guerre.

Articles Que Vous Aimerez Peut-Être :