Livraison gratuite sur les commandes supérieures à 25€Retours acceptés sous 30 jours.

Elon Musk et des leaders de la Tech intimant à une pause dans le boom de l’IA, invoquant des « risques profonds »

Elon Musk et des leaders de la Tech intimant à une pause dans le boom de l’IA, invoquant des « risques profonds », Boutique Multimédia

Dans une lettre ouverte publiée mardi, Elon Musk, ainsi qu’un certain nombre de figures du secteur de la high-tech et d’experts en IA, en informatique et dans d’autres disciplines, exhortent les principaux laboratoires d’intelligence artificielle à suspendre le développement de systèmes d’IA plus avancés que GPT-4, en invoquant des « risques profonds » pour la société humaine.

Publiée par l’organisation à but non lucratif Future of Life Institute, l’initiative compte 1 377 signatures à l’heure où nous écrivons ces lignes, dont celles d’Elon Musk, Steve Wozniak, cofondateur d’Apple, Yoshua Bengio, lauréat du prix Turing, et Yuval Noah Harari, auteur de Sapiens : une brève histoire de l’humanité. Le texte appelle un arrêt immédiat de la formation des systèmes pendant au moins six mois, qui doit être public, vérifiable et inclure tous les acteurs publics.

«
Les systèmes d’IA dotés d’une intelligence compétitive avec l’homme peuvent présenter des risques profonds pour la société et l’humanité, comme le démontrent des recherches approfondies et comme le reconnaissent les meilleurs laboratoires d’IA
», peut-on lire dans la lettre. «
Devrions-nous laisser les machines inonder nos canaux d’information de propagande et de mensonges ? Devrions-nous automatiser tous les emplois, y compris ceux qui sont gratifiants ? Devrions-nous risquer de perdre le contrôle de notre civilisation
? »

Une course à l’IA sans garde-fous

Cette lettre ouverte est publiée quelques semaines après la présentation de GPT-4 ‘OpenAI, le grand modèle de langage qui alimente la version premium du chatbot ChatGPT. GPT-4 peut gérer des tâches plus complexes et produire des résultats plus nuancés que les versions précédentes, et il est également moins sujet aux dérives de ces dernières, selon OpenAI, dont Elon Musk est l’un des fondateurs mais dont il s’est éloigné depuis 2018.

Lire aussi  OpenAI forme un partenariat informatique exclusif avec Microsoft pour créer de nouvelles technologies de supercalcul Azure AI

Les systèmes comme GPT-4 doivent être formés sur de grandes quantités de données qu’ils peuvent ensuite utiliser pour répondre à des questions et effectuer d’autres tâches. ChatGPT est capable, comme un humain, de rédiger des courriels professionnels, de planifier des itinéraires de voyage, de produire du code informatique et même d’obtenir de bons résultats à des tests tels que l’examen du barreau.

Sur son site web, OpenAI reconnaît la nécessité de veiller à ce que les systèmes technologiques qui sont « généralement plus intelligents que les humains » travaille dans l’intérêt de l’humanité. «
À un moment donné, il pourrait être important d’assurer un examen indépendant avant de commencer à anciens systèmes futurs, et pour les efforts les plus avancés d’accepter de limiter le taux de croissance du calcul utilisé pour créer de nouveaux modèles.
»

Les promoteurs de l’IA sont-ils capables de s’autoréguler ?

Depuis le début de l’année, une liste croissante d’entreprises, dont Google, Microsoft, Adobe, Snapchat, DuckDuckGo et Grammarly, ont annoncé des services qui tirent parti des compétences de l’IA générative.

Les recherches adaptées par l’OpenAI ont montré que ces compétences en matière d’IA comportent des risques. Les systèmes d’IA générative peuvent, par exemple, utiliser des sources non fiables ou, comme l’admet OpenAI, «
augmenter les problèmes de sécurité en prenant des mesures nuisibles ou involontaires, en développant les capacités des mauvais acteurs qui fraudent, induisent en erreur ou abusent d’autres personnes
».

Les experts en IA sont inquiets de la direction que tout cela pourrait prendre et par le fait que des entreprises se précipitent sur ce marché sans mesures d’encadrement ou sans même en comprendre les implications adéquates.

Lire aussi  L'économie californienne alimentée par la technologie en difficulté après la Première République, les malheurs du SVB - Daily News

«
L’IA avancée pourrait représenter un bouleversement profond dans l’histoire de la vie sur Terre, et devrait être planifiée et gérée avec le soin et les ressources nécessaires
», indique la lettre. «
Malheureusement, ce niveau de planification et de gestion n’existe pas, même si les derniers mois ont vu les laboratoires d’IA s’engager dans une course incontrôlée pour développer et réussir des esprits numériques toujours plus puissants que personne, pas même leurs créateurs , ne peut comprendre, prédire ou contrôler de manière fiable
. »

Article de CNET.com adapté par CNETFrance

Image Une : SOPA Images/Getty Images

Source by [author_name]

TOUS NOS ARTICLES SUR LE MULTIMEDIA

Nous serions ravis de connaître votre avis

Laisser un commentaire

Boutique Multimédia
Logo
Lorsqu’activé, enregistrer les permaliens dans paramètres - permaliens
Compare items
  • Total (0)
Compare
0