• MAMMAM IA!
  • Posts
  • L’humanité éradiquée par l’IA dans moins de 30 ans ?!

L’humanité éradiquée par l’IA dans moins de 30 ans ?!

Selon le pionnier de l’intelligence artificielle, Geoffrey Hinton, la technologie pourrait détruire l’humanité d’ici moins de 30 ans. Il estime que le risque que cette catastrophe se produise est de 10% à 20%...

👋 Chers Dancing Queens et Super Troupers,

A-t-on déjà vu une créature se laisser contrôler par une autre moins intelligente ? C’est la question que pose Geoffrey Hinton, pionnier du Deep Learning et lauréat du prix Nobel de physique. 

Selon lui, l’intelligence artificielle va surpasser l’être humain au point d’échapper à notre contrôle et de nous anéantir. Il prédisait déjà cette catastrophe, mais a revu ses estimations à la hausse.

Désormais, il estime qu’il y a jusqu’à 1 chance sur 5 qu’elle se produise… et ce d’ici seulement 30 ans au grand maximum ! 

Alors, certes, la technologie progresse vite, mais comment les choses pourraient-elles mal tourner à ce point ? Plusieurs actualités de cette semaine peuvent nous donner des indices… 

Le géant de l’IA, OpenAI, vient d’annoncer se défaire de son statut d’organisme de recherche pour devenir une entreprise lucrative. 

Alors que son objectif était jusqu’à présent de développer l’IA pour qu’elle profite au plus grand nombre, il s’agira désormais de gagner le maximum d’argent.  

Se pourrait-il qu’elle abandonne toute considération éthique et que ChatGPT devienne maléfique ? 

Quand bien-même ce n’était pas le cas, des chercheurs viennent de découvrir une technique simple comme bonjour pour « jailbreaker » l’IA et neutraliser toutes ses barrières de sécurité. 

Si un groupe terroriste découvre une telle technique, il pourrait exploiter l’IA pour créer des bombes ou des armes chimiques et causer de graves dégâts… 

La menace pourrait aussi venir de Chine, à l’instar de la startup DeepSeek qui vient de lancer un modèle IA totalement open-source dont les performances surpassent GPT-4o. 

N’oublions pas non plus la nouvelle plateforme de simulation Genesis, permettant d’entraîner les robots 430 000 fois plus vite que dans le monde réel ! Comment garder le contrôle face à une telle accélération ?

En espérant que la prédiction de Geoffrey Hinton ne se réalise pas, penchons-nous plus en détail sur ces innovations et autres actualités avec le programme de la semaine !

👉️ Le parrain de l’IA redoute qu’elle nous extermine ☠️

👉️ L’argent 🤑 est la nouvelle priorité d’OpenAI

👉️ DeepSeek dévoile une IA 👾 open source qui surpasse GPT-4o

👉️ Les chercheurs dévoilent une technique pour 🔓 jailbreaker l’IA

👉️ Genesis : le simulateur qui entraîne les robots 🤖 430 000 fois plus vite

Si on t’a transféré cette lettre, abonne-toi en cliquant sur ce lien !

⚡ Tu n’as qu’une minute ?

  • Geoffrey Hinton, l’un des pionniers de l’intelligence artificielle, craint que l’IA se retourne contre l’humanité et l’extermine d’ici seulement 30 ans… 

  • OpenAI ne veut plus faire dans l’humanitaire. La startup dévoile son plan pour devenir lucrative, et faire de l’argent sa nouvelle priorité ! 

  • Le Chinois DeepSeek lance une intelligence artificielle totalement ouverte, dont les performances surpassent même GPT-4o

  • Les chercheurs d’Anthropic, Oxford et Stanford ont créé un algorithme permettant de jailbreaker les intelligences artificielles pour abaisser toutes leurs barrières de sécurité…

  • Le simulateur Genesis permet d’entraîner les robots à accomplir des tâches physiques, 430 000 fois plus vite que dans le monde réel.

🔥 Tu as quinze minutes ?

1️⃣ Le parrain de l’IA redoute qu’elle nous extermine

Le résumé : Geoffrey Hinton, célèbre « parrain de l’IA », tire la sonnette d’alarme ! Selon lui, l’intelligence artificielle pourrait menacer l’humanité dans les trois prochaines décennies. Avec des chances estimées entre 10 et 20 %, la question devient urgente : comment éviter une catastrophe annoncée ?

Les détails :

  • Probabilité d'extinction : Hinton, co-lauréat du prix Turing, estime qu'il y a une chance sur cinq que l'IA devienne incontrôlable et représente une menace existentielle.

  • Développement plus rapide que prévu : Hinton prévient que dans les 20 prochaines années, nous pourrions développer des IA plus intelligentes que les humains. Et une fois ce cap franchi, la technologie pourrait échapper à tout contrôle humain.

  • Contrôle humain remis en question : Pour lui, l’humanité pourrait devenir aussi vulnérable qu’un enfant de trois ans face à une intelligence bien supérieure.

  • La réglementation comme seul rempart : Alors, il appelle à une intervention gouvernementale stricte, estimant que les entreprises ne priorisent pas la sécurité face aux profits. Selon lui, une « main invisible » ne suffira pas pour garantir un développement sécurisé de l’IA.

Pourquoi c'est important : Ces avertissements, bien qu'alarmants, sont une occasion de réfléchir à la manière dont nous développons et utilisons l'intelligence artificielle. Si des figures comme Hinton tirent la sonnette d’alarme, c’est pour éviter un avenir où l’IA pourrait échapper à tout contrôle humain. Cependant, d’autres experts, comme Yann LeCun, soutiennent que l’IA pourrait au contraire sauver l’humanité. Alors, qui a raison ?

2️⃣ L’argent est la nouvelle priorité d’OpenAI

Le résumé : OpenAI annonce sa transformation en société d’intérêt public (PBC) d’ici 2025. Ce modèle hybride vise à équilibrer mission humanitaire et impératifs financiers pour développer une IA au service de tous. Valorisée à 157 milliards de dollars, OpenAI doit lever davantage de fonds pour rester compétitive face à des concurrents investissant des centaines de milliards dans l’IA.

Les détails :

  • Nouvelle structure PBC : OpenAI combinera profit et mission sociale. Une partie des bénéfices sera dédiée à des initiatives dans la santé, l’éducation et la science, tandis que des actions ordinaires seront proposées aux investisseurs.

  • Valorisation massive : Lors de son dernier financement, OpenAI a été estimée à 157 milliards de dollars, mais prévoit de lever encore plus pour soutenir son pivot stratégique.

  • Investissements nécessaires : Le besoin croissant de puissance de calcul et d’innovation exige des financements traditionnels. Depuis 2019, Microsoft a investi plus de 1 milliard de dollars, devenant un partenaire clé.

  • Critiques et litiges : Elon Musk, qui a initialement investi 44 millions de dollars, reproche à OpenAI d’avoir dévié de sa mission initiale. Il tente de bloquer la restructuration et l’accord exclusif de Microsoft sur GPT-4.

  • Un procès en cours : L’audience pour rejeter le procès n’aura lieu qu’en mai 2025.

Pourquoi c’est important : Avec cette restructuration, OpenAI ambitionne de devenir un acteur incontournable, capable de développer une IA bénéfique pour tous. Mais peut-on vraiment concilier profit et bien commun ? La réponse viendra peut-être en 2025, lorsque cette nouvelle structure prendra forme.

3️⃣ DeepSeek dévoile une IA open source qui surpasse GPT-4o

Le résumé : DeepSeek présente DeepSeek V3, un modèle d’IA doté de 671 milliards de paramètres, qui surpasse GPT-4 et Llama 3.1. Avec ses performances exceptionnelles et un coût de formation réduit, ce modèle redéfinit les capacités des solutions open source. Une révolution technologique… à surveiller de près !

Les détails :

  • Une puissance sans précédent : DeepSeek V3, avec ses 671 milliards de paramètres, écrase des géants comme GPT-4o ou Llama 3.1. Il réussit brillamment des tâches complexes, comme le codage avancé et l'intégration de nouveaux scripts.

  • Formation rapide et économique : Étonnamment, ce modèle a été entraîné en seulement deux mois et pour un coût modeste de 5,5 millions de dollars. Cela prouve qu'il est possible de rivaliser avec des budgets bien inférieurs à ceux des leaders actuels.

  • Accessibilité et flexibilité : Distribué sous licence ouverte, il peut être téléchargé et modifié à volonté. Cela facilite son adoption pour des projets variés, aussi bien personnels que commerciaux.

  • Des limites imposées : Toutefois, en raison de son origine chinoise, ses réponses sont alignées avec les directives gouvernementales. Il évite ainsi des sujets jugés sensibles, ce qui peut limiter son usage dans certains contextes.

Pourquoi c'est important : Il s’agit sans aucun doute d’une avancée majeure dans l’univers des modèles IA. Depuis que l’open source a émergé, peu de modèles ont atteint un tel niveau. En effet, DeepSeek V3 montre qu’innovation et accessibilité peuvent coexister...

4️⃣ Les chercheurs dévoilent une technique pour jailbreaker l’IA

Le résumé : Les chercheurs d’Anthropic, en collaboration avec Oxford et Stanford, démontrent que jailbreaker les modèles d’intelligence artificielle est toujours possible et facile à automatiser. Grâce à l’algorithme Best-of-N (BoN), des systèmes comme GPT-4o ou Claude 3.5 peuvent être contournés avec des taux de réussite dépassant 50 % en seulement 10 000 variations.

Les détails :

  • Le BoN Jailbreaking : Cet algorithme modifie de manière répétée les invites avec des variations (majuscule, grammaire altérée…) jusqu’à obtenir une réponse interdite.

  • Taux de réussite élevés : Plus de 50 % de succès sur des modèles tels que Claude 3.5, GPT-4o ou Gemini, après 10 000 variations.

  • Impact multimodal : Les chercheurs démontrent que des modifications dans l’audio ou les images (bruit ajouté, arrière-plans colorés…) permettent aussi de contourner les sécurités.

  • Des failles exploitées : Par exemple, des noms mal orthographiés ou des scénarios ambigus permettent de générer du contenu non consensuel, comme des images ou des voix clonées.

Pourquoi c'est important : Ces découvertes montrent que les systèmes de sécurité des IA, même complexes, restent fragiles face à des méthodes automatisées. La question n’est pas seulement de savoir si les IA peuvent être utilisées à des fins malveillantes... mais à quelle vitesse ces menaces s’intensifient ! Il devient crucial de développer des solutions robustes, car l’équilibre entre innovation et éthique est plus que jamais en jeu.

5️⃣ Genesis : le simulateur qui entraîne les robots 430 000 fois plus vite

Le résumé : Genesis, une plateforme de simulation open source, promet d'accélérer la formation des robots IA avec des vitesses 430 000 fois plus rapides que la réalité. Grâce à cette technologie, un système d'IA peut acquérir 10 ans d'expérience en seulement une heure !

Les détails :

  • Un bond technologique impressionnant : Genesis atteint une vitesse record de 43 millions d'images par seconde, grâce à un traitement parallèle boosté par GPU. En termes simples, cela correspond à une accélération de 430 000 fois par rapport au temps réel.

  • Création de mondes virtuels : Grâce à des modèles de langage visuel (VLM), Genesis génère des environnements 3D réalistes et interactifs à partir de descriptions textuelles.

  • Des capacités polyvalentes : Elle simule aussi des mouvements complexes, manipule des objets et modélise le comportement de robots souples dans des conditions réelles.

  • Accessibilité : Genesis est entièrement open source et utilisable avec du matériel standard, avec un code disponible sur GitHub.

Pourquoi c’est important : Genesis pourrait devenir le berceau virtuel de l’IA robotique incarnée, selon Jim Fan, chercheur chez Nvidia. En effet, la plateforme permet de tester et d’affiner des milliers de robots dans un espace sécurisé, avant leur déploiement dans le monde réel.

❤️ L’outil de la semaine : OpenAI o1 Pro

Le résumé : Pour débuter les 12 jours d’annonces de son événement Shipmas, OpenAI a lancé le modèle o1 en version complète. Cette IA impressionne par sa capacité à raisonner, à répondre rapidement et à analyser des images !

À quoi ça sert ?

  • Jusqu’à présent disponible en preview sur ChatGPT, o1 est enfin proposée en version complète par OpenAI. Son taux d’erreur à été de réduit de 34% lorsqu’il s’agit de résoudre des problèmes du monde réel. 

  • Cette IA multimodale peut traiter des images, ce qui lui permet par exemple d’analyser des graphiques et des diagrammes ou d’annoter des visuels. 

  • Ses réponses sont plus rapides et plus précises, et sa productivité est fortement accrue pour les tâches de programmation, d’analyse de données ou de recherche. 

  • Disponible dès à présent pour les abonnés à ChatGPT Plus et Team, le modèle sera bientôt proposé pour les abonnés aux versions Enterprise et Education. 

  • OpenAI vient également de lancer un nouvel abonnement ChatGPT Pro, destiné aux utilisateurs ayant d’importants besoins en puissance de calcul et des cas d’usage très complexes. Son prix ? 200 dollars par mois ! 

  • L’abonnement Pro offre un accès illimité à GPT-4o, o1, o1 Mini et aux outils Advanced Voice.

  • Le mode Pro de o1 fournit une fenêtre de contexte à 128 000 tokens et se révèle plus fiable pour les problèmes difficiles. Sur les différents benchmarks, elle atteint 80% en maths sur AIME et 74% en science sur GPQA Diamond.

💙 Le mème de la semaine : l’IA a des progrès à faire avant de surpasser l’humain…

Même si Geoffrey Hinton est très inquiet de la vitesse à laquelle l’intelligence artificielle évolue, celle-ci a encore de gros points faibles. 

Par exemple, pendant tout un match de football, une caméra IA a suivi le crâne chauve de l’arbitre en le confondant avec le ballon…

Envoyez-nous vos images, chansons et autres œuvres d’art générées par IA à l’adresse [email protected] ! Chaque semaine, nous en choisirons une qui sera intégrée dans la newsletter en créditant son créateur !

A votre avis, l'IA va-t-elle éradiquer l'humanité ?

Connexion ou S'abonner pour participer aux sondages.