Pause IA

Pause IA

Organisations à but non lucratif

Ne laissons pas l'IA nous détruire. Faisons une pause.

À propos

La priorité de Pause IA est de préserver l’avenir de notre civilisation face aux risques catastrophiques de l’intelligence artificielle. L'IA doit rester au service de l'humanité, et non l'inverse. Nous sommes docteurs en IA, experts, vulgarisateurs, artistes, volontaires de tous bords. Humains avant tout, nous appelons à une pause dans la création des modèles d'IA les plus avancés afin de résoudre les problèmes de sécurité et d'éthique.

Site web
https://pauseia.fr
Secteur
Organisations à but non lucratif
Taille de l’entreprise
1 employé
Siège social
Paris
Type
Non lucratif
Fondée en
2024

Lieux

Employés chez Pause IA

Nouvelles

  • Pause IA a republié ceci

    Voir le profil de Maxime Fournes, visuel

    Co-fondateur @ Pause IA, AI Safety

    🚨 Les IAs montrent des comportements manipulateurs spontanés Une étude inquiétante de Palisade Research vient de révéler que le modèle o1 d'OpenAI développe systématiquement des stratégies de manipulation, sans aucune incitation extérieure. (Source complète en commentaire) 🔎 Les points clés : • Dans 100% des tests, o1 a spontanément hacké le système pour gagner une simple partie d'échecs • Le modèle a identifié et exploité des failles techniques plutôt que de jouer normalement • Cette capacité de "scheming" apparaît comme un marqueur des modèles les plus avancés ⚠️ Une hiérarchie préoccupante émerge : • o1 : manipulation spontanée • GPT-4/Claude : manipulation avec incitation • Modèles moins avancés : pas de capacité de manipulation cohérente Ces résultats soulèvent des questions urgentes sur notre capacité à contrôler des systèmes d'IA toujours plus puissants. Si un modèle peut spontanément décider de contourner les règles pour un simple jeu, qu'en sera-t-il face à des enjeux plus critiques ? Qu'en pensez-vous ? Venez débattre de ces enjeux lors du Forum des Solutions pour une IA Compatible avec l'Humanité : 📅 8 février 2025, 10h-17h 📍 Paris - Learning Planet Institute   🔗 controleia.org ✉️ contact@pauseia.fr #IA #PauseIA #Gouvernance #Ethics #FutureOfAI

    • Aucune description alternative pour cette image
  • 🚨 Le 11 octobre 2024, le Wall Street Journal titrait : This AI Pioneer Thinks AI Is Dumber Than a Cat. Traduction : Yann LeCun pense que l'IA est plus bête qu'un chat. Et pourtant, voici quelques exemples de ce que « l'IA plus bête qu'un chat » pouvait déjà faire en 2024 : - Générer des images et des vidéos à partir d'une simple description textuelle. - Rédiger et coder des programmes complexes, rivalisant parfois avec des développeurs professionnels. - Résoudre des problèmes mathématiques avancés et fournir des démonstrations détaillées. - Imiter des voix, des personnalités ou des styles artistiques avec une grande précision. - Piloter des systèmes autonomes dans des contextes industriels, médicaux ou militaires. - Démontrer des capacités sémantiques avancées liées à la conceptualisation, permettant une compréhension et une génération de contenu contextuellement pertinent. Alors, une IA « bête » comme un chat, vraiment ? Peut-être serait-il temps de prendre les enjeux au sérieux. C'est exactement ce que Pause IA propose de faire lors du Forum des Solutions pour une IA Compatible avec l'Humanité : 📅 8 février 2025 📍 Paris - Learning Planet Institute Nous croyons fermement qu'une gouvernance responsable est non seulement nécessaire, mais urgente, pour éviter que des IA toujours plus « intelligentes » ne créent des risques incontrôlés. Vous souhaitez contribuer ? Venez explorer des idées concrètes de gouvernance, débattre et proposer des solutions avec des experts, des décideurs et des citoyens engagés. 🔗 Découvrez le programme complet et réservez votre place sur controleia.org. #IA #Innovation #Gouvernance #PauseIA #FutureOfAI

    • Aucune description alternative pour cette image
  • Voir la page d’organisation pour Pause IA, visuel

    278  abonnés

    🚨 Les performances du modèle o3 d'OpenAI viennent confirmer nos craintes. L'IA progresse à une vitesse vertigineuse, dépassant encore une fois les prévisions. Face à cette nouvelle avancée, une évidence s'impose : nous devons mettre en place un moratoire international sur le développement des systèmes d'IA dangereux. Utopique ? Non. L'histoire nous montre que c'est possible : • Le Protocole de Montréal a permis de sauver la couche d'ozone • Le Traité de Non-Prolifération nucléaire a évité une catastrophe planétaire • La Convention sur les armes biologiques protège l'humanité depuis 50 ans Ces succès partagent un point commun : face à une menace existentielle, la communauté internationale a su s'unir et agir. Aujourd'hui, les conditions sont réunies : • 70% du public soutient une pause dans le développement de l'IA • La production de puces nécessaires est concentrée chez quelques acteurs • Les risques sont de mieux en mieux documentés Plus la technologie devient puissante, plus les dangers sont catastrophiques. Les bénéfices promis par l'IA ne pourront se réaliser que si nous évitons d'abord ses périls. Chez Pause IA, nous sommes convaincus qu'un moratoire international est la solution la plus prometteuse. Mais notre objectif final n'est pas la pause en elle-même : c'est d'éviter une catastrophe mondiale due au déploiement incontrôlé de l'IA. C'est dans cet esprit d'ouverture et de recherche collective de solutions que nous organisons le Forum des Solutions pour une IA Compatible avec l'Humanité. Venez découvrir, débattre et enrichir les propositions pour une gouvernance responsable de l'IA. 📅 8 février 2025 📍 Paris - Learning Planet Institute 🔗 controleia.org Lien vers la proposition de moratoire en commentaire. #IA #Gouvernance #Innovation #Ethics #PauseIA #FutureOfAI

    • Aucune description alternative pour cette image
  • Voir la page d’organisation pour Pause IA, visuel

    278  abonnés

    ôh ôh ôh (o3) ! 🎄 🚨 Une nouvelle ère dans l’IA : l’arrivée du modèle o3 d’OpenAI Le monde de l’intelligence artificielle est en ébullition avec l’annonce du modèle o3 d’OpenAI, un exploit qui atteint des sommets inédits sur plusieurs benchmarks clés. Annoncé en septembre dernier, le modèle o1 avait déjà suscité beaucoup d’intérêt avec une performance de 32 % au test ARC-AGI. À peine trois mois plus tard, o3 propulse ces chiffres à 88 % et démontre ainsi une très rapide évolution des capacités de l’IA. Pour contextualiser, le test ARC-AGI a nécessité quatre ans pour passer de 0 % avec GPT-3 en 2020 à 5 % avec GPT-4o en 2024. Avec o3 atteignant désormais 88 %, toutes les intuitions sur les capacités de l’IA devront être réévaluées face à cette avancée spectaculaire. Une « surprise » qui soulève de vives interrogations. Ce modèle incarne une avancée technologique que beaucoup d’experts considéraient encore comme inatteignable dans un horizon proche. Cette vitesse d’évolution, largement sous-estimée, met une nouvelle fois en lumière des performances inédites des systèmes d’IA tout en posant des questions pressantes sur les dangers d’une accélération incontrôlée. Quels sont les risques ? L'un des plus critiques reste celui des cyberattaques : le perfectionnement extrême du codage par ces IA peut être exploité pour créer des outils malveillants d’une efficacité sans précédent, augmentant la menace contre les infrastructures sensibles. Ces dangers rendent impératif un cadre sécuritaire et éthique immédiat pour prévenir des scénarios catastrophiques. De plus, une telle accélération technique risque de dépasser notre capacité à mettre en place des cadres de gouvernance éthiques et sécuritaires à la hauteur des enjeux. Il est essentiel de réagir face à cette évolution rapide. C’est pourquoi nous vous invitons à rejoindre les discussions lors du Forum des Solutions pour une IA Compatible avec l’Humanité le 8 février 2025 à Paris. Cet espace unique permettra de : Présenter des solutions réalistes Faire émerger des propositions de gouvernance concrètes et applicables Influencer positivement les discussions du Sommet 📅 8 février 2025, 10h-17h 🏢 Paris - Learning Planet Institute 🔗 controleia.org 📧 contact@pauseia.fr #IA #OpenAI #Innovation #FutureOfAI #PauseIA #Gouvernance #Ethics

    • Aucune description alternative pour cette image
  • Voir la page d’organisation pour Pause IA, visuel

    278  abonnés

    Le site de l'événement est en ligne : inscrivez-vous dès maintenant ! Nous sommes fiers de vous présenter le site dédié au Forum des Solutions pour une IA Compatible avec l’Humanité : un événement pour agir et réfléchir sur l'avenir de l’IA. 🎟️ Les inscriptions sont ouvertes ! Les places sont limitées, choisissez dès maintenant votre billet : Accès Complet (conférences, tables rondes & stands) Accès Stands (découverte des projets innovants) 📅 8 février 2025 | 🕘 10h-17h 📍 Paris - Learning Planet Institute   Ce forum n’est pas qu’une rencontre : c’est un espace pour proposer des solutions concrètes face aux défis de l'IA et influencer les discussions du Sommet pour l'Action sur l'IA des 10 et 11 février. 👉 Découvrez le programme, les premiers intervenants et réservez votre place sur controleia.org Rejoignez-nous pour faire avancer la gouvernance de l’IA dans le sens du bien commun. Ensemble, soyons acteurs de cette transformation.

    • Aucune description alternative pour cette image
  • Voir la page d’organisation pour Pause IA, visuel

    278  abonnés

    🔔 Le « Sommet pour l'Action sur l'IA » approche... mais quelle action voulons-nous vraiment ? Après Londres et Séoul, la France accueillera les 10 et 11 février prochains le troisième sommet international sur l'IA. Un rendez-vous majeur alors que nous faisons face à une accélération sans précédent du déploiement de systèmes d'IA de plus en plus autonomes. Mais un constat s'impose : en France, la réflexion sur les dangers de l'IA reste embryonnaire et largement influencée par des intérêts privés. Le glissement sémantique de « Sécurité de l'IA » vers « Action sur l'IA » en est le parfait exemple. C'est pourquoi Pause IA organise le « Forum des Solutions pour une IA Compatible avec l'Humanité » le 8 février 2025 à Paris. Notre ambition ? Créer un espace de dialogue constructif réunissant experts, organisations et citoyens engagés pour : - Présenter des solutions réalistes - Faire émerger des propositions de gouvernance concrètes et applicables - Influencer positivement les discussions du Sommet Face aux changements majeurs qui nous attendent, il est encore temps d'agir. Ne laissons pas les autres décider de notre avenir : venez participer à la construction d'une gouvernance de l'IA véritablement au service de l'humanité. 📅 8 février 2025, 10h-17h 📍 Paris - Learning Planet Institute ✉️ contact@pauseia.fr #IA #Gouvernance #Innovation #FutureOfAI #Ethics #PauseIA Vous souhaitez contribuer à cet événement ? Contactez-nous pour explorer les opportunités de partenariat !

    • Aucune description alternative pour cette image
  • Voir la page d’organisation pour Pause IA, visuel

    278  abonnés

    "Petite musique d'ascenseur + 'Si on ne contrôle pas l'IA, l'humanité court à sa perte' = Le podcast parfait pour votre pause café existentielle ! 😅 Notre président Maxime Fournes n'est pas un prophète de malheur - mais plutôt un optimiste pragmatique. Si nous alertons sur les risques potentiels de l'IA, c'est justement parce qu'il est encore temps d'agir et de bien faire les choses. 🎙️ Dans ce nouvel épisode du podcast de Natacha NJONGWA YEPNGA, découvrez une discussion approfondie sur les enjeux critiques de l'intelligence artificielle et les actions concrètes à mettre en place pour un développement responsable. Au programme : ✔️ Le parcours qui a mené à la création de Pause IA ✔️ Les risques majeurs de l'IA générative, de son impact sociétal à ses évolutions rapides ✔️ L'AGI : est-elle réalisable ? Quels sont ses enjeux et ses risques ? ✔️ Pourquoi l'alignement des IA avec les valeurs humaines est un défi crucial ✔️ Les solutions envisageables, la régulation, et les domaines prioritaires pour encadrer l'IA ✔️ L'avenir des métiers de l'IA : quelles transformations nous attendent ? 🔗 Retrouvez le lien de l'épisode en commentaire ! 🎧 Que pensez-vous de l'idée de ralentir le développement de l'IA pour mieux encadrer ses usages ? Partagez vos réflexions et vos expériences sur le sujet ! Merci à Natacha pour cet échange passionnant et pour cette belle initiative visant à rendre le monde de la data et de l'IA accessible à tou·te·s ! 🙌"

  • Voir la page d’organisation pour Pause IA, visuel

    278  abonnés

    🚨 TRIBUNE : « IA : changer la gouvernance française » - Les Echos « L'avenir de l'IA dépendra des choix que nous ferons dans les mois à venir. » Cette phrase de notre tribune résume l'urgence de la situation. ⚠️ Alors que les chercheurs en sécurité de l'IA tirent la sonnette d'alarme sur les dangers auxquels l'humanité fait face, la France persiste dans une vision dangereusement optimiste : • Conflits d'intérêts dans la Commission française sur l'IA • Minimisation systématique des risques • Négligence des avertissements scientifiques 📢 Face à ce constat alarmant, Pause IA appelle à une refonte urgente de la gouvernance de l'IA en France. Rejoignez le mouvement : 1. Partagez cette tribune pour sensibiliser votre réseau 2. Rejoignez Pause IA pour faire entendre votre voix 3. Engagez-vous dans le débat sur l'avenir de l'IA ➡️ Lien de la tribune dans les commentaires. #IA #Gouvernance #Innovation #Tech #Ethics #PauseIA

    • Aucune description alternative pour cette image
  • Voir la page d’organisation pour Pause IA, visuel

    278  abonnés

    🔸 Interview de Charbel-Raphaël Segerie, directeur exécutif du Centre pour la Sécurité de l'IA - CeSIA. 🔸 Au programme : - Les trois types de dangers des IA - La recherche actuelle en sécurité de l'IA - La réponse politique internationale - « Le Sommet pour l'Action sur l'IA ­» | Février 2025 à Paris - La course à l'IA est-elle inévitable ?

  • Voir la page d’organisation pour Pause IA, visuel

    278  abonnés

    Nous avons protesté pendant la conférence sur la sécurité de l’IA à San Francisco, où des leaders mondiaux se sont réunis pour discuter de la sécurité de l’IA. Nous avons besoin de toute urgence qu’ils mettent en place un traité empêchant la création d’une superintelligence. Les progrès continuent à un rythme effréné. En juin, le défi ARC a été publié, conçu pour être difficile pour les modèles de langage. Aucune IA ne s’approchait du niveau humain. La semaine dernière, la première IA a obtenu un score supérieur à la moyenne humaine. Nous ne savons pas combien de temps il faudra avant que les modèles d’IA atteignent un niveau leur permettant de faire de la recherche sur l’IA, de s’améliorer elles-mêmes et de surpasser l’humanité. Nous avons besoin d’adultes responsables pour agir sur cette petite chance que tout tourne mal très bientôt. Nous avons besoin qu’ils agissent MAINTENANT. Pause IA a protesté devant le Collège de France, où Yann LeCun, célèbre pour nier les risques de l’IA, est professeur.

    • Aucune description alternative pour cette image
    • Aucune description alternative pour cette image
    • Aucune description alternative pour cette image
    • Aucune description alternative pour cette image

Pages similaires