L'abandon cognitif, c'est le nom donné par les psychologues au fait de consulter une IA et d'adopter son avis, sans faire l'effort de se pencher sur le problème. Je vous explique.
Depuis les années 70, les psychologues distinguent deux modes de pensée :
➡️ Le système 1, rapide et automatique.
➡️ Le système 2, lent et analytique.
Un test psychologique, le CRT, a été conçu exprès pour mettre ces deux systèmes en tension. Il contient des questions où la première réponse qui vient à l'esprit est fausse (donc issue du système 1), tandis qu'en prenant le temps d'y réfléchir on trouve immédiatement la bonne réponse (avec le système 2).
Eh bien une équipe de chercheur a récemment refait l'expérience du test CRT, mais cette fois en laissant la possibilité aux participants de consulter un assistant IA s'ils le désiraient.
Résultats :
1️⃣ 50% des participants demandent immédiatement à l'IA
2️⃣ Parmi eux, 87% suivent l'avis de la machine.
3️⃣ Leur degré de confiance est de 77% s'ils ont utilisé l'IA contre 65% pour ceux qui ont répondu sans l'aide de la machine.
Autrement dit, la majorité des participants n'activent ni leur système 1 ni leur système 2. Ils s'en remettent immédiatement à l'IA – une sorte de système 0, si vous voulez. Les chercheurs appellent ça le "cognitive surrender", l'abandon cognitif.
C'est d'autant plus préoccupant que les participants qui ont utilisé l'IA affichent une confiance plus importante dans leur réponse, alors même que la subtilité de la question leur a échappée.
📚 Ref : Shaw et al (2026). Thinking—Fast, Slow, and Artificial: How AI is Reshaping Human Reasoning and the Rise of Cognitive Surrender.
Je suis développeuse web depuis une grosse quinzaine d’années. Les IA génératives sont en train de me dégoûter de mon métier.
Je déteste avoir le ventre qui se tord et la voix qui se brise quand j’essaie d’expliquer à quel point je les déteste. Alors j’écris, les yeux brillants.
Je déteste l’idée d’être dans cette industrie qui, globalement, continue d’utiliser ces outils. Chaque problème qu’ils posent, pris séparément, suffit à mes yeux pour s’en passer, et pourtant mes pairs continuent de les produire, de les défendre, de les utiliser. J’en ai marre de ne plus pouvoir faire trois pas dans le monde de la tech sans croiser un gars qui m’explique que tous les problèmes de l’IA sont causés par les utilisateurs qui ne savent pas s’en servir correctement.
Je suis dégoûtée.
C’est assez nouveau, en fait. Pourtant, je suis une femme qui a étudié en école d’ingénieurs et travaillé dans diverses boîtes d’informatique pendant seize ans : des dégoûtants, j’en ai côtoyés. Des machos, des violents, des alcoolisés, des vieux et des jeunes, avec et sans cravate. Curieux, en fait, que je n’aie pas été dégoûtée plus tôt, par ces dégoûtants tellement mieux payés que moi, comme tant d’autres femmes de la tech avant moi.
Mais les IA génératives, c’est différent.
Elles détruisent tout. L’environnement. L’humanité. Et, c’est là que ça devient personnel, elles détruisent très précisément ce que j’aime dans mon métier pour mieux me noyer dans le reste.
Personnellement je refuse de me servir des IA génératives ; je mesure la chance d’être mon propre employeur et d’avoir la liberté de refuser. Tant d’autres ont expliqué ce qui ne va pas avec les IA génératives. Je ne ferais que répéter. Je vais essayer de me concentrer ici sur ce qui m’a fait aimer ce métier.
De ce métier, et dans l’absolu, j’aime principalement trois choses : créer, apprendre et transmettre. Le métier de dev a ceci de sympathique — en tout cas il avait ceci de sympathique avant 2022 — qu’il permet de varier les plaisirs en permanence avec des petites combinaisons : apprendre en créant, créer pour transmettre, et apprendre en transmettant.
Peut-on battre les modèles de Google ou Meta avec seulement 4 GPU et une disquette Zip ? C’est le pari fou de notre invité.e qui nous explique comment le "Data Design" est en train de ringardiser le scraping massif du web. 🥖 L'IA qui tient sur une disquette : La fin du gigantisme ? Dans cet épisode, on plonge dans le coeur de l'IA souveraine : pourquoi la qualité des données (tokens) prime sur la quantité, et comment les Small Language Models (SLM) vont permettre de décentraliser l'intelligence. 🚀 Ce que vous allez apprendre :
- Baguettotron : Le modèle de 320M de paramètres qui raisonne mieux que des géants.
- Data Design vs Scraping : Pourquoi "nettoyer" la donnée ne suffit plus, il faut la concevoir.
- Le secret des données synthétiques : Comment éviter le "Model Collapse" (l'appauvrissement de l'IA).
- Souveraineté : L'enjeu des bibliothèques nationales et de l'Open Data face au pillage des "Shadow Libraries".
⏳ Timestamps pour naviguer : 00:00 — Jeu d'indices : qui est la pionnière de la tech française ? 04:38 — L'arnaque du "poids ouvert" : qu'est-ce qu'une IA vraiment Open Source ? 14:41 — Data Design : pourquoi Pleias mise sur la provenance plutôt que le scraping 24:11 — Baguettotron : l'IA performante qui tient sur une disquette Zip 36:01 — Small Language Models (SLM) : battre les géants avec seulement 4 GPU 52:00 — L'avenir décentralisé : IA locale, souveraineté et modèles de raisonnement SPOILER ALERT : pour en savoir plus sur notre invitée Anastasia Stasenko , CEO Pleias : https://www.linkedin.c... 🔗 Liens et ressources : Pleias : https://pleias.fr/ Modèles & Datasets : Retrouvez "Common Corpus" sur Hugging Face.
Some of you may be able to guess what’s been on my mind lately. In April 2010, film critic Roger Ebert made an infamous claim. He said, “Video games can never be art.” His blog post set off a firestorm of discussion, centered around the idea that he was an out-of-touch, old man who didn’t understand games. While I disagree profoundly with Mr. Ebert, he was an intelligent, articulate scholar, and had a better point than his clickbaity quote might imply.
Sandro Mancuso, Co-founder and Group CEO
AI is Changing How We Code
AI coding tools are completely changing the software development landscape. Developers now rely on tools like GitHub Copilot, Amazon CodeWhisperer, and ChatGPT to generate code, fix bugs, scaffold tests, and accelerate routine tasks. Code that once took hours can now be produced in minutes; sometimes seconds. Prompting is quickly becoming a core developer skill.
AI is here to stay. The promise is undeniable: higher output, faster delivery, and fewer repetitive tasks. But with this leap in speed, a deeper question emerges:
Are we building well - or just fast?
This article explores that question through the lens of Software Craftsmanship, offering a pragmatic perspective on how to embrace AI without sacrificing the principles that make great software possible.
Project
EcoLogits is a suite of open source tools for estimating the environmental footprint of generative AI models at inference. Based on life-cycle assessment principles, the project raises awareness about the direct environmental impacts of AI while empowering developers and organizations to build more sustainable AI-powered applications.
- Open & transparent – Code, methodology, and data are openly accessible.
- Ease of use – Emphasizes on seamless integration and user experience.
- Community-driven – Continuously built and improved collaboratively.
Découvrez l'article de Cognitive Realms : https://www.brandonsanderson.com/blog...
L'essor de l'IA, des grands modèles de langage et de l'art généré soulève des questions fascinantes. Les progrès réalisés jusqu'à présent nous incitent à nous interroger sur la nature de l'art et sur les raisons qui nous poussent à en créer. Brandon Sanderson explore l'émergence de l'art généré par l'IA, l'importance du processus artistique et les raisons de sa rébellion contre cette nouvelle frontière technologique et artistique.
« Oui, le message est clair : “Le voyage prime sur la destination”. C'est toujours le voyage qui prime. »
L'IA ne va pas nous remplacer : elle va nous rendre idiots.
Ya quelques phrases bien tournées qui valent le coup d'être citées
Les chatbots soignent la dépression, mais attention !
L’IA se révèle étonnamment efficace pour traiter l’anxiété et la dépression. Des études sérieuses montrent des résultats concrets.
Mais il y a un revers à la médaille : atteintes à la vie privée, dépendance et risque de remplacer le contact humain par du code.
Cet épisode analyse les points forts et les risques de la thérapie par IA, et explique pourquoi des millions de personnes y ont recours malgré tout.
Yanis Varoufakis et Tim Nguyen, chercheur chez Google DeepMind, débattent de l'essor des géants de la technologie, de la fin de la vie privée et de la corruption de la société.
Les géants de la technologie sont-ils hors de contrôle ?
De Karl Marx à Elon Musk, nombreux sont ceux qui ont affirmé qu'entre de bonnes mains, la technologie est une force libératrice et porteuse de bien. Mais cette idée est de plus en plus remise en question, des personnalités comme Obama et Tim Berners-Lee mettant en garde contre les graves menaces que représentent les géants de la technologie pour l'autonomie et la liberté. Par conséquent, nombreux sont ceux qui affirment aujourd'hui qu'il est nécessaire de se libérer des géants de la technologie et de leur caractère addictif. Mais on ignore si cela est réalisable. Les critiques affirment que les géants de la technologie, par le biais des algorithmes et des données, manipulent nos actions et nos choix dans tous les aspects de notre vie, si bien que l'autonomie humaine est déjà radicalement compromise. Se retirer est quasiment impossible. Des études de Cambridge montrent que les plateformes anti-technologie, prétendant lutter contre la dépendance aux géants de la tech, ne font souvent que la reproduire sous une autre forme.
Faut-il en conclure que la technologie a porté atteinte à notre liberté et que nous ne maîtrisons plus nos décisions et nos comportements ? Devons-nous faire évoluer les droits numériques pour résister à la manipulation et garantir l'autonomie, et cela fonctionnera-t-il ? Ou le démantèlement ou l'interdiction des géants de la tech pourrait-il faire partie de la solution, nous permettant de reconquérir notre autonomie ?
Yanis Varoufakis est un économiste, universitaire et homme politique de renommée mondiale. Son dernier ouvrage s'intitule « Technofeudalism: What Killed Capitalism ». Timothy Nguyen est un chercheur de premier plan en IA chez Google DeepMind et anime le podcast « The Cartesian Café ». Janne Teller est une auteure de romans, d'essais et de nouvelles saluée par la critique. Son œuvre aborde des thèmes existentiels à grande échelle, qui suscitent souvent des débats controversés. Animé par Shini Somara. L'Institut des Arts et des Idées présente des vidéos et des articles de penseurs d'avant-garde discutant des idées qui façonnent le monde, de la métaphysique à la théorie des cordes, de la technologie à la démocratie, de l'esthétique à la génétique. Abonnez-vous dès aujourd'hui ! https://iai.tv/subscribe?utm_source=Y...
HighYield x SemiAnalysis deep-dive into AI Datacenters, Gigawatt Megaclusters and the Hyperscaler race to AGI.
How AI Datacenters Eat the World. SemiAnalysis Datacenter Anatomy Series:
Part 1: https://semianalysis.com/2024/10/14/d...
Part 2: https://semianalysis.com/2025/02/13/d...
SemiAnalysis Datacenter Industry Model: https://semianalysis.com/datacenter-i...
- 0:00 Intro
- 1:52 Datacenter Origins
- 2:53 Datacenter Location
- 4:06 AI Datacenters
- 5:08 AI Datacenter - Connectivity
- 7:17 AI Datacenter – Compute & Rack Power
- 11:40 AI Datacenter – Air & Liquid Cooling
- 14:32 AI Datacenter – Critical IT Power
- 17:50 SemiAnalysis Datacenter Anatomy
- 18:58 Texas Datacenter Mystery
- 21:26 AI Hyperscalers, Gigawatt Megaclusters & Nuclear Power
- 26:09 Satellite Images & SemiAnalysis Datacenter Industry Model
- 28:24 The Future of AI Datacenters
Todo : il y a des bonnes citations à relever
The AI Bubble Is About to Pop
Sam Altman, the CEO of OpenAI, recently admitted that the AI boom might actually be a bubble — just like the Dot-com crash when trillions vanished almost overnight. Today, the world is pouring trillions into chips, data centers, and hype-fueled AI startups… but what happens when the returns don’t show up?
In this video, we break down exactly how the AI bubble formed — and what could happen when it bursts:
⏱ Chapters
0:00 Sam Altman’s Bubble Warning
0:52 Stocks Run on Vibes
1:47 Trillions Burned on Chips
2:49 The Energy Wall
3:58 The Tech Is Brittle
5:20 The Psychology Trap
6:37 The Venture Bubble Mechanics
7:23 What Survives After the Pop
8:00 Free Budget Tracker(Template)
From trillion-dollar spending and fragile tech to rising energy costs and companies chasing hype over results, this is the real story of the AI bubble — and what might be left standing after it pops.
👉 Do you think AI is the future, or is it already a bubble waiting to burst? Drop your thoughts in the comments.
If you enjoy deep dives into money, business, tech, and the economy, make sure to subscribe for more videos like this.
guys I just wanted to read about .glb files can we maybe not do this to the internet
How to watch, experience, and listen to "Generative AI is a Parasitic Cancer"
- Navigate to the website YouTube, and be sure to locate the video you want to watch, where the video is available for viewing. In addition, make sure the page is open and your intended video is visible in front of your eyes on your screen, whether it's a mobile device or a computer.
- Press play, in order to initiate the playback process. This starts the video, and you should see moving pictures as well as hear sounds.
- Adjust the included volume controls to make sure you can hear the video well
- YouTube Premium is revolutionizing video, and even offers an ad-free experience, to streamline your viewing experience like you've never seen before
Pros and Cons of "Generative AI is a Parasitic Cancer"
Pros
- "Generative AI is a Parasitic Cancer" provides a case study on search engines and the effect AI has had on its results, followed by a critical perspective on the ethics of AI from an emotional and personal standpoint
- Her argument is more from an emotional and storytelling perspective, rather than the usual financial or environmental claims about the issues of generative AI, which may provide new insight into why people may be against this technology.
- Freya managed to release a lower effort edited video, which means she's likely making progress on the crippling perfectionism which has thwarted several videos in the past
Cons
- Freya covers topics that may be considered depressing to some, including AI and mental health
- Unlike other videos on YouTube, this video does not contain the usual math content you may be used to
- The comment section for this video in particular is unlikely to be fruitful for furthering the topic of AI ethics
- The inflammatory title means this is likely low quality content
- The video lacks music, except for one place where she used a very outdated song she created as a student, for a game project that wasn't very well received by a jury of peers.
- The thumbnail contains a hand-manipulated version of an AI generated picture, originally found on google, which seems to suggest some level of hypocrisy on Freya's part, as well as not disclosing the original location of the green tentacle image at https://stablediffusionweb.com/image/...
- Freya and her cats make money based on clicks and direct support online, and is incentivized to make strong statements in order to build an audience of sycophantic supporters on her Patreon page / acegikmo , which is undermining her message about greed and profit motives
The Bottom Line
generative AI is a parasitic cancer
In Summary
we don't need this
In Conclusion
let's just not