Daily Shaarli
April 10, 2026
Joular Code - Java is a lightweight and efficient Java agent for monitoring the energy consumption of methods and execution branches at the source code level.
This project is part of Joular Code, and is the successor of JoularJX.
🚀 Features
Monitor power consumption and energy of each method and execution branch at runtime
Works as a Java agent — no source code instrumentation or modification needed
Samples the JVM stack at high frequency (default: every 10 ms) and attributes energy every second
Supports three power data source backends from Joular Core:
Shared memory ring buffer (IPC) — lowest latency, recommended
CSV file — file-based polling
HTTP endpoint — remote or containerized setups
Generates CSV files with per-method and per-branch power (Watts) and energy (Joules)
Produces two output sets: one for all methods (including JDK internals), one filtered to your application packages
Configurable method filtering by package/class prefix to focus energy data on your code
Cross-platform: Windows, macOS, Linux, and Raspberry Pi
L'abandon cognitif, c'est le nom donné par les psychologues au fait de consulter une IA et d'adopter son avis, sans faire l'effort de se pencher sur le problème. Je vous explique.
Depuis les années 70, les psychologues distinguent deux modes de pensée :
➡️ Le système 1, rapide et automatique.
➡️ Le système 2, lent et analytique.
Un test psychologique, le CRT, a été conçu exprès pour mettre ces deux systèmes en tension. Il contient des questions où la première réponse qui vient à l'esprit est fausse (donc issue du système 1), tandis qu'en prenant le temps d'y réfléchir on trouve immédiatement la bonne réponse (avec le système 2).
Eh bien une équipe de chercheur a récemment refait l'expérience du test CRT, mais cette fois en laissant la possibilité aux participants de consulter un assistant IA s'ils le désiraient.
Résultats :
1️⃣ 50% des participants demandent immédiatement à l'IA
2️⃣ Parmi eux, 87% suivent l'avis de la machine.
3️⃣ Leur degré de confiance est de 77% s'ils ont utilisé l'IA contre 65% pour ceux qui ont répondu sans l'aide de la machine.
Autrement dit, la majorité des participants n'activent ni leur système 1 ni leur système 2. Ils s'en remettent immédiatement à l'IA – une sorte de système 0, si vous voulez. Les chercheurs appellent ça le "cognitive surrender", l'abandon cognitif.
C'est d'autant plus préoccupant que les participants qui ont utilisé l'IA affichent une confiance plus importante dans leur réponse, alors même que la subtilité de la question leur a échappée.
📚 Ref : Shaw et al (2026). Thinking—Fast, Slow, and Artificial: How AI is Reshaping Human Reasoning and the Rise of Cognitive Surrender.