Joular Code - Java is a lightweight and efficient Java agent for monitoring the energy consumption of methods and execution branches at the source code level.
This project is part of Joular Code, and is the successor of JoularJX.
🚀 Features
Monitor power consumption and energy of each method and execution branch at runtime
Works as a Java agent — no source code instrumentation or modification needed
Samples the JVM stack at high frequency (default: every 10 ms) and attributes energy every second
Supports three power data source backends from Joular Core:
Shared memory ring buffer (IPC) — lowest latency, recommended
CSV file — file-based polling
HTTP endpoint — remote or containerized setups
Generates CSV files with per-method and per-branch power (Watts) and energy (Joules)
Produces two output sets: one for all methods (including JDK internals), one filtered to your application packages
Configurable method filtering by package/class prefix to focus energy data on your code
Cross-platform: Windows, macOS, Linux, and Raspberry Pi
Je construis des logiciels métiers sur-mesure pour les PME.
Ça tient à quoi tient la satisfaction du client vis-à-vis de sa consultante externe ?
C’est ma capacité en tant qu’apporteuse de solutions à comprendre comment travaille mon client, quels sont ses besoins, son environnement, pour lui apporter la solution sur mesure adaptée à son métier.
Au cours de mes missions d’ingénierie logiciel, savoir expliquer un concept technique dans le contexte du métier de mon client et me «mettre à sa place» est une des clés de cette réussite.
Cette capacité à comprendre le métier, à établir une communication fluide est tellement primordiale qu’elle a influencé ma théorie sur les conditions de succès d’un projet informatique. Vous avez envie de travailler avec moi ?
Les technologies web sont devenues matures et proposent aux développeuses et développeurs un ensemble d'API évoluées.
Je montrerai comment les mettre à profit pour livrer des applications performantes et résistantes à des conditions d’utilisation dégradées.
Je vous raconterai comment vivre et travailler à bord de mon voilier plusieurs mois par an, me permet d'expérimenter en conditions réelles ce qu'est un contexte contraint.
Je vous parlerai ensuite des questionnements qui émergent quand les apps doivent opérer sous des contraintes fortes : qu’est-ce que les designers peuvent apporter à la réflexion sur ce sujet.
Enfin, on traitera des options pour aborder cette approche avec nos clients et les convaincre.
Son site Web : https://alethgueguen.com/
Peut-on battre les modèles de Google ou Meta avec seulement 4 GPU et une disquette Zip ? C’est le pari fou de notre invité.e qui nous explique comment le "Data Design" est en train de ringardiser le scraping massif du web. 🥖 L'IA qui tient sur une disquette : La fin du gigantisme ? Dans cet épisode, on plonge dans le coeur de l'IA souveraine : pourquoi la qualité des données (tokens) prime sur la quantité, et comment les Small Language Models (SLM) vont permettre de décentraliser l'intelligence. 🚀 Ce que vous allez apprendre :
- Baguettotron : Le modèle de 320M de paramètres qui raisonne mieux que des géants.
- Data Design vs Scraping : Pourquoi "nettoyer" la donnée ne suffit plus, il faut la concevoir.
- Le secret des données synthétiques : Comment éviter le "Model Collapse" (l'appauvrissement de l'IA).
- Souveraineté : L'enjeu des bibliothèques nationales et de l'Open Data face au pillage des "Shadow Libraries".
⏳ Timestamps pour naviguer : 00:00 — Jeu d'indices : qui est la pionnière de la tech française ? 04:38 — L'arnaque du "poids ouvert" : qu'est-ce qu'une IA vraiment Open Source ? 14:41 — Data Design : pourquoi Pleias mise sur la provenance plutôt que le scraping 24:11 — Baguettotron : l'IA performante qui tient sur une disquette Zip 36:01 — Small Language Models (SLM) : battre les géants avec seulement 4 GPU 52:00 — L'avenir décentralisé : IA locale, souveraineté et modèles de raisonnement SPOILER ALERT : pour en savoir plus sur notre invitée Anastasia Stasenko , CEO Pleias : https://www.linkedin.c... 🔗 Liens et ressources : Pleias : https://pleias.fr/ Modèles & Datasets : Retrouvez "Common Corpus" sur Hugging Face.
Project
EcoLogits is a suite of open source tools for estimating the environmental footprint of generative AI models at inference. Based on life-cycle assessment principles, the project raises awareness about the direct environmental impacts of AI while empowering developers and organizations to build more sustainable AI-powered applications.
- Open & transparent – Code, methodology, and data are openly accessible.
- Ease of use – Emphasizes on seamless integration and user experience.
- Community-driven – Continuously built and improved collaboratively.
✦ TECHNICAL BEAUTY ✦
Episode 22: mc – Midnight Commander
- A computer science student in Mexico City writes a file manager. Thirty-one years later, it's still running. One pkg install on FreeBSD. One apt install on Debian. Available on anything with a C compiler and a pulse.
Miguel de Icaza built mc as a Norton Commander clone for Unix. Then he co-founded GNOME. Then Mono. Then Xamarin. Then Microsoft acquired it. The man kept rather busy. The file manager quietly kept working.
220,000 lines of C. One binary. 12 MB of RAM. Here's what you get for that:
■ Dual-panel file management
■ Built-in editor (mcedit) with syntax highlighting
■ Built-in viewer (mcview) and diff (mcdiff)
■ FTP, SFTP, SMB: browse remote servers as local directories
■ FISH: file transfer over SSH without SCP on the remote
■ Archive browsing: .tar.gz, .zip, .rpm, .deb as directories
Jeu video eco conçu en pixel art
L’inspirothèque d’un numérique plus écologique
Un site Vignette est en moyenne 95% plus efficient qu'un site classique grâce à une technologie novatrice exclusive optimisant son poids tout en bloquant l'accès au flot gigantesque de robots qui veulent s'emparer de vos métadonnées.
Découvrez la nouvelle génération de site internet dès maintenant !
L'ancien CTO d'Oculus réagit à un «exercice de pensée» sur une «apocalypse des CPU»
John Carmack, une célébrité dans le monde du développement de jeux vidéo et de la technologie, s'est souvent présenté comme un défenseur de l'optimisation logicielle. Ancien directeur technique d'Oculus VR et cofondateur d'id Software (une entreprise américaine de jeux vidéo qu'il a quitté en 2013), Carmack a redéfini ce que nous attendons d'un moteur de jeu et d'une expérience immersive. Récemment, il a lancé un débat audacieux qui pourrait bien bouleverser notre vision de l’évolution technologique : et si, en réalité, nous n’étions pas si dépendants du matériel dernier cri ?
Réagissant à un « exercice de pensée » publié sur le réseau social X (anciennement Twitter), qui parlait d’une « apocalypse des CPU », Carmack a exprimé son point de vue selon lequel le véritable problème n’est pas un manque de puissance des processeurs modernes, mais plutôt l'inefficacité des logiciels actuels. Si l’optimisation logicielle était traitée comme une priorité, il soutient que beaucoup plus de systèmes dans le monde pourraient fonctionner efficacement sur du matériel plus ancien, et ce, sans sacrifier la performance. En d’autres termes, les pressions du marché pousseraient les entreprises à améliorer drastiquement l'efficacité des logiciels si l'innovation matérielle s’arrêtait.