Vue normale

Reçu aujourd’hui — 2 janvier 2026

Lumen - L'IA qui écrit vos messages de commit et bien plus encore

Par :Korben
1 janvier 2026 à 13:41

Soyez honnêtes, c'est quoi votre dernier message de commit ? "fix", "update", "refactor" ou les grands classiques "Ça marche, on ne touche plus" ou "azertyuiop^$" ?

Si vous vous reconnaissez, alors Lumen va peut-être vous sauver la mise.

Lumen c'est un outil en ligne de commande écrit en Rust qui utilise l'IA pour vous aider à gérer votre workflow Git. En gros, vous stagez vos fichiers, vous lancez lumen draft et hop, l'IA analyse vos modifications pour générer un message de commit propre au format conventionnel. Fini les "fixed stuff" à 3h du mat.

Mais le truc va plus loin que ça puisque vous pouvez aussi lui demander d'expliquer un commit avec lumen explain HEAD (ou un hash, une plage de commits...). Pratique quand vous tombez sur du code écrit par vous-même il y a 6 mois et que vous n'y comprenez plus rien. D'ailleurs, y'a même une fonctionnalité de recherche interactive dans l'historique avec lumen list si vous avez fzf d'installé.

Et le plus cool, c'est la commande lumen operate. Vous lui décrivez en langage naturel ce que vous voulez faire genre "squash mes 3 derniers commits" et il vous génère la commande Git correspondante. Avec un warning si la commande est potentiellement destructrice et une demande de confirmation avant exécution, histoire de pas faire de bêtises.

Côté providers, c'est flexible... OpenAI, Anthropic Claude, Gemini, Groq, DeepSeek, Ollama pour du local, et d'autres encore... Vous configurez ça une fois avec lumen configure pour les commandes IA et c'est parti. Le diff viewer intégré est pas mal non plus (et lui fonctionne sans config), avec une vue côte à côte dans le terminal et la possibilité de naviguer entre les hunks.

L'installation se fait via Homebrew sur Mac/Linux avec brew install jnsahaj/lumen/lumen ou via Cargo si vous avez Rust. C'est open source sous licence MIT.

Perso, je trouve que c'est le genre d'outil bien pratique pour ceux qui galèrent avec leurs messages de commit ou qui passent leur temps à chercher des commandes Git obscures. Et le fait que ça tourne avec différents providers IA, y compris en local avec Ollama, c'est également un vrai plus pour ceux qui veulent pas envoyer leur code sur des serveurs externes.

A tester donc !

Source

Reçu avant avant-hier

Quand Tim Cook poste une image pour Noël, tout le monde perd ses nerfs...

Par :Korben
28 décembre 2025 à 22:14

Ça va ? Vous avez passé un bon Noël ? Bien mangé ? Les cadeaux étaient cool ? Tant mieux pour vous, car de son côté, Tim Cook, a passé le sien à se faire lyncher sur X parce qu'il a posté une illustration de lait et cookies pour promouvoir Pluribus , la nouvelle série Apple TV+.

Pourquoi me direz-vous ? Et bien parce que tout le monde est persuadé que c'est de la bonne vieille image générée par IA.

Faut dire qu'il y a pas mal d'indices qui sèment le doute... John Gruber de Daring Fireball a été le premier à tirer la sonnette d'alarme en pointant du doigt des détails bien chelous dans l'image. Le carton de lait affiche à la fois « Whole Milk » ET « Lowfat Milk » sur ses étiquettes. Comme si le designer avait voulu cocher toutes les cases en même temps ^^ Et le labyrinthe « Cow Fun Puzzle » sur le carton ? Ben il est impossible à résoudre. Enfin si, mais uniquement en passant autour du labyrinthe, pas dedans. C'est de l'IA tout craché.

D'ailleurs, Ben Kamens, un expert qui venait justement de publier un article sur les labyrinthes générés par IA, a confirmé que l'image présentait les « caractéristiques typiques » des IA qui galèrent avec ce genre de truc. Et Gruber a aussi fait remarquer qu'on ne voit jamais de puzzles sur des cartons de lait (qui sont cireux et difficiles à imprimer) mais plutôt sur des boîtes de céréales. Comme si l'IA avait mélangé deux concepts...

Apple TV+ a répondu en créditant un certain Keith Thomson comme artiste, précisant que l'œuvre avait été « créée sur MacBook Pro ». Sauf que personne n'a tagué ce Keith Thomson et quand Slashdot l'a contacté, le bonhomme a refusé de commenter spécifiquement le projet, se contentant de dire qu'il « dessine et peint toujours à la main et utilise parfois des outils numériques standard ».

Traduction : Un esquive de niveau olympique.

Le plus marrant dans tout ça c'est que Sundar Pichai de Google a posté une boule à neige générée par IA le lendemain avec le watermark Gemini bien visible, et tout le monde a trouvé ça « trop mignon ».

Deux poids deux mesures ^^

Maintenant y'a une théorie alternative qui circule. Certains pensent que les « erreurs » seraient en fait intentionnelles... Que ce serait des références à la série Pluribus elle-même qui parle d'une intelligence collective... Le message de Cook aurait en fait été adressé à « Carol », le personnage principal joué par Rhea Seehorn. Une sorte de méta-promotion qui aurait mal tourné ? J'y crois pas une seconde...

Je pense plutôt que Keith Thomson était en famille, qu'il avait autre chose à foutre, que de toute façon il déprime parce que Midjourney ou un autre sait reproduire son style à la perfection et qu'il s'est dit « Pourquoi je me ferais chier le cul à peindre des cookies de merde pour Apple alors que je suis en train de jouer aux Lego avec mes petits enfants ?« . Bah ouais, pourquoi ? Ce n'est qu'une théorie mais c'est la mienne...

Bref, que ce soit de l'IA, de l'art volontairement buggé pour la promo, ou juste un artiste qui a fait des choix bizarres, cette histoire illustre bien le climat actuel. Les gens sont tellement bombardés d'images IA et ont tellement rien à foutre de leurs journées qu'un vrai artiste avec 30 ans de carrière peut se retrouver accusé de « triche » à tort ou à raison, parce que son labyrinthe est mal foutu.

On est mal barré...

Source et Source

L'IA va-t-elle tuer les réseaux sociaux ?

Par :adis
27 décembre 2025 à 16:12

En lisant https://www.numerama.com/cyberguerre/2149633-les-utilisateurs-sont-fatigues-la-bouillie-generee-par-ia-est-elle-sur-le-point-de-tuer-son-premier-reseau-social.html, je me dis que oui, peut-être que les réseaux sociaux vont être submergés de contenus de mauvaise qualité et uns à uns abandonnés, surtout ceux qui font l'économie de la modération. Peut-être un renouveau du vrai Web, des blogs, des CMS, alimentés par de vrai personnes ? L'avenir de LinuxFR est-il assuré ?

Commentaires : voir le flux Atom ouvrir dans le navigateur

Comment les IA se nourrissent de livres piratés ?

Par :Korben
24 décembre 2025 à 16:27

Bibliotik ça vous parle ou pas ? C'est un tracker torrent privé ultra-discret comme il y en a tant d'autres, où les fans de lecture vont chopper leurs ePubs.

Hé bien figurez-vous que Meta, Bloomberg, et toute une brochette de géants de la tech ont fait exactement pareil pour entraîner leurs IA. Sauf qu'eux, c'était pas pour lire du Stephen King au lit, mais pour aspirer 195 000 livres d'un coup et les transformer en "données d'entraînement".

Le dataset s'appelle Books3, et c'est un peu le Napster des LLMs. Créé en 2020 par un chercheur IA nommé Shawn Presser, ce jeu de données de 37 Go compressés contient des bouquins scrapés directement depuis la bibliothèque pirate Bibliotik. L'idée de Presser était plutôt noble à la base puisqu'il voulait démocratiser l'accès aux données d'entraînement pour que les petits labos puissent rivaliser avec OpenAI et leurs mystérieux datasets "Books1" et "Books2" dont personne ne connaît le contenu.

Sauf que Books3 a fini par être intégré dans The Pile , un gros dataset de 825 Go créé par EleutherAI, et là ça a pris des proportions industrielles... Meta l'a utilisé pour entraîner LLaMA, Bloomberg pour BloombergGPT, et des dizaines d'autres projets. Le problème, c'est que ça contient des livres protégés par le copyright tels que des romans de Sarah Silverman, de George R.R. Martin, et même le bouquin de John Carreyrou sur Theranos, "Bad Blood". D'ailleurs Carreyrou vient de porter plainte avec d'autres auteurs contre six géants de l'IA dont Anthropic, Google, OpenAI, Meta, xAI et Perplexity.

Et comme vous vous en doutez, la défense de toutes ces entreprises c'est le fameux "fair use" des américains. En gros, ils disent que transformer des livres en vecteurs mathématiques pour qu'une IA apprenne à écrire, c'est pas du vol, c'est de l'apprentissage. Un peu comme quand vous lisez 500 bouquins et que ça influence votre style d'écriture. Sauf que vous, vous payez vos livres et vous avez un cerveau biologique alors que ces IA, elles, aspirent tout le web sans demander la permission à personne.

Et en juin dernier, deux juges californiens ont, sans surprise, tranché en faveur d'Anthropic et Meta sur certains points. Ils ont considéré que l'utilisation de livres protégés pour entraîner des modèles comme Claude ou Llama 2 pouvait constituer un usage "spectaculairement transformatif" donc légal. Par contre, télécharger les bouquins depuis des sites pirates, ça reste illégal... Bref, vous pouvez utiliser le butin, mais pas le voler vous-même...

De son côté, le sénateur américain Hawley n'a pas mâché ses mots en parlant du "plus grand vol de propriété intellectuelle de l'histoire américaine" et quand on voit que les auteurs ont touché environ 3000 dollars chacun dans le règlement de 1,5 milliard de dollars proposé par Anthropic alors que ces boîtes génèrent des milliards de revenus, je peux comprendre l'énervement.

Mais le pire, c'est qu'il existe des datasets alternatifs 100% légaux, ouverts, et utilisables sans risquer un procès !! J'ai par exemple découvert Common Corpus , et je kiffe le concept. C'est un projet coordonné par Pleias, une startup française, avec le soutien de HuggingFace, du Ministère de la Culture et de l'AI Alliance et ce dataset contient 500 milliards de mots, dont 180 milliards en anglais et 110 milliards en français.

Mais alors d'où viennent ces données légales ?

Hé bien du domaine public uniquement. Ce sont des millions de journaux américains qui ont été numérisés via le projet Chronicling America, des collections de patrimoine culturel, des monographies historiques...etc. Et tout a été vérifié pour s'assurer que les droits d'auteur sont bien expirés.. Donc dedans, y'a pas de livres piratés, ce qui veut dire pas de procès potentiels...etc.

Y'a aussi le dataset Dolma avec ses 3 trillions de tokens créé par l'Allen AI Institute, ou encore RedPajama qui atteint les 30 trillions de tokens, et ces projets sont open source avec tout le processus de construction documenté donc vous pouvez les auditer, les refaire, et les vérifier, contrairement aux datasets proprio où on vous dit "faites-nous confiance, on a rien fait de mal, hihihi".

Mais même si tout ces trucs open source ont l'air cool, le problème, c'est que personne (ou presque) ne les utilise parce que les vieux livres du domaine public, ça parle comme Molière ou Victor Hugo. Le vocabulaire est archaïque, les tournures de phrases sont datées... on dirait une discussion sur l'oreiller du couple Macron. Et vous l'aurez compris, un LLM entraîné là-dessus va avoir tendance à vous pondre du texte qui sent la naphtaline, alors que les livres modernes piratés, quand à eux, c'est du langage contemporain, des dialogues naturels, des références actuelles...etc.

C'est donc ça le dilemme... Choisir entre éthique ou performance. Les chercheurs de Mozilla et EleutherAI ont publié en janvier 2025 un papier sur les bonnes pratiques pour créer des datasets ouverts , et ils admettent eux-mêmes que c'est compliqué car les métadonnées sont pourries, la numérisation coûte une blinde, et il faut des compétences juridiques ET techniques pour faire les choses proprement.

Un autre paradoxe encore plus cruel c'est que les projets qui documentent proprement leurs sources deviennent des cibles faciles pour les procès. C'est comme ça que le groupe anti-piratage danois Rights Alliance a fait supprimer Books3 via des notices DMCA, forçant EleutherAI à nettoyer The Pile alors que pendant ce temps, OpenAI reste discret sur ses données d'entraînement et évite ainsi les ennuis. Faire les choses bien, ça vous expose alors que faire les choses en douce pour entrainer votre IA, ça passe tranquillou (même si ça n'immunise pas totalement contre les procès non plus, faut pas déconner).

Et de plus en plus de sites partout sur la toile, changent petit à petit leurs conditions d'utilisation pour interdire le scraping par les IA... Autant dire que le web ouvert se referme petit à petit, ce qui rend encore plus galère de construire des datasets éthiques...

Bref, on est dans une situation où les géants aspirent tout sans vergogne, et où les petits qui essaient de faire les choses proprement galèrent... Sans parler des auteurs qui se retrouvent à quémander 3000 balles pour des œuvres qui valent bien plus. Common Corpus et tous ces autres projets ouverts prouvent, certes, qu'on peut entraîner des IA sans piller le travail des autres, mais ça demande énormément plus d'efforts et ça donne des résultats incroyablement moins sexy...

Voilà, au final, la vraie question n'est donc pas technique, mais politique. Est-ce qu'on doit accepter qu'une machine qui lit pour transformer un livre en vecteur, c'est OK parce que grâce à ce petit sacrifice, on peut profiter d'IA (open source de préférence) de folie ? Ou est ce qu'on se dit que lire c'est du vol quand c'est une machine qui lit ? Et dans ce cas, on accepte d'avoir des IA qui cause comme Balzac... ?

Source

La Chine a maintenant des RoboCops qui règlent la circulation

Par :Korben
23 décembre 2025 à 11:00

En Chine, RoboCop c'est plus vraiment de la science-fiction puisque la ville de Hangzhou vient de déployer un robot humanoïde qui fait la circulation à un carrefour. Et je trouve ça un poil flippant ^^.

Ce robot qui s'appelle Hangxing-1 a commencé son boulot le 1er décembre dernier, à l'intersection de Binsheng Road et Changhe Road dans le district de Binjiang. Le truc mesure 1m80, il est équipé de caméras haute définition et de capteurs qui lui offrent une bonne vision de ce qui se passe autour de lui et il roule sur des petites roues omnidirectionnelles, affublé d'un uniforme haute visibilité avec des bandes de police. Bref, impossible de le louper.

Et son job, c'est de faire des gestes pour diriger les voitures, les scooters et les piétons. Les ingénieurs ont modélisé ses mouvements sur ceux de vrais policiers pour que ce soit bien standardisé et il peut siffler de manière électronique en synchro avec les feux de circulation. Et le truc marrant, c'est qu'il est capable de détecter les infractions en temps réel, comme les motards sans casque, les voitures qui dépassent la ligne d'arrêt ou encore les piétons qui traversent au rouge. Et quand il chope quelqu'un en flagrant délit, il balance un message vocal bien poli.

Bien sûr, on est en Chine, donc toutes les infractions sont logguées et envoyées direct dans la base de données de la police.

Côté autonomie, le robot peut tenir plusieurs heures sur une charge, ce qui couvre largement les heures de pointe et quand la batterie est à plat, il retourne tout seul au bistrot à sa station de recharge. La machine a été développée entièrement à Hangzhou, fruit d'une collab entre la police locale et des boîtes tech du coin.

D'après les premières observations locales, le respect des règles à ce carrefour se serait nettement amélioré depuis que le robot est en poste. Bon, y'a quand même des flics humains pas loin pendant cette phase test, au cas où les avertissements vocaux du robot ne suffiraient pas.

Hangxing-1 fonctionne pour l'instant dans deux modes : gestion du trafic et sensibilisation civique. Mais la ville prévoit de l'upgrader avec des capacités de langage naturel pour qu'il puisse donner des directions et répondre aux questions des passants. Le robot est d'ailleurs connecté au "City Brain" d'Alibaba, le système de gestion urbaine intelligent déployé à Hangzhou.

Et Hangzhou n'est pas la seule ville à jouer avec ces robots puisque Chengdu a déployé 5 robots policiers sur la place Tianfu, Mianyang utilise des chiens robots pour patrouiller dans les quartiers d'affaires, et Shenzhen teste des robots humanoïdes d'Engine AI qui serrent la main aux passants. Le gouvernement chinois veut clairement multiplier ce genre de déploiements.

Perso, je trouve ça plus mignon (et apparemment plus efficace) qu'un policier municipal même s'il ne faut pas oublier que ce robot vous filme, vous identifie, enregistre la moindre de vos infractions et les balance à la vraie police...

Ce monde commence sérieusement à ressembler à un épisode de Black Mirror.

Source

Clair Obscur perd son prix à cause de la vilaine méchante pas belle IA générative

Par :Korben
21 décembre 2025 à 21:46

Clair Obscur: Expedition 33, c'est le jeu français qui a explosé tous les compteurs aux Game Awards 2025 avec 9 prix sur 12 nominations dont le très convoité Game of the Year. Un carton monstre pour Sandfall Interactive, le studio indé français.

Toutefois un petit drama vient d'avoir lieu... Une autre cérémonie, les Indie Game Awards viennent de lui retirer ses deux prix (GOTY et Best Debut Game) parce que... roulement de tambours... le studio a utilisé de l'IA générative pendant le développement. Et histoire d'en rajouter une couche, lors de leur candidature aux IGA, ils auraient déclaré ne pas avoir utilisé de gen-AI.

Oups...

Pour être plus précis, des artistes du studio ont utilisé quelques images générées par IA en tant que placeholders visuels, le temps de créer les vraies textures à la main. C'est une pratique hyper courante dans le dev de jeux vidéo, mais le problème c'est que quelques posters avec des textures IA sont passés entre les mailles du filet et se sont retrouvés dans la version finale lors du lancement. Rien de dramatique, juste des affiches en arrière-plan dans la zone de départ du jeu que le studio a retirés dans un patch quelques jours après la sortie.

Mais voilà, les Indie Game Awards ont une politique anti-IA extrêmement stricte et leur règlement interdit l'utilisation de l'IA générative y compris dans le processus de développement. Du coup, même si les éléments IA ont été retirés rapidement, ça suffit à disqualifier le titre.

L'usage d'IA avait été mentionné par le producteur François Meurisse dans une interview à El País dès juin 2025, mais c'est seulement après la cérémonie du 18 décembre que les IGA ont réagi. Et 2 jours plus tard, ils annonçaient la rétractation des prix... C'est donc Blue Prince qui récupère le GOTY et Sorry We're Closed (gratuit pour 24h sur l'Epic Games Store) qui empoche le Best Debut Game.

Si vous êtes fan de Clair Obscur: Expedition 33, rassurez-vous, le jeu garde ses 9 prix aux Game Awards, dont le Game of the Year principal. Après si vous voulez mon avis, on nage quand même en plein délire car si on pousse cette logique, qu'est-ce qu'on fait des devs qui utilisent ChatGPT pour débugger du code ?

Pour moi, jeter Clair Obscur: Expedition 33 parce qu'ils ont utilisé un peu d'IA dans un cadre de développement uniquement, alors que ça n'a floué personne et que c'était purement technique pour faire un peu de remplissage en attendant les assets finaux, c'est comme disqualifier un film à Cannes parce que le scénariste a utilisé un correcteur orthographique ou refuser un Grammy Award parce qu'une chanson contient un sample...

Bref, IA ou pas, Clair Obscur reste un excellent jeu et j'ai hâte qu'on revienne au monde d'avant quand on jugeait les œuvres sur leurs qualités objectives.

Source

Comment Boston Dynamics compte construire un cerveau pour Atlas

Par :Korben
20 décembre 2025 à 07:38

Boston Dynamics que vous connaissez tous pour ses chiens robots tueurs de la mort, vient de sortir une vidéo de 40 minutes. Pas de saltos arrière ou de robots qui dansent mais plutôt une loooongue session où ça parle stratégie IA et vision à long terme. Et comme j'ai trouvé que c'était intéressant, je partage ça avec vous !

Zach Jacowski, le responsable d'Atlas (15 ans de boîte, il dirigeait Spot avant), discute donc avec Alberto Rodriguez, un ancien prof du MIT qui a lâché sa chaire pour rejoindre l'aventure et ce qu'ils racontent, c'est ni plus ni moins comment ils comptent construire un "cerveau robot" capable d'apprendre à faire n'importe quelle tâche. Je m'imagine déjà avec un robot korben , clone de ma modeste personne capable de faire tout le boulot domestique à ma place aussi bien que moi... Ce serait fou.

Leur objectif à Boston Dynamics, c'est donc de créer le premier robot humanoïde commercialement viable au monde et pour ça, ils ont choisi de commencer par l'industrie, notamment les usines du groupe Hyundai (qui possède Boston Dynamics).

Alors pourquoi ? Hé bien parce que même dans les usines les plus modernes et automatisées, y'a encore des dizaines de milliers de tâches qui sont faites à la main. C'est fou hein ? Automatiser ça c'est un cauchemar, car pour automatiser UNE seule tâche (genre visser une roue sur une voiture), il faudrait environ un an de développement et plus d'un million de dollars.

Ça demande des ingénieurs qui conçoivent une machine spécialisée, un embout sur mesure, un système d'alimentation des vis... Bref, multiplié par les dizaines de milliers de tâches différentes dans une usine, on serait encore en train de bosser sur cette automatisation dans 100 ans...

L'idée de Boston Dynamics, c'est donc de construire un robot polyvalent avec un cerveau généraliste. Comme ça au lieu de programmer chaque tâche à la main, on apprend au robot comment faire. Et tout comme le font les grands modèles de langage type ChatGPT, ils utilisent une approche en deux phases : le pre-training (où le robot accumule du "bon sens" physique) et le post-training (où on l'affine pour une tâche spécifique en une journée au lieu d'un an).

Mais le gros défi, c'est clairement les données. ChatGPT a été entraîné sur à peu près toute la connaissance humaine disponible sur Internet mais pour un robot qui doit apprendre à manipuler des objets physiques, y'a pas d'équivalent qui traîne quelque part.

Du coup, ils utilisent trois sources de data.

La première, c'est la téléopération. Des opérateurs portent un casque VR, voient à travers les yeux du robot et le contrôlent avec leur corps. Après quelques semaines d'entraînement, ils deviennent alors capables de faire faire à peu près n'importe quoi au robot. C'est la donnée la plus précieuse, car il n'y a aucun écart entre ce qui est démontré et ce que le robot peut reproduire. Par contre, ça ne se scale pas des masses.

La deuxième source, c'est l'apprentissage par renforcement en simulation. On laisse le robot explorer par lui-même, essayer, échouer, optimiser ses comportements. L'avantage c'est qu'on peut le faire tourner sur des milliers de GPU en parallèle et générer des données à une échelle impossible en conditions réelles. Et contrairement à la téléopération, le robot peut apprendre des mouvements ultra-rapides et précis qu'un humain aurait du mal à démontrer, du genre faire une roue ou insérer une pièce avec une précision millimétrique.

La troisième source, c'est le pari le plus ambitieux, je trouve. Il s'agit d'apprendre directement en observant des humains.

Alors est-ce qu'on peut entraîner un robot à réparer un vélo en lui montrant des vidéos YouTube de gens qui réparent des vélos ? Pas encore... pour l'instant c'est plus de la recherche que de la production, mais l'idée c'est d'équiper des humains de capteurs (caméras sur la tête, gants tactiles) et de leur faire faire leur boulot normalement pendant que le système apprend.

Et ils ne cherchent pas à tout faire avec un seul réseau neuronal de bout en bout. Ils gardent une séparation entre le "système 1" (les réflexes rapides, l'équilibre, la coordination motrice, un peu comme notre cervelet) et le "système 2" (la réflexion, la compréhension de la scène, la prise de décision). Le modèle de comportement génère des commandes pour les mains, les pieds et le torse, et un contrôleur bas niveau s'occupe de réaliser tout ça physiquement sur le robot.

C'est bien pensé je trouve. Et dans tout ce bordel ambiant autour de la robotique actuelle, eux semblent avoir trouver leur voie. Ils veulent transformer l'industrie, les usines...etc. Leur plan est clair et ils savent exactement ce qu'ils doivent réussir avant de passer à la suite (livraison à domicile, robots domestiques...).

Voilà, je pense que ça peut vous intéresser, même si c'est full english...

Pourquoi mon anti-SEO va finir par payer grâce à l'IA

Par :Korben
19 décembre 2025 à 14:00

Vous savez quoi ? Pendant 20 ans, j'ai fait tout ce qu'il ne fallait pas faire en matière de référencement. Pas de stratégie de mots-clés, pas vraiment d'attention aux liens dofollow ou nofollow, des sujets qui partent dans tous les sens même si ça reste quand même majoritairement "tech", un vocabulaire personnel bourré d'expressions que personne d'autre n'utilise. Bref, le cauchemar absolu de n'importe quel consultant SEO ^^.

Et devinez quoi ? Ça pourrait bien devenir ma plus grande force.

Parce que le monde du référencement est en train de changer radicalement mes amis ! Et ça, c'est à cause de l'IA. Google a déployé son Search Generative Experience (SGE) , les gens utilisent de plus en plus ChatGPT ou Perplexity pour chercher des infos (moi aussi), et les algorithmes deviennent suffisamment "malins" pour comprendre le contexte et l'intention derrière une recherche, et pas juste des mots-clés.

Ce qui se passe en ce moment, c'est que Google privilégie de plus en plus ce qu'il appelle l' E-E-A-T : Experience, Expertise, Authoritativeness, Trustworthiness . En gros, l'expérience de première main, l'expertise réelle, l'autorité dans un domaine, et la confiance. Du coup, les contenus "authentiques" générés par de vrais humains avec de vraies opinions sont en train de surpasser les contenus sur-optimisés pour le SEO. Elle n’est pas belle la vie ??

Regardez Reddit. Le site a vu sa visibilité dans les recherches Google exploser de presque 200% ces derniers mois. Reddit est cité dans 62% des AI Overviews de Google quand il apparaît dans le top 10. Pourquoi ? Hé bien tout simplement parce que c'est du contenu généré par de vrais utilisateurs qui partagent leurs vraies expériences, et pas des articles corporate écrits pour satisfaire un algorithme comme toute la chiasse qu'on peut voir sur LinkedIn (Le LinkedIn de Korben est par ici ! Je ne poste rien pour l'instant, mais j'ai prévu de disrupter le game donc abonnez-vous !).

De mon côté, je suis assez surpris aussi parce que mon trafic remonte en flèche également... En plus, comme l'Indie Web a le vent en poupe, on est biiiiiènnn (à prononcer avec l'accent chelou des sudistes).

Du coup, reprenons un peu mes "faiblesses" une par une.

Tout d'abord, je ne fais pas gaffe aux liens dofollow/nofollow. Je sais c'est maaaal.

Hé bien, figurez-vous qu'en 2019, Google a annoncé discrètement que les nofollow sont maintenant traités comme des "indices" plutôt que des règles strictes . Les profils de liens naturels, avec un mix de dofollow et nofollow, sont désormais considérés comme plus authentiques et les spécialistes estiment qu'un profil sain contient entre 15 et 30% de nofollow. Et le plus important : les mentions de marque sans lien du tout commencent à influencer le référencement. On passe donc d'un SEO basé sur des backlinks à un SEO basé sur des entités et des relations .

Autre défaut, je parle de tout et n'importe quoi sur mon site.

Bon, là c'est vrai que Google préfère les sites spécialisés, mais korben.info existe depuis 2004, avec plus de 20 ans d'historique dans l'univers tech au sens large. Et c'est cette longévité et cette constance dans un domaine (même large) qui construisent une "autorité" que les sites récents ne peuvent pas répliquer. Chè ^^. Et puis, je ne parle pas de finance ET de cuisine ET de mode. Je reste quand même dans la tech, la sécurité, le hacking, le DIY informatique. C'est une niche, qui est juste un peu plus large que ce qu'on pourrait trouver sur un site entièrement consacré aux "claviers mécaniques Cherry MX Red pour gauchers".

Aussi, j'utilise mon propre vocabulaire. Parfois un peu fleuri, très loin du style "journalistique" dont on vous gave à longueur de média. Et ça, je pense que c'est peut-être ma plus grande force. Les IA sont entraînées à détecter les contenus génériques, les patterns répétitifs, les formulations standardisées et un contenu avec une vraie voix personnelle, des expressions uniques, un ton reconnaissable, c'est totalement tout ce que les algorithmes commencent à valoriser. Quand quelqu'un lit un de mes articles (comme vous en ce moment), il sait que c'est moi qui l'ai écrit, et cela même si je m'auto-boost avec l'IA comme tout le monde (voir la FAQ pour les détails).

Et surtout, y'a pas d'autres sites qui ont le même style, les mêmes expressions, la même façon de présenter les choses. C'est donc de l'authenticité pure, et l'authenticité devient le nouveau standard du référencement .

Je n'optimise pas non plus mes contenus sur des mots-clés spécifiques. Bien sûr, j'ai testé ces techniques il y a quelques années dans certains articles, mais c'est tellement chiant à faire... Je pourrais pas être référenceur, j'aurais envie de me foutre en l'air au bout de 5 min. Heureusement, les moteurs de recherche modernes comprennent maintenant le langage naturel et le contexte et par exemple, Google peut faire le lien entre "le truc qui permet de pirater une IA" et "jailbreak LLM" sans que j'aie besoin de bourrer mon texte de mots-clés techniques. L'époque où il fallait répéter 47 fois " meilleur VPN gratuit 2025 " pour ranker est donc révolue.

Ce qui est en train de mourir, donc c'est le SEO manipulatif. C'est-à-dire toutes ces fermes de contenu IA ou ces usines à pigistes qui crachent des milliers d'articles optimisés toute la journée. Je parle des articles de 3000 mots qui répètent la même info sous 15 angles différents pour couvrir tous les mots-clés possibles, sans parler des stratégies de link building agressives avec des guest posts génériques. D'ailleurs, Google a déployé plusieurs mises à jour spécifiquement pour déclasser ce type de contenu.

Ce qui est en train de gagner, vous l'aurez compris, c'est l'authenticité, les vraies personnes avec de vraies opinions, les contenus qui répondent à de vrais besoins plutôt qu'à des requêtes de recherche et les sites avec une histoire, une communauté, une voix.

Bref, après 20 ans à faire du "anti-SEO" par pure flemme et par conviction que le contenu devait parler aux humains plutôt qu'aux robots, il semblerait que l'histoire me donne enfin raison.... niark niark ! Nos amis les bots deviennent maintenant suffisamment intelligents pour apprécier ce que les humains apprécient, et ça, les copains, c'est plutôt une bonne nouvelle pour tous ceux qui, comme moi, ont toujours préféré écrire naturellement plutôt que pour plaire à des algorithmes...

Lecture de texte avec Coqui TTS

Par :mrlem
15 décembre 2025 à 16:49

Sommaire

Cher Nal,

Je prends bien rarement ma plume, mais j'ai fait une petite expérimentation qui pourrait t'intéresser.

Le besoin

J'aimerais pouvoir écouter des documents que je possède à l'écrit, quand je suis dans les transports. Jusque là rien de bien compliqué, c'est du TTS (text-to-speech), mais j'aimerais surtout :

  • obtenir une lecture de bonne qualité : fluide, naturelle, avec un minimum d'intonations
  • que ce soit opensource
  • local : ne pas avoir besoin d'aller téléverser un document dans le cloud
  • pouvoir directement passer un fichier PDF

Par contre, je n'ai pas besoin :

  • que ce soit en temps réel (i.e. je peux préparer à l'avance)

La quête

J'ai commencé par regarder les solutions classiques espeak-ng, festival, puisqu'ils sont pas mal utilisé : le niveau de qualité n'était pas celui que je recherchais (même si on peut améliorer un peu les choses avec de la configuration). J'ai donc recherché des options côté IA générative, et il y en a… mais surtout dans le cloud.

Et puis je suis tombé sur CoquiTTS : un TTS opensource créé par Coqui AI, une boite hélas fermée depuis 2024, fondée par d'anciens de Mozilla.

L'installation

Je regarde la doc, ça semble relativement simple, avec 2 options :

  • pip et de l'install manuelle
  • utiliser une image docker pré-construite

J'aime bien l'idée de pouvoir partir d'un truc propre facilement transposable sur d'autres machines, je choisis donc l'option docker (c'est aussi l'occasion de découvrir docker, que je n'ai jamais vraiment utilisé).

Après une brève lecture de la doc des images docker, je choisis l'image docker pour un traitement sur CPU (il y en a un autre pour GPU NVidia, mais mon hardware n'en a pas). 10 Go de téléchargement plus tard, me voici avec la bête.

Utilisation de base

Après lecture de la doc je parviens à générer un premier fichier audio:

docker run -it --rm \
  -v "$(pwd):/output" \
  ghcr.io/coqui-ai/tts-cpu \
  --text "Hello world" \
  --out_path "/output/plop.wav"

Explication (désolé si vous connaissez déjà docker, mais moi je ne connaissais pas, alors je détaille pour celles ou ceux qui seraient dans mon cas) :

  • docker run : lance une image docker
  • -it : mode interactif pour docker
  • --rm : repart de l'image à chaque fois (ne garde pas les modifications)
  • -v "/local/path:/image/path" : permet de créer un volume, un truc qui mappe un chemin dans l'image sur un chemin en local
  • ghcr.io/coqui-ai/tts-cpu : le nom de l'image docker à lancer
  • --text "Blabla" : le texte à lire
  • --out_path "/image/path": le fichier WAV à produire

Résultat :

  • qualité pas encore terrible, mais je sais qu'il y a d'autres modèles potentiellement meilleurs d'après la doc
  • ça marche uniquement pour de l'anglais : le rendu en français est incompréhensible, le modèle par défaut n'est pas entrainé pour
  • à chaque fois qu'on lance la commande avec une phrase, on se retape les 104 Mo de chargement du (petit) modèle par défaut

Améliorations

Éviter de re-télécharger le modèle à chaque fois

Pour ça, on va stocker les modèles hors de l'image.

docker run -it --rm \
  -v tts_models:/root/.local/share/tts \
  -v "$(pwd):/output" \
  ghcr.io/coqui-ai/tts-cpu \
  --text "Hello world" \
  --out_path "/output/plop.wav"
  • -v tts_models:/root/.local/share/tts : crée un volume pour stocker les modèles hors de l'image

Résultat:

  • plus besoin de re-télécharger le modèle 😊

Utilisation d'un modèle plus qualitatif :

Celui par défaut est d'une taille "raisonnable", mais mono-lingue et mono-locuteur. Je me tourne donc vers celui mis en avant sur le github : XTTSv2. Il est multi-lingue, multi-locuteur, et permet même de faire du voice-cloning (ce n'est pas dans mes besoins de base, mais je trouve l'idée cool).

docker run -it --rm \
  -v tts_models:/root/.local/share/tts \
  -v "$(pwd):/output" \
  ghcr.io/coqui-ai/tts-cpu \
  --text "Salut le monde." \
  --model_name tts_models/multilingual/multi-dataset/xtts_v2 \
  --language_idx "fr" \
  --speaker_idx "Filip Traverse" \
  --out_path "/output/plop.wav"
  • --model_name tts_models/multilingual/multi-dataset/xtts_v2 : le modèle XTTSv2
  • --language_idx "fr" : on indique la langue (le français ici, mais il y a pas mal d'autres langues supportées)
  • --speaker_idx "Filip Traverse" : on indique le locuteur (il y a pas mal de locuteurs inclus. L'autre alternative est d'utiliser l'argument --speaker_wav pour passer une voix à cloner)

Résultat:

fichier audio et un autre un peu plus long.

  • la qualité est enfin au rendez-vous !
  • on peut enfin avoir du français
  • ça prend beaucoup de temps à télécharger (plus de 5 Go à télécharger la première fois, heureusement qu'on stocke le modèle) et à traiter

Accepter un PDF en entrée

J'ai utilisé pdftotext:

pdftotext -nopgbrk -layout "$pdf_file" -

À noter qu'en plus j'ai utilisé quelques filtres pour améliorer le texte d'entrée (ce qui améliore la diction), on pourrait sûrement aller plus loin :

  • remplacer les retours de chariots par des espaces (sauf quand il y a une ligne blanche)
  • dédoublonner les lignes blanches
  • dédoublonner les espaces

Je ne détaille pas, parceque là c'est particulièrement lié au type de documents qui m'intéresse.

Produire directement un MP3

J'ai utilisé ffmpeg:

ffmpeg -y -hide_banner -nostats -loglevel warning -i "$wav_file" -vn -ar 44100 -ac 2 -b:a 192k "$mp3_file"

Le résultat

Je me suis créé des wrappers pour faire tout ça facilement : https://github.com/mrlem/easy-tts

Si vous voulez l'utiliser, vous en servir comme base, ou bien juste farfouiner, n'hésitez pas.
Disclaimer : je ne suis pas expert en bash, ni en IA générative, du coup il y a sûrement des choses perfectibles, faisables différemment. Je suis donc ouvert aux remarques et suggestions.

Bilan

Très chouette ! Plus précisément :

Dans les + :

  • j'ai appris plein de choses
  • mon besoin est plutôt bien rempli, je peux avoir des fichiers audio vraiment très bons
  • la qualité est vraiment chouette, c'est vraiment un outil très chouette que Coqui AI a créé (il peut faire bien plus que ce pour quoi je l'ai utilisé)

Dans les - :

  • Coqui AI qui n'a pas tenu : je trouve ça très dommage pour eux, même s'ils laissent un outil que je trouve génial en opensource
  • le modèle XTTSv2 a une licence particulière, en bref c'est totalement gratuit pour un usage qui ne génère pas de revenu (c'est mon cas, donc ça me va)
  • c'est gourmand en ressources, et pas super rapide (3-5 minutes pour lire une lettre d'une page, pas très longue, sur mon laptop), mais pour moi c'est acceptable
  • suivant les PDFs, il peut y avoir pas mal de caractères parasites (ça dépend de la conversion en texte)
  • c'est inhérent à l'IA générative, mais le résultat varie d'un lancement à l'autre, et il y a parfois des hallucinations (sous forme d'ajouts compréhensibles ou non à la fin de l'audio)
  • des difficultés pour ce qui est des sigles / acronymes qu'il essaie de prononcer (genre dans "linuxFR", ou bien "GNU/Linux")
  • j'ai dû pas mal tâtonner pour obtenir ce que je voulais (le journal représente la version épurée du parcours 😉)

Commentaires : voir le flux Atom ouvrir dans le navigateur

Où acheter de la RAM? Attendre jusqu’à quand?

14 décembre 2025 à 20:21

Ayant été ingormé de l’arrêt de certains fabricants de RAM de fournir le grand public, j’ai vérifié le prix de la RAM actuelle.
Et je suis tombé de ma chaise.Il a plu sur mes lunettes.
Ayant 32 Go qur le pc perso depuis 2020, j’ai donc vérifié le prix de 64Go de RAM.
Je n’ai rien vu à moins de 0.7 k€ (ldlc, yodobashi) .
Connaissez vous un revendeur qui vends moins cher ?

Puis en simulant une config sur ldlc , je me suis mis à penser que le prix élevé de la RAM lorgnera les besoins en GPU.
Effet collatéral : quid dz l’industrie des jeux qui neccéssite le dernier gpu nvidia etc…
Mais possible que les fabricants lorgnent sur autre chose (cpu?).
Quel effet collateral aura cette hyperinflation de la RAM?

Commentaires : voir le flux Atom ouvrir dans le navigateur

Le fondateur de Boston Dynamics revient en force avec un robot à roues qui fait des backflips

Par :Korben
15 décembre 2025 à 11:14

Vous connaissez Marc Raibert ?

C'est le mec qui a fondé Boston Dynamics, la boîte derrière ces fameux robots qui font flipper tout le monde sur YouTube ( Spot le chien robot , Atlas l'humanoïde qui fait du parkour, Wildcat le chat sauvage ...). Et bien le bonhomme a lancé un nouveau projet avec son RAI Institute , et cette fois c'est un robot à roues qui fait des acrobaties de malade.

Ça s'appelle l'UMV pour Ultra Mobility Vehicle, et l'idée c'est de créer un engin qui "pense" et bouge comme un athlète de haut niveau. Comme vous pouvez le voir sur la vidéo, son inspiration ce sont les riders de vélo trial. Oui oui, ces kamikaze qui font des wheelies sur des escaliers et des backflips sur des rochers. Le but c'est donc de combiner l'efficacité des robots à roues (rapides et économes en énergie) avec les capacités de saut des robots à pattes.

Le robot pèse environ 23 kg et peut mesurer entre 80 cm replié et plus de 1m50 en extension (comme Zemmour quoi). Y'a aussi deux moteurs pour la direction et la vitesse, plus quatre moteurs dédiés aux sauts. Le cadre inférieur est en fibre de carbone pour rester léger, et le haut du robot sert de contrepoids pour les manœuvres agressives. Un peu comme un rider humain qui déplace son poids pour garder l'équilibre.

Et le truc de ouf, c'est que le robot n'a pas été programmé manuellement pour faire des bunny hops ou des flips. Il a tout appris tout seul via du reinforcement learning (apprentissage par renforcement). L'équipe l'a fait s'entraîner dans des millions de simulations sur NVIDIA Isaac Lab, et ensuite ils ont transféré ces apprentissages dans le monde réel. C'est ce qu'ils appellent du "zero-shot transfer" où en gros le robot passe direct de la simulation au monde réel... Débrouille-toi mon grand.

Résultat, l'engin est capable de faire des sauts d'un mètre, des flips avant, des wheelies prolongés, et des bunny hops en continu, le tout en gardant un équilibre parfait grâce à ce qu'ils appellent l'"intelligence athlétique". Alors moi j'ai aucune intelligence athlétique car j'ai été dispensé d'EPS toute ma jeunesse, mais en gros, le robot a développé une compréhension intuitive de la physique de son propre corps, comme un sportif qui sait instinctivement comment répartir son poids.

Pour la suite, l'équipe prévoit d'intégrer de la perception haute performance avec LiDAR et caméras, pour que le robot puisse naviguer de façon autonome en terrain difficile. On est clairement dans l'évolution de ce qu'on appelle l'"embodied AI" c'est à dire des IA qui ont un corps physique et qui apprennent à l'utiliser comme des athlètes.

Bref, si l'apprentissage par renforcement peut maîtriser ce niveau d'équilibre dynamique aujourd'hui, dans combien de temps on aura des humanoïdes qui courent plus vite que nous sur n'importe quel terrain ?? Pfiou, ça va arriver vite et j'espère juste qu'ils n'apprendront pas à ouvrir les portes de nos maisons avant qu'on ait le temps de se barrer. Skynet representzzzz !

Source

Fraude à l’IA : Washington veut frapper plus fort

10 décembre 2025 à 16:08
Projet de loi américain pour alourdir les peines contre les fraudes et usurpations d’identité commises à l’aide d’outils d’intelligence artificielle....

Cupertino - Plus de code iOS pourri avec vos assistants IA

Par :Korben
3 décembre 2025 à 06:25

Vous développez une app SwiftUI et Claude vous balance du NavigationView alors qu’Apple recommande NavigationStack depuis la sorite d’iOS 16 ? Ou encore il vous sort @ObservableObject et @Published alors qu’on est passé à @Observable ?

Bienvenue dans le club des devs qui passent plus de temps à corriger les hallucinations de leur IA qu’à coder…

Ce problème, Aleahim, un développeuse macOS, en a eu marre alors elle a créé Cupertino, un serveur MCP qui donne accès à Claude à plus de 22 000 pages de documentation Apple en local. Plus besoin d’aller sur le net, et surtout plus d’excuses pour mélanger du code iOS 12 avec du SwiftUI moderne.

Ainsi, au lieu de laisser Claude deviner les API (et se planter une fois sur deux), on lui file l’accès direct à la vraie doc. Les 261 frameworks Apple sont là, indexés dans une base SQLite locale, avec un moteur de recherche full-text qui répond en moins de 100ms. SwiftUI, UIKit, AppKit, Foundation, Core ML, ARKit… tout y est.

L’écosystème se découpe ensuite en plusieurs repos GitHub. D’abord le serveur MCP principal qui fait le boulot d’indexation, ensuite un repo avec la doc pré-crawlée (parce que se taper 20 heures de téléchargement, merci mais non merci), et une collection de 606 projets d’exemple Apple officiels pour la route.

De quoi transformer Claude en assistant qui connaît VRAIMENT la plateforme.

Si ça vous intéresse, sachez qu’avant de vous lancer, faut être sur macOS 15 minimum avec Xcode 16 et Swift 6.2+. Côté espace disque, prévoyez 2-3 GB. Et si vous avez déjà bidouillé dans le terminal, que vous connaissez Git et que vous avez Claude Code installé, vous êtes bons. Comptez environ une quinzaine de minutes pour tout mettre en place.

Et rassurez-vous, je ne vous laisse pas tomber, on va attaquer l’installation ensemble. D’abord, récupérez le projet et compilez-le :

git clone https://github.com/mihaelamj/cupertino.git
cd cupertino
make build
sudo make install

Cette commande compile le projet Swift en mode release (ne faites pas attention aux warning éventuels) et copie le binaire dans /usr/local/bin/. Vous devriez ensuite voir un message du genre “Build complete” suivi des chemins où le binaire est déployé.

Maintenant passons sur la doc. Plutôt que de crawler vous-même les serveurs Apple pendant une journée entière, je vous recommande de récupérer la version pré-packagée. Ça prend 5 minutes au lieu de 20 heures, et franchement la vie est trop courte :

git clone https://github.com/mihaelamj/cupertino-docs.git ~/.cupertino

Mais si vous tenez absolument à avoir la doc fraîche du jour (maniaque de la mise à jour, je vous vois), vous pouvez crawler ça vous-même :

# Swift Evolution, ~5 minutes
cupertino fetch --type evolution
# Doc complète, ~20-24h
cupertino fetch --type docs
# Sample code Apple, ~4 minutes
cupertino fetch --type samples

Le crawler utilise un délai de 0,5 seconde entre chaque requête pour ne pas se faire blacklister par Apple. D’où les 20 heures…

Ensuite, il faut construire l’index à l’aide de la commande suivante :

cupertino save

Puis lancer le serveur MCP comme ceci :

cupertino serve

Maintenant, passons à la connexion avec Claude Code. Alors pourquoi Claude Code, parce que c’est celui que j’utilise, c’est le meilleur, c’est mon préféré ❤️.

Et c’est là que tout se joue, une seule commande :

claude mcp add cupertino --scope user -- /usr/local/bin/cupertino

Le --scope user fait que le serveur sera dispo dans tous vos projets, pas juste celui où vous êtes. Vous devriez voir : “Added stdio MCP server cupertino with command: /usr/local/bin/cupertino to user config”.

Et maintenant pour vérifier que tout marche, lancez Claude Code avec claude puis tapez /mcp. Vous devriez voir cupertino dans la liste avec 3 outils : search_docs, list_frameworks et read_document. Vous pouvez aussi lancer cupertino doctor dans le terminal pour un diagnostic complet qui vérifie que le serveur MCP, le répertoire de doc et l’index de recherche sont bien en place.

Testez en demandant à Claude de chercher quelque chose dans la doc Apple. Genre “NavigationStack iOS 16”. Il devrait utiliser l’outil search_docs et vous retourner la vraie documentation avec les bons exemples de code… pas du deprecated.

Si vous avez l’erreur “command not found: cupertino”, le binaire n’est pas dans votre PATH. Vérifiez que /usr/local/bin y est bien ou relancez sudo make install. Si c’est “Database not found”, vous n’avez pas de doc indexée. Retournez chercher le repo cupertino-docs ou lancez le crawl. Et si le serveur ne se connecte pas à Claude Code, fermez Claude Code complètement et relancez-le car les serveurs MCP se chargent au démarrage.

Voilà… Pour les devs Apple qui en ont marre de corriger les suggestions de Claude, Cupertino la formation Apple qu’il manquait à votre assistant IA !

Source

Context7 - Vos assistants IA vont enfin arrêter d'utiliser de la doc obsolète

Par :Korben
2 décembre 2025 à 05:51

Scène du crime, mardi matin, vous demandez à Claude Code de vous générer un middleware Next.js qui vérifiera un JWT dans les cookies. Et l’IA vous pond sans sourciller 15 lignes de code bien propres, bien commentées… Elle est parfaitement confiante et vous ça vous rassure. Vous copiez son œuvre, vous collez. Et là, PAF, une erreur de compilation !!

Hé oui, la fonction qu’elle a utilisée n’existe plus depuis Next.js 14. En gros, Claude Code a halluciné tranquillement avec de la vieille doc pourrie de 2020.

Et dire qu’on a passé 20 ans à se foutre de la gueule des devs qui copient-collent du code depuis de vieux posts Stack Overflow alors qu’aujourd’hui, on copie colle sans réfléchir ce que nous donne une IA qui fait exactement pareil ! C’est ça le progrès les amis !

Hé bien Context7 vient régler exactement ce problème ! Il s’agit d’un serveur MCP (Model Context Protocol) développé par Upstash qui branche votre assistant de code sur la documentation officielle à jour, comme ça vous esquivez les fonctions dépréciées, les API fantômes, et les best practices d’il y a trois ans.

Context7 est donc compatible avec Cursor, Claude Code, Windsurf, VS Code, Zed, Gemini CLI, et tous les éditeurs qui supportent le protocole MCP (donc à peu près tout ce qui existe…) et une fois que c’est en place, y’a plus qu’à l’oublier. Si vous hésitez, y’a une démo ici pour tester .

Mais avant de commencer, sachez que vous aurez besoin de Node.js 18+ pour la méthode locale. Et pour la méthode serveur distant, juste un navigateur et votre éditeur de code.

La méthode serveur distant consiste à aller sur context7.com , à vous créer un compte gratuit, à récupérer une clé API, puis à ajouter cette config dans votre éditeur comme ceci :

{
 "mcpServers": {
 "context7": {
 "url": "https://mcp.context7.com/mcp",
 "headers": {
 "CONTEXT7_API_KEY": "votre_cle_api_ici"
 }
 }
 }
}

Pour Cursor, ouvrez les settings (Cmd+,), cherchez “MCP Servers”, et collez ça dans la config JSON. Pour Claude Code, c’est dans .claude/settings.json à la racine de votre projet. Sauvegardez, redémarrez l’éditeur, et c’est bon.

Et deuxième méthode d’install, c’est en local via npx. Après c’est la même clé API mais la config est légèrement différente :

{
 "mcpServers": {
 "context7": {
 "command": "npx",
 "args": ["-y", "@upstash/context7-mcp", "--api-key", "votre_cle_api_ici"]
 }
 }
}

Voilà, avec cette méthode, le serveur MCP tourne sur votre machine ce qui vous offre un peu plus de contrôle. Et une fois que c’est en place, vous utilisez Context7 en ajoutant simplement “use context7” dans vos prompts. Par exemple : “Créez un middleware Next.js qui vérifie un JWT valide dans les cookies et redirige les utilisateurs non authentifiés vers /login. Utilisez context7”.

L’IA va alors interroger le serveur MCP Context7, récupérer la doc officielle Next.js à jour, et générer du code qui marche vraiment. Et la liste des libs supportées grandit régulièrement : Next.js, React, Vue, Svelte, Tailwind, TypeScript, et des dizaines d’autres…

Voilà, ça prend 3 minutes à installer, ça sauve des heures de debug débile sur des APIs qui n’existent plus, et c’est gratuit pour un usage perso !

Et dans six mois vous aurez oublié que c’est installé et vous vous demanderez comment vous faisiez avant…

Merci à itchrisdeb pour l’info !

Nano-PDF - Éditez vos PDF grâce à l'IA Nano Banana

Par :Korben
1 décembre 2025 à 12:10

Modifier un PDF, c’est toujours la galère surtout si c’est un PDF avec que des images sans texte sélectionnable. Soit vous avez Adobe Acrobat qui coûte une couille, soit vous vous tapez des outils en ligne douteux, soit vous exportez en Word et vous priez pour que la mise en page survive. Bref, vous faites vos trucs de losers….

Mais ça c’était sans compter sur Nano-PDF qui propose une approche radicalement différente : Vous décrivez ce que vous voulez changer en langage naturel, et l’IA se chargera du reste.

Par exemple, si vous avez une présentation PDF avec une faute de frappe sur la slide n°5, au lieu de galérer avec un éditeur, vous tapez juste

`nano-pdf edit ma_presentation.pdf 5 "Corrige la faute sur le mot 'investisement'"`

Et hop, c’est réglé. Vous voulez mettre à jour un graphique avec les données de 2025 ? Pareil, vous décrivez le changement et l’outil se débrouille !

Nano-PDF utilise le modèle Gemini 3 Pro Image de Google (surnommé “Nano Banana Pro”) pour interpréter vos instructions et générer les modifications visuelles. Le workflow technique est d’ailleurs bien fichu puisque les pages PDF sont converties en images via Poppler , envoyées au modèle avec votre prompt, puis les images générées sont reconverties en PDF avec une couche de texte restaurée par OCR via Tesseract. Du coup, vos PDF restent sélectionnables et cherchables après modification, contrairement aux solutions qui vous filent des images aplaties.

Côté fonctionnalités, y’a pas mal de choses sympas. Vous pouvez par exemple éditer plusieurs pages en une seule commande, créer de nouvelles slides qui respectent le style visuel de votre deck existant, même utiliser des pages de référence pour que l’IA comprenne mieux votre charte graphique, et le traitement par lot est géré en parallèle pour gagner du temps sur les grosses présentations.

L’installation passe par pip avec

`pip install nano-pdf`

Et comme je vous le disais, il vous faudra aussi Poppler pour le rendu PDF et Tesseract pour l’OCR. Et attention, petit détail qui a son importance, l’API Gemini Pro Image nécessite un compte payant. Faudra sortir la thune car les clés gratuites ne permettent pas de générer des images… donc bon, prévoyez quelques euros de crédit Google Cloud si vous voulez tester.

Le truc cool, c’est par défaut c’est du 4K en résolution, mais vous pouvez descendre en 2K ou 1K si vous voulez économiser sur les coûts d’API. Y’a aussi une option --use-context qui envoie tout le texte du PDF au modèle pour qu’il comprenne mieux le contexte de vos modifications. Et si vous créez une nouvelle slide, cette option est activée par défaut pour que le résultat soit cohérent avec le reste du document.

Voilà, si vous passez votre vie à modifier des présentations PDF et que vous en avez marre des workflows à rallonge, installez Nano-PDF . C’est open source sous licence MIT, et ça change la vie !

Merci Lorenper pour le partage !

Evo 2 – L'IA qui écrit de l'ADN fonctionnel

Par :Korben
24 novembre 2025 à 14:25

Vous pensiez que les IA génératives se contentaient de pondre des images de chats à 6 pattes façon Ghibli et des textes pompés sur Wikipédia ? Hé bien, je vais vous décevoir car des chercheurs de l’Arc Institute, Stanford, NVIDIA, UC Berkeley et d’autres viennent de pousser le concept beaucoup, beaucoup plus loin…

En effet, ils ont créé Evo 2, le plus grand modèle d’IA pour la biologie jamais rendu public, capable de lire, comprendre et même écrire de l’ADN fonctionnel. Et cerise sur le gâteau, une étude publiée cette semaine dans Nature démontre qu’on peut utiliser cette technologie pour créer des protéines totalement nouvelles qui n’ont jamais existé dans la nature… et qui fonctionnent vraiment !

Le projet Evo 2 fonctionne comme un LLM classique, sauf qu’au lieu de lui faire bouffer du texte, on lui a fait avaler 9,3 trillions de nucléotides (les fameux A, T, G, C qui composent l’ADN) provenant de plus de 128 000 génomes couvrant tous les domaines du vivant : bactéries, archées, virus, mais aussi humains, plantes et autres eucaryotes.

Leur modèle existe en deux versions : 7 milliards et 40 milliards de paramètres (comparable aux gros LLM actuels) mais sa vraie force, c’est sa fenêtre de contexte d’un million de paires de bases, soit 8 fois plus que son prédécesseur Evo 1. Pour vous donner une idée, c’est suffisant pour analyser un chromosome entier de levure ou un génome bactérien complet en une seule passe.

Pour entraîner ce monstre, il a fallu mobiliser plus de 2 000 GPU NVIDIA H100 pendant plusieurs mois sur le cloud DGX, soit environ 150 fois plus de puissance de calcul qu’AlphaFold. L’architecture utilisée, baptisée StripedHyena 2 , permet un entraînement 3 fois plus rapide que les transformers classiques sur les longues séquences et petit fun fact, Greg Brockman, cofondateur d’OpenAI, a participé au développement de cette architecture pendant son année sabbatique.

L’une des applications les plus impressionnantes d’Evo 2, c’est sa capacité à prédire si une mutation génétique risque de causer une maladie, et ce, sans aucun entraînement spécifique. Les chercheurs ont testé le modèle sur le gène BRCA1, connu pour son lien avec le cancer du sein. Résultat, Evo 2 a prédit avec plus de 90% de précision quelles mutations étaient pathogènes et lesquelles étaient bénignes.

Mieux encore, Evo 2 est actuellement le seul modèle capable de prédire l’effet des mutations dans les régions non-codantes de l’ADN (les fameuses parties qu’on pensait “inutiles” et qu’on appelait autrefois “ADN poubelle”). Pour les variants codants, il est second meilleur, mais pour les variants non-codants, il est carrément le top du top of the pop !

Et pour prouver que le modèle ne fait pas que régurgiter ses données d’entraînement, l’équipe lui a demandé d’annoter le génome du mammouth laineux, une espèce qui n’était évidemment pas dans son dataset. Et le modèle a correctement identifié la structure exons-introns du génome de ce pachyderme (aujourd’hui disparu parce que j’ai mangé le dernier), démontrant qu’il a vraiment “compris” les règles fondamentales du vivant.

Mais là où ça devient vraiment dingue, c’est ce concept de “design sémantique”. En effet, dans les génomes bactériens, les gènes qui travaillent ensemble sont souvent positionnés côte à côte, du coup, si on donne à l’IA le contexte génomique d’une fonction particulière, elle peut générer de nouveaux gènes ayant des fonctions similaires.

En gros, on prompte l’IA avec de l’ADN au lieu de texte, et comme un bon LLM qui complète vos phrases, Evo complète… vos génomes.

Pour tester cette approche, les chercheurs ont d’abord généré une toxine bactérienne basée sur une toxine connue. Ils ont ensuite utilisé cette toxine comme “prompt” pour demander à l’IA de créer des antitoxines correspondantes. Sur 10 propositions, la moitié ont réussi à neutraliser partiellement la toxine, et deux d’entre elles l’ont complètement désactivée avec 95-100% de survie cellulaire.

Et ces antitoxines n’avaient que 21 à 27% de similarité avec les protéines existantes, donc autant dire qu’Evo a inventé quelque chose de quasi-nouveau ! Et ce n’est pas du bricolage aléatoire puisque l’analyse montre que ces protéines seraient l’équivalent d’un assemblage de 15 à 20 morceaux de protéines différentes, recombinés de façon inédite.

Et ce qui est encore plus impressionnant, c’est que certaines de ces antitoxines générées fonctionnent contre plusieurs toxines différentes utilisant des mécanismes d’action distincts. L’une d’elles neutralise trois toxines naturelles, alors que l’antitoxine naturelle équivalente ne fonctionne que contre sa toxine d’origine. L’IA aurait donc identifié une compatibilité fonctionnelle plus large que ce qu’on observe dans la nature !

Les chercheurs ont aussi testé des systèmes où l’antitoxine est un ARN plutôt qu’une protéine. Là encore, le modèle a généré une antitoxine fonctionnelle avec 88% de survie, tout en conservant les caractéristiques structurelles essentielles malgré une séquence divergente.

Mais surtout, l’équipe a généré une toxine qui ne ressemble à absolument rien de connu. Aucune similarité de séquence, aucune similarité structurale, même avec les méthodes de détection les plus sensibles. Pour reconstituer tous les acides aminés de cette protéine, il faudrait recombiner des fragments de plus de 40 protéines différentes, ce qui ressemble plus à une protéine Frankenstein créée de toutes pièces qu’à une variation évolutive.

Et histoire de pousser l’idée encore plus loin, l’équipe s’est attaquée aux anti-CRISPR. Ce sont des protéines utilisées par les phages pour désactiver le système immunitaire bactérien, qui sont parmi les plus évolutives qui existent, avec une diversité de séquences et de mécanismes absolument folle.

Et 17% des protéines générées ont montré une activité anti-CRISPR mesurable, soit un taux de succès remarquable. Parmi les candidates qui fonctionnent, certaines n’ont aucune similarité de séquence détectable avec les protéines connues, et même leurs structures prédites ne ressemblent à rien dans les bases de données. Ce sont littéralement des protéines nouvelles qui font le job !

Mais Evo 2 ne s’arrête pas à la génération de protéines individuelles. Le modèle peut maintenant créer des séquences génomiques complètes de plusieurs centaines de milliers de paires de bases. L’équipe a testé trois niveaux de complexité :

  • Génomes mitochondriaux : à partir d’un fragment de 3 kb d’ADN mitochondrial humain, Evo 2 a généré des génomes complets de 16 000 bases avec le bon nombre de gènes codants, d’ARNt et d’ARNr. Les protéines générées ont été validées par AlphaFold 3 et correspondent à des complexes fonctionnels de la chaîne respiratoire.
  • Génomes bactériens : en partant de Mycoplasma genitalium (le génome bactérien minimal), le modèle a produit des séquences de 600 kb où près de 70% des gènes prédits correspondent à des domaines protéiques connus.
  • Chromosomes de levure : Evo 2 a généré 330 kb d’ADN eucaryote avec des introns, des promoteurs, des ARNt correctement positionnés, le tout ressemblant aux vrais gènes de levure.

Les chercheurs ont même encodé des messages en code Morse (“EVO2”, “LO”) dans les profils d’accessibilité de la chromatine des séquences générées, démontrant qu’on peut “programmer” l’épigénome avec ce modèle.

On nage en pleine science-fiction, mais ça fonctionne !

Pour finir en beauté, l’équipe a lâché Evo sur 1,7 million de gènes bactériens et viraux comme prompts, générant 120 milliards de paires de bases d’ADN synthétique. Cette base de données, baptisée SynGenome , est accessible gratuitement et permet de rechercher des séquences par fonction, domaine protéique, espèce ou terme Gene Ontology.

On y trouve notamment des protéines chimériques avec des fusions de domaines jamais observées dans la nature. Ces combinaisons pourraient représenter des innovations fonctionnelles à explorer pour la biologie synthétique.

Et le plus beau dans tout ça c’est que tout est open source. Les modèles (7B et 40B paramètres) sont disponibles sur Hugging Face , le code d’entraînement et d’inférence est sur GitHub , et le dataset OpenGenome2 est téléchargeable. Vous pouvez même tester Evo 2 directement dans votre navigateur via l’ API hébergée par NVIDIA ou l’interface Evo Designer.

Pour ceux qui veulent aller plus loin, NVIDIA propose aussi des tutoriels de fine-tuning via son framework BioNeMo , et une collaboration avec le labo Goodfire a produit un outil d’interprétabilité pour visualiser ce que le modèle “voit” dans les séquences génomiques.

Bien sûr, la génération autorégressive peut produire des séquences répétitives ou des “hallucinations” biologiques (des gènes réalistes mais non fonctionnels), et c’est pourquoi ce design sémantique nécessite des filtres et des validations expérimentales. De plus, cette approche est limitée aux fonctions encodées par les relations contextuelles dans les génomes prokaryotes, ce qui exclut de nombreuses applications eucaryotes… pour l’instant.

Un des génomes bactériens générés était d’ailleurs incomplet et ne fonctionnerait probablement pas si on le synthétisait et l’insérait dans une vraie bactérie. Mais l’équipe travaille déjà avec des experts en synthèse et assemblage d’ADN de l’Université du Maryland pour tester expérimentalement ces génomes générés.

Bref, on n’en est pas encore à créer des enzymes qui digèrent le plastique sur commande, mais le fait qu’une IA puisse générer des protéines fonctionnelles à partir de rien, juste en apprenant les patterns de l’évolution… c’est quand même complètement dingue. Et avec un taux de succès allant de 17 à 50% sur seulement quelques dizaines de variants testés, le design sémantique surpasse déjà de nombreuses méthodes classiques de conception de protéines.

Quoiqu’il en soit, la biologie générative vient de franchir un cap, et j’ai hâte de voir ce que les biologistes vont en faire !

Source

❌