Pendant que vous faisiez le plein à 1,80 € le litre, la Chine faisait pareil… mais à 36 000 kilomètres d’altitude. Les satellites Shijian-21 et Shijian-25 viennent en effet de se séparer après plusieurs mois de câlin orbital, marquant ce qui semble être le premier ravitaillement en carburant réussi en orbite géostationnaire. Une première mondiale dont Pékin n’a quasiment rien dit officiellement…
Cette belle histoire commence en janvier 2025 quand Shijian-25 décolle de Xichang à bord d’une Long March 3B. Sa mission officielle est la suivante “Vérification de technologies de ravitaillement et d’extension de vie des satellites”. Le 2 juillet, il s’amarre à son copain Shijian-21, un autre satellite lancé en 2021 qui avait déjà fait parler de lui en tractant un vieux satellite Beidou hors service vers un “cimetière orbital” en 2022. Cette manœuvre avait malheureusement vidé ses réservoirs… et c’est pile ce qu’il fallait pour tester le ravitaillement !
Les deux satellites sont restés accouplés pendant des mois, tellement proches qu’ils étaient impossibles à distinguer depuis le sol, puis le 29 novembre, a eu lieu leur séparation.
Entre temps, ils ont effectué ce qu’un ancien officiel du Space Command américain appelle “La plus grande manoeuvre jamais réalisée en orbite géostationnaire” c’est à dire un changement de vitesse de plus de 330 mètres par seconde. Quand on sait que chaque manœuvre en GEO coûte une fortune en carburant, ça donne une idée de la quantité de propergol transférée.
Oh mon Dieu une image générée par IA, quelle horreur, enfer et damnation ! 🤪
Et ce qui est ouf c’est que la Chine n’a rien communiqué à ce sujet. Aucune déclaration officielle n’a été faite depuis le lancement de Shijian-25 et les seules infos qu’on a viennent d’observations optiques et de tracking radar réalisés par des passionnés et des agences occidentales. Cette opacité met les Américains sur les nerfs, et ça aussi on le sait car pendant toute l’opération, deux satellites de surveillance US (USA 270 et USA 271) se sont positionnés de chaque côté des satellites chinois pour admirer le spectacle. Sympa l’ambiance !
Parce que oui, cette technologie a des applications militaires évidentes et l’orbite géostationnaire héberge les satellites de communication, de météo, d’observation… et surtout d’alerte antimissile. Alors pouvoir ravitailler un satellite signifie aussi pouvoir s’en approcher, le manipuler, voire le neutraliser.
Côté civil, c’est aussi une révolution potentielle puisqu’un satellite géostationnaire coûte des centaines de millions de dollars et sa durée de vie est souvent limitée par son carburant, pas par son électronique. Du coup, pouvoir le ravitailler permettrait d’étendre sa mission de plusieurs années, voire décennies. La Chine pourrait même développer un réseau de stations-service orbitales qui transformerait complètement l’économie spatiale.
Les États-Unis et d’autres pays travaillent sur des technologies similaires, mais la Chine vient donc de prendre une sacrée longueur d’avance. Et le fait qu’elle l’ait fait dans un silence quasi-total en dit long sur sa stratégie qui est de montrer ses capacités techniques sans les revendiquer, en laissant les autres spéculer…
Je ne suis pas très montre. Je n’en porte pas, je n’en possède pas… Ce temps qui passe c’est l’angoisse mais je me souviens très bien des montres Pebble qui avec leur écran e-ink tenaient des semaines sur une charge et qui ont carrément démocratisé le concept de smartwatch grand public dès 2012.
Hé bien good news, le fondateur Eric Migicovsky a décidé de les ressusciter sauf que c’est en train de tourner au vinaigre avec les bénévoles qui ont maintenu l’écosystème durant 9 ans.
Pour ceux qui ont raté tout le feuilleton, après la faillite de Pebble en 2016 et le rachat par Fitbit (puis Google), une communauté de passionnés appelée
Rebble
s’est formée pour sauver les meubles. Ils ont récupéré les données de l’App Store, monté une infrastructure de serveurs, financé des développements… Bref, ils ont maintenu en vie un écosystème que tout le monde avait abandonné.
Puis en janvier 2025, Google a ouvert le code source de PebbleOS et Migicovsky a sauté sur l’occasion et a lancé sa boîte Core Devices en mars pour vendre de nouvelles montres Pebble : La Pebble 2 Duo à 149$ et la Pebble Time 2 à 225$. D’ailleurs, 70% des premières unités ont déjà été livrées. Bref, jusque là, tout va bien.
Sauf que Rebble accuse maintenant Core Devices de piller leur travail sans compensation.
Selon ce qu’ils racontent leur blog
, Migicovsky aurait “scrapé leurs serveurs” le jour même où il devait les rencontrer pour discuter partenariat. Rebble affirme avoir investi des centaines de milliers de dollars pour maintenir l’App Store et les services backend… et Core voudrait un accès illimité à tout ça pour potentiellement créer un App Store concurrent propriétaire.
La bibliothèque mobile libpebble3 utilisée par l’app Core Devices s’appuie notamment sur du code que Rebble a financé via son programme de subventions. Et c’est pareil pour le portage Bluetooth open source vers PebbleOS puisque c’est Rebble qui a payé les devs. Et bien sûr quand ils demandent un engagement écrit que Core ne créera pas un store concurrent… C’est silence radio.
Migicovsky a ensuite répondu sur
son blog perso
histoire de se justifier. Il nie tout vol et affirme que 90% du code de libpebble3 a été écrit par Core Devices, et pas par la communauté. Et pour le scraping, il explique qu’il construisait juste une petite webapp pour afficher ses watchfaces préférées et que ça n’a rien téléchargé de substantiel.
Et il contre-attaque en accusant Rebble de vouloir créer un pré-carré bien verrouillé emprisonnant les 13 000 et quelques applications que des développeurs indépendants ont créées. Rebble revendiquerait 100% des données de l’App Store alors qu’ils ne sont que l’hébergeur…
Alors qui croire ? Difficile à dire mais la bonne nouvelle c’est que Core Devices a ouvert les schémas électriques et mécaniques de la Pebble 2 Duo sur GitHub et bientôt, l’installation d’apps se fera via un système de feeds multiples, un peu comme les gestionnaires de paquets open source. Chacun pourra alors choisir son store.
Reste à savoir si les deux camps arriveront à s’entendre puisque Rebble a apparemment fait marche arrière sur certaines revendications, notamment sur la propriété du contenu hébergé. Mais le climat de confiance est sérieusement entamé et pour la communauté qui a bossé durement et gratos pendant 9 ans pour sauver tout écosystème… c’est sûr que ça fait mal de voir le fondateur original débarquer et se servir OKLM.
Après pour ceux d’entre vous qui ont une Pebble ou qui lorgnent sur les nouvelles, surveillez le subreddit
r/pebble
et le Discord
Rebble
car c’est là que tout ça se passe.
Vous voyez cet emoji ? 😎󠄺󠄗󠅑󠅙󠄐󠅠󠅑󠅣󠄐󠅥󠅞󠄐󠅠󠅕󠅥󠄐󠅜󠅕󠄐󠅝󠅕󠅙󠅜󠅜󠅕󠅥󠅢󠅣󠄐󠅣󠅙󠅤󠅕󠄐󠅔󠅥󠄐󠅝󠅟󠅞󠅔󠅕󠄐󠄯 Hé bien, il contient peut-être un message secret que vous ne pouvez pas voir.
Non je ne suis pas devenu fou, c’est de la stéganographie Unicode et c’est le sujet de ma dernière vidéo.
L’idée c’est de planquer du texte invisible à l’intérieur de n’importe quel caractère grâce aux sélecteurs de variation Unicode. Ces petits caractères invisibles se glissent après un emoji et peuvent encoder un message complet. À l’oeil nu, vous voyez juste un smiley. Mais en réalité, y’a peut-être tout un paragraphe caché dedans.
Dans cette vidéo, je vous montre donc comment utiliser l’outil open source de
Paul Butler
pour encoder et décoder vos propres messages. On teste aussi si ChatGPT arrive à lire ces messages cachés et je vous explique les applications concrètes comme le watermarking de contenu ou l’envoi de messages discrets.
C’est une technique à la fois fun et utile à connaître, que ce soit pour protéger vos créations ou juste pour impressionner vos potes geeks.
J’ai tout expliqué en 13 minutes, accessible même si vous n’y connaissez rien en Unicode. Et un grand merci à
mes soutiens sur Patreon
sans qui rien ne serait possible !
Vous connaissez peut-être FUSE (Filesystem in Userspace), ce truc qui permet de créer des systèmes de fichiers custom sans toucher au noyau Linux. C’est grâce à lui notamment qu’on peut monter un Google Drive, un bucket S3 ou même un dossier distant via SSH comme un simple répertoire local.
Hé bien,
Rohan Gupta
a poussé ce concept jusqu’à l’absurde en créant LLMfuse, un système de fichiers où toutes les opérations sont gérées par un modèle de langage fine-tuné.
Ainsi, quand vous faites un ls, un chmod ou un cat sur ce filesystem, c’est un LLM qui répond et chaque opération FUSE devient une requête au modèle. Pour parvenir à ces fins, le développeur a entraîné un Qwen3-4B sur environ 15 000 paires prompt/completion générées à partir de simulations d’opérations filesystem. Le modèle a alors appris à lire le contenu des fichiers, modifier les métadonnées, et même à représenter l’arborescence complète en XML.
Bon, dit comme ça, ça ressemble à une expérience de savant fou un peu conne… Mais y’a un truc vraiment intéressant qui découle de tout ça. En effet, l’auteur a découvert que la combinaison du codage arithmétique avec son modèle fine-tuné permettait d’atteindre des taux de compression délirants. Sur un fichier texte classique, il obtient par exemple une compression 22 fois meilleure que gzip. Et pour une arborescence de fichiers représentée en XML, c’est environ 8 fois mieux que squashfs.
Alors comment c’est possible cette magie noire ? Bah ça remonte au théorème de Shannon de 1948 sur l’entropie où plus un modèle prédit bien les données, moins il faut de bits pour les encoder. Un LLM fine-tuné sur un type de données spécifique devient alors un compresseur hyper efficace pour ces données.
L’auteur est le premier à admettre que c’est une expérimentation, donc, pas de quoi vous emballer non plus… Après si vous souhaitez l’utiliser, vous avez besoin d’un GPU, que l’intégralité du système de fichiers tienne dans la fenêtre de contexte du modèle, et ça ne marche vraiment bien que sur des données textuelles. Pour vos vidéos 4K ou votre bibliothèque de jeux Steam, on repassera… snif…
D’ailleurs, le fait que lipsum.txt (le classique Lorem Ipsum) soit surreprésenté dans les données d’entraînement des LLM aide beaucoup à gonfler les chiffres de compression mais même sur d’autres types de textes “normaux” qui ressemblent à ce qu’on trouve sur Internet, les gains restent entre 5x et 20x par rapport à gzip.
Le code source est disponible sous licence MIT, avec notamment un utilitaire CLI appelé llmencode que vous pouvez tester en local si vous avez une bonne carte graphique sous la main.
Le concept ici c’est de prendre la série animée trash de Trey Parker et Matt Stone et de la transformer en film d’époque grâce à l’IA. Ça commence donc de manière assez réaliste avec les personnages principaux en version live-action rétro avec une petite voix off à l’ancienne… puis ça part complètement en vrille quand on arrive à Mr. Garrison, Satan et Mr. Hankey (mon préféré).
Et pour ceux qui se demandent, le Super Panavision 70 c’était le format cinéma panoramique haute résolution utilisé pour les grandes productions hollywoodiennes dans les années 50-70 pour Ben-Hur, 2001 l’Odyssée de l’espace, ce genre de trucs épiques.
Maintenant, appliquez ça à South Park et ses personnages bien trash et vous aurez quelque chose de très sympa ! La chaîne
Abandoned Films
qui a produit ce clip s’est spécialisée dans ce genre de contenus rétro générés par IA donc si vous aimez, vous pouvez aller voir le reste de leur contenu.
C’est le genre de trucs qu’on regarde à 2h du mat’ (ou à 7h du mat comme moi) en se demandant comment on est arrivé là dans sa vie ^^.
Vous voyez ces poignées de porte toutes lisses qui s’escamotent dans la carrosserie pour faire genre “je suis une voiture du futur” ? C’est ce qu’il y a sur les
Tesla
et sur les
Ioniq 5
. Hé bien la Chine en a marre de ce design qui privilégie le look au détriment de la sécurité, et a décidé d’agir !
En effet, les régulateurs chinois planchent sur une interdiction pure et simple des poignées entièrement rétractables dès juillet 2027. L’idée c’est d’imposer un système de secours mécanique sur toutes les bagnoles, parce que oui, quand votre voiture électrique prend feu et que le système électronique tombe en rade… Bah bonne chance pour sortir mes petites merguez !
Le problème n’est pas nouveau, mais les drames s’accumulent.
Plusieurs passagers de Tesla
sont morts brûlés vifs après des accidents parce que les portes refusaient de s’ouvrir et en novembre 2024, cinq personnes sont décédées dans un Model S au Wisconsin après avoir percuté un arbre… Les témoins ont entendu leurs cris durant 5 minutes. Horrible ! Et dernièrement, en Californie, trois ados sont morts carbonisés dans un Cybertruck la veille de Thanksgiving. Les poignées électroniques avaient cramé avec le reste.
Heureusement, le NHTSA (le régulateur américain) a enfin ouvert les yeux et demande des comptes à Tesla avant le 10 décembre.
L’enquête qui visait 174 000 Model Y
s’étend maintenant à d’autres modèles, ce qui est parfaitement normal et rassurant vu qu’ils ont déjà recensé au moins 9 cas de personnes coincées à l’intérieur pendant que des passants tentaient de casser les vitres pour les sortir.
Et le pire dans cette technologie de poignées du tur-fu, c’est que le gain aérodynamique est ridicule.
Selon les ingénieurs
, une réduction de 0,01 du coefficient de traînée, ça économise à peine 0,6 kWh pour 100 km… Soit que dalle. En plus, le surpoids des moteurs et mécanismes (7-8 kg) annule quasiment ce maigre bénéfice. Voilà, tout ça pour pouvoir dire que sa caisse fait 0,23 au lieu de 0,24 de Cx (C’est le coefficient de traînée aérodynamique).
Franz von Holzhausen, le designer en chef de Tesla, a admis à Bloomberg qu’ils bossent sur un redesign pour rendre les poignées “plus intuitives pour les occupants en situation de panique”. Youpi !
La bonne nouvelle c’est que les poignées semi-rétractables
resteraient autorisées en Chine
, du moment qu’elles ont un backup mécanique. Volkswagen a toujours opté pour ce compromis, et Audi propose désormais un câble rouge de secours qui se déploie automatiquement en cas de crash. Comme quoi, c’était pas si compliqué.
Voilà… On n’est encore sûr de rien mais si la Chine passe cette loi, y’a de grandes chances que ça impacte les designs mondiaux… Pas le choix quand on veut vendre sur le plus gros marché automobile de la planète. Mais quoiqu’il en soit, je trouvais que c’était une bonne nouvelle pour la sécurité de tout le monde !
Vous pensiez que les IA génératives se contentaient de pondre des images de chats à 6 pattes façon Ghibli et des textes pompés sur Wikipédia ? Hé bien, je vais vous décevoir car des chercheurs de l’Arc Institute, Stanford, NVIDIA, UC Berkeley et d’autres viennent de pousser le concept beaucoup, beaucoup plus loin…
En effet, ils ont créé Evo 2, le plus grand modèle d’IA pour la biologie jamais rendu public, capable de lire, comprendre et même écrire de l’ADN fonctionnel. Et cerise sur le gâteau, une étude publiée cette semaine dans Nature démontre qu’on peut utiliser cette technologie pour créer des protéines totalement nouvelles qui n’ont jamais existé dans la nature… et qui fonctionnent vraiment !
Le projet
Evo 2
fonctionne comme un LLM classique, sauf qu’au lieu de lui faire bouffer du texte, on lui a fait avaler 9,3 trillions de nucléotides (les fameux A, T, G, C qui composent l’ADN) provenant de plus de 128 000 génomes couvrant tous les domaines du vivant : bactéries, archées, virus, mais aussi humains, plantes et autres eucaryotes.
Leur modèle existe en deux versions : 7 milliards et 40 milliards de paramètres (comparable aux gros LLM actuels) mais sa vraie force, c’est sa fenêtre de contexte d’un million de paires de bases, soit 8 fois plus que son prédécesseur Evo 1. Pour vous donner une idée, c’est suffisant pour analyser un chromosome entier de levure ou un génome bactérien complet en une seule passe.
Pour entraîner ce monstre, il a fallu mobiliser plus de 2 000 GPU NVIDIA H100 pendant plusieurs mois sur le cloud DGX, soit environ 150 fois plus de puissance de calcul qu’AlphaFold. L’architecture utilisée, baptisée StripedHyena 2, permet un entraînement 3 fois plus rapide que les transformers classiques sur les longues séquences et petit fun fact, Greg Brockman, cofondateur d’OpenAI, a participé au développement de cette architecture pendant son année sabbatique.
L’une des applications les plus impressionnantes d’Evo 2, c’est sa capacité à prédire si une mutation génétique risque de causer une maladie, et ce, sans aucun entraînement spécifique. Les chercheurs ont testé le modèle sur le gène BRCA1, connu pour son lien avec le cancer du sein. Résultat, Evo 2 a prédit avec plus de 90% de précision quelles mutations étaient pathogènes et lesquelles étaient bénignes.
Mieux encore, Evo 2 est actuellement le seul modèle capable de prédire l’effet des mutations dans les régions non-codantes de l’ADN (les fameuses parties qu’on pensait “inutiles” et qu’on appelait autrefois “ADN poubelle”). Pour les variants codants, il est second meilleur, mais pour les variants non-codants, il est carrément le top du top of the pop !
Et pour prouver que le modèle ne fait pas que régurgiter ses données d’entraînement, l’équipe lui a demandé d’annoter le génome du mammouth laineux, une espèce qui n’était évidemment pas dans son dataset. Et le modèle a correctement identifié la structure exons-introns du génome de ce pachyderme (aujourd’hui disparu parce que j’ai mangé le dernier), démontrant qu’il a vraiment “compris” les règles fondamentales du vivant.
Mais là où ça devient vraiment dingue, c’est ce concept de “design sémantique”. En effet, dans les génomes bactériens, les gènes qui travaillent ensemble sont souvent positionnés côte à côte, du coup, si on donne à l’IA le contexte génomique d’une fonction particulière, elle peut générer de nouveaux gènes ayant des fonctions similaires.
En gros, on prompte l’IA avec de l’ADN au lieu de texte, et comme un bon LLM qui complète vos phrases, Evo complète… vos génomes.
Pour tester cette approche, les chercheurs ont d’abord généré une toxine bactérienne basée sur une toxine connue. Ils ont ensuite utilisé cette toxine comme “prompt” pour demander à l’IA de créer des antitoxines correspondantes. Sur 10 propositions, la moitié ont réussi à neutraliser partiellement la toxine, et deux d’entre elles l’ont complètement désactivée avec 95-100% de survie cellulaire.
Et ces antitoxines n’avaient que 21 à 27% de similarité avec les protéines existantes, donc autant dire qu’Evo a inventé quelque chose de quasi-nouveau ! Et ce n’est pas du bricolage aléatoire puisque l’analyse montre que ces protéines seraient l’équivalent d’un assemblage de 15 à 20 morceaux de protéines différentes, recombinés de façon inédite.
Et ce qui est encore plus impressionnant, c’est que certaines de ces antitoxines générées fonctionnent contre plusieurs toxines différentes utilisant des mécanismes d’action distincts. L’une d’elles neutralise trois toxines naturelles, alors que l’antitoxine naturelle équivalente ne fonctionne que contre sa toxine d’origine. L’IA aurait donc identifié une compatibilité fonctionnelle plus large que ce qu’on observe dans la nature !
Les chercheurs ont aussi testé des systèmes où l’antitoxine est un ARN plutôt qu’une protéine. Là encore, le modèle a généré une antitoxine fonctionnelle avec 88% de survie, tout en conservant les caractéristiques structurelles essentielles malgré une séquence divergente.
Mais surtout, l’équipe a généré une toxine qui ne ressemble à absolument rien de connu. Aucune similarité de séquence, aucune similarité structurale, même avec les méthodes de détection les plus sensibles. Pour reconstituer tous les acides aminés de cette protéine, il faudrait recombiner des fragments de plus de 40 protéines différentes, ce qui ressemble plus à une protéine Frankenstein créée de toutes pièces qu’à une variation évolutive.
Et histoire de pousser l’idée encore plus loin, l’équipe s’est attaquée aux anti-CRISPR. Ce sont des protéines utilisées par les phages pour désactiver le système immunitaire bactérien, qui sont parmi les plus évolutives qui existent, avec une diversité de séquences et de mécanismes absolument folle.
Et 17% des protéines générées ont montré une activité anti-CRISPR mesurable, soit un taux de succès remarquable. Parmi les candidates qui fonctionnent, certaines n’ont aucune similarité de séquence détectable avec les protéines connues, et même leurs structures prédites ne ressemblent à rien dans les bases de données. Ce sont littéralement des protéines nouvelles qui font le job !
Mais Evo 2 ne s’arrête pas à la génération de protéines individuelles. Le modèle peut maintenant créer des séquences génomiques complètes de plusieurs centaines de milliers de paires de bases. L’équipe a testé trois niveaux de complexité :
Génomes mitochondriaux : à partir d’un fragment de 3 kb d’ADN mitochondrial humain, Evo 2 a généré des génomes complets de 16 000 bases avec le bon nombre de gènes codants, d’ARNt et d’ARNr. Les protéines générées ont été validées par AlphaFold 3 et correspondent à des complexes fonctionnels de la chaîne respiratoire.
Génomes bactériens : en partant de Mycoplasma genitalium (le génome bactérien minimal), le modèle a produit des séquences de 600 kb où près de 70% des gènes prédits correspondent à des domaines protéiques connus.
Chromosomes de levure : Evo 2 a généré 330 kb d’ADN eucaryote avec des introns, des promoteurs, des ARNt correctement positionnés, le tout ressemblant aux vrais gènes de levure.
Les chercheurs ont même encodé des messages en code Morse (“EVO2”, “LO”) dans les profils d’accessibilité de la chromatine des séquences générées, démontrant qu’on peut “programmer” l’épigénome avec ce modèle.
On nage en pleine science-fiction, mais ça fonctionne !
Pour finir en beauté, l’équipe a lâché Evo sur 1,7 million de gènes bactériens et viraux comme prompts, générant 120 milliards de paires de bases d’ADN synthétique. Cette base de données, baptisée
SynGenome
, est accessible gratuitement et permet de rechercher des séquences par fonction, domaine protéique, espèce ou terme Gene Ontology.
On y trouve notamment des protéines chimériques avec des fusions de domaines jamais observées dans la nature. Ces combinaisons pourraient représenter des innovations fonctionnelles à explorer pour la biologie synthétique.
Et le plus beau dans tout ça c’est que tout est open source. Les modèles (7B et 40B paramètres) sont disponibles sur
Hugging Face
, le code d’entraînement et d’inférence est sur
GitHub
, et le dataset OpenGenome2 est téléchargeable. Vous pouvez même tester Evo 2 directement dans votre navigateur via l’
API hébergée par NVIDIA
ou l’interface Evo Designer.
Pour ceux qui veulent aller plus loin, NVIDIA propose aussi des tutoriels de fine-tuning via son framework
BioNeMo
, et une collaboration avec le labo
Goodfire
a produit un outil d’interprétabilité pour visualiser ce que le modèle “voit” dans les séquences génomiques.
Bien sûr, la génération autorégressive peut produire des séquences répétitives ou des “hallucinations” biologiques (des gènes réalistes mais non fonctionnels), et c’est pourquoi ce design sémantique nécessite des filtres et des validations expérimentales. De plus, cette approche est limitée aux fonctions encodées par les relations contextuelles dans les génomes prokaryotes, ce qui exclut de nombreuses applications eucaryotes… pour l’instant.
Un des génomes bactériens générés était d’ailleurs incomplet et ne fonctionnerait probablement pas si on le synthétisait et l’insérait dans une vraie bactérie. Mais l’équipe travaille déjà avec des experts en synthèse et assemblage d’ADN de l’Université du Maryland pour tester expérimentalement ces génomes générés.
Bref, on n’en est pas encore à créer des enzymes qui digèrent le plastique sur commande, mais le fait qu’une IA puisse générer des protéines fonctionnelles à partir de rien, juste en apprenant les patterns de l’évolution… c’est quand même complètement dingue. Et avec un taux de succès allant de 17 à 50% sur seulement quelques dizaines de variants testés, le design sémantique surpasse déjà de nombreuses méthodes classiques de conception de protéines.
Quoiqu’il en soit, la biologie générative vient de franchir un cap, et j’ai hâte de voir ce que les biologistes vont en faire !
C’est comme si votre belle-mère avait emménagé chez vous, sauf que celui-là ne vous fera pas de remarques sur votre façon d’organiser le frigo ^^. La startup Sunday vient en effet, de présenter Memo,
un robot domestique
qui promet de vous libérer des tâches ménagères. En tout cas, avec ce truc, plus besoin de faire des gosses… Mais siii, vous savez ces mini prisonniers que vous utilisez pour vider et remplir vos lave vaisselles et que
des cinglés veulent sacrifier
afin de donner un sens à leur vie.
Blague à part, Memo est développé par Tony Zhao et Cheng Chi, deux diplômés de Stanford qui ont bossé chez Tesla, DeepMind, Waymo, Meta et Neuralink, s’inscrivant dans la lignée de
ces autres robots domestiques innovants
. L’équipe compte maintenant 25 ingénieurs et chercheurs et ce robot a été pensé différemment des autres machines du genre.
Au lieu de s’entraîner dans des simulations industrielles ou des labos aseptisés, Memo a appris en observant de vrais humains faire leurs corvées dans plus de 500 foyers réels. Et sa techno clé, c’est le gant breveté “Skill Capture Glove”.
Des volontaires ont porté ce gant pendant qu’ils faisaient leur ménage, et le système a capturé leurs mouvements. Comment ils plient le linge, comment ils rangent les chaussures dans l’entrée, comment ils chargent le lave-vaisselle, comment ils se… euh, pardon, je m’égare. Bref, Sunday a envoyé plus de 2 000 gants à ces “Memory Developers” et a collecté environ 10 millions d’enregistrements de tâches domestiques réelles. D’après eux, c’est l’une des plus grosses bases de données spécialisées pour robots domestiques qui existe !
L’idée de départ c’est que la plupart des robots domestiques sont des adaptations de machines industrielles. Ils fonctionnent bien dans des environnements structurés pour l’occasion, mais ils plantent lamentablement dès qu’ils se retrouvent face au chaos d’une vraie maison. Des chaussettes qui traînent n’importe où, des assiettes empilées n’importe comment, un chat qui passe devant eux au mauvais moment et c’est la catastrophe !
Du coup, grâce à ces millions d’exemples de situations domestiques authentiques, Memo peut gérer ce qu’ils appellent les “tâches à horizon long”. Ce sont des actions en plusieurs étapes où il faut prendre des décisions selon le contexte comme débarrasser une table, remplir et vider un lave-vaisselle, plier du linge, ranger les chaussures qui trainent dans l’entrée, et même préparer un espresso.
Bon après faudra pas lui demander de gérer un ado en crise existentielle qui n’a plus de Wifi, mais c’est déjà pas si mal.
Côté design, comme vous pouvez le voir, Memo ne ressemble pas du tout aux robots humanoïdes qui font des saltos sur scène. Il a une base roulante au lieu de jambes, ce qui lui permet de rester stable même si le courant se coupe. Donc pas de risque qu’il vous tombe dessus pendant votre sieste.
Son torse peut également monter et descendre pour atteindre des objets à différentes hauteurs et visuellement, il a vraiment un air rétrofuturiste assez mignon avec son corps blanc brillant, ses deux bras super longs, et un visage de cartoon avec des grands yeux en boutons… Ah et vous pouvez même lui mettre différentes casquettes de couleur pour lui donner un look west coast.
Ça me rappelle un peu Baymax dans Big Hero 6. Son corps est également recouvert de silicone souple, ce qui le rend plus dodu et rassurant qu’un robot humanoïde classique froid avec son look de T-1000.
La sécurité a été également bien pensée, d’après ce qu’ils expliquent. Memo est en effet conçu pour être “safe” en présence d’enfants. Si un gamin le pousse ou lui rentre dedans, il ne va pas riposter en lui mettant un coup de savate comme Nawell. Et sa stabilité passive fait qu’il ne peut pas tomber brutalement même en cas de coupure de courant, contrairement à un père de famille bourré et violent.
Et concernant la vie privée, Sunday insiste sur le fait que leur méthode d’apprentissage est respectueuse puisque le robot n’a pas besoin de vous filmer en permanence pour apprendre, vu qu’il utilise les données collectées via le fameux gant et sa bibliothèque de compétences en expansion permanente.
Voilà, le programme de bêta-test “
Founding Families
” a ouvert le 19 novembre et ils vont sélectionner 50 familles qui recevront des exemplaires numérotés de Memo avec un support rapproché de l’équipe. JE ME PORTE VOLONTAIRE POUR TESTER CE TRUC !! Et ensuite, le produit final sera commercialisé au plus tôt fin 2026 avec un prix de départ estimé autour de 20 000 dollars. Ouais, c’est pas donné, mais bon, si vous calculez le coût “d’élevage” d’un enfant jusqu’à ce qu’il soit capable de plier une chaussette correctement, vous vous rendrez compte que c’est peut-être pas si cher ^^.
Hé bien voilà, c’est officiel ! Eugen Rochko, le créateur de Mastodon, quitte son poste de CEO avec un chèque d’un million d’euros et un soupir aussi profond que la Fosse des Mariannes. Et franchement, on peut pas lui en vouloir.
Dans son annonce, Rochko explique que “les deux dernières années ont été particulièrement difficiles” et que sa santé mentale et physique en a pris un coup. Il mentionne notamment une interaction “particulièrement difficile” avec un utilisateur l’été dernier qui l’a vraiment poussé à reconsidérer son rôle.
Quand le mec qui a créé un réseau social se barre de ce même réseau social à cause de la toxicité de ses utilisateurs, je pense qu’on peut officiellement déclarer le web social complétement mort.
Ça confirme totalement mon choix de
m’être cassé de ces trous à merde
parce que de ce que je lis
dans cet article
et de ma propre expérience, Mastodon ne vaut finalement pas mieux que X ou Facebook en matière de faune toxique. C’est dommage parce qu’à la base, l’idée du Fediverse c’était justement d’échapper à ça. Mais bon, mettez des humains ensemble sur Internet et attendez cinq minutes, vous obtiendrez invariablement un zoo où les animaux se lancent leurs excréments à la figure.
Pour rappel, Mastodon avait connu son heure de gloire après le rachat de Twitter par Elon Musk, atteignant un pic de 2,5 millions d’utilisateurs mensuels actifs. Mais aujourd’hui, ils ne sont plus qu’environ 750 000. C’est quand même une chute de 70% ! J’ai l’impression que les gens sont partis aussi vite qu’ils étaient venus, probablement fatigués de se faire engueuler parce que “insérez ici n’importe quoi pourvu que ça permette de beugler publiquement”.
Matthew Hodgson, le fondateur de Matrix / Element, résume également la situation en expliquant que les utilisateurs de ces plateformes décentralisées attendent qu’elles les “sauvent du paysage dystopique insupportable” des réseaux sociaux centralisés, sauf que spoiler alert, le problème ce n’est pas uniquement les plateformes… ce sont aussi les gens dessus. Vous pouvez décentraliser tant que vous voulez, si les utilisateurs sont des connards toxiques ou des victimes du syndrome de Stockholm accros à leur dose quotidienne de drama, ça ne changera rien.
Rochko va donc passer à un rôle consultatif le temps d’une transition de deux à trois mois et c’est le conseil d’administration de Mastodon, qui inclut Biz Stone (co-fondateur de Twitter, ça ne s’invente pas..), qui supervisera la suite. Je leur souhaite bon courage pour trouver quelqu’un d’assez maso pour reprendre le flambeau ^^.
Alors c’est vrai qu’échanger avec des gens normaux sans se faire agresser pour rien, ça me manque parfois, c’est vrai. Mais heureusement, j’ai mon Discord rempli de gens cools et mon Patreon qui est le temple de la bienveillance. Ce sont des endroits où on peut encore discuter sans qu’un random débarque pour m’expliquer que je suis un monstre pour avoir écrit tel ou tel article ou parce que j’ai mis de l’ananas sur ma pizza.
Et c’est normal car y’a pas de cour devant laquelle se faire mousser pour faire grimper son klout ^^.
M’enfin, bon courage à Eugen Rochko… je pense qu’il a fait le bon choix et avec son million d’euros, il va pouvoir s’offrir une belle thérapie et peut-être même des vacances dans un endroit sans WiFi. Le web social a certes été tué par les algorithmes mais surtout par ses propres utilisateurs qui ont complétement vrillés (les autres sont partis).
Sur ce, je retourne sur mes réseaux chillax et je vous souhaite une excellente soirée !