Vue normale

Reçu aujourd’hui — 2 janvier 2026

QUESTER1 - Le robot humanoïde qui tient dans un sac à dos

Par :Korben
1 janvier 2026 à 16:31

Et si je vous disais qu'un robot humanoïde, un vrai, avec contrôle de force sur tout le corps et des articulations dignes des gros modèles, ça tient maintenant dans un sac à dos ? Vous ne me croiriez pas et pourtant, je viens de découvrir sur Reddit cette vidéo où AGIBOT présente le QUESTER1 (ou Q1 pour les intimes), un petit bonhomme de 80 centimètres qui a de quoi faire réfléchir pas mal de monde dans l'industrie...

Bon, je vous vois venir... "Encore un robot jouet chinois". Sauf que non. Le truc qui change tout ici, c'est la technologie QDD (Quasi Direct Drive) qu'ils ont réussi à miniaturiser jusqu'à obtenir des articulations plus petites qu'un œuf. Et pas des articulations au rabais, hein mais d'un contrôle de force complet et de réactivité haute performance, c'est à dire le même niveau que les grands humanoïdes qui font 1m70.

En septembre dernier on découvrait que certains robots Unitree présentaient des failles Bluetooth . Avec du code fermé c'est pas surprenant alors qu'ici AGIBOT fait le choix inverse en ouvrant volontairement son SDK et son HDK. Le code, les interfaces, les modules d'extension... tout est accessible. Même les composants structurels externes sont open source, ce qui veut dire que vous pouvez imprimer en 3D vos propres coques et donner à votre Q1 l'apparence que vous voulez. Tête interchangeable incluse ! Le délire !

Mais pourquoi faire si petit ?

Bah justement, c'est là que ça devient fort car en théorie, réduire les dimensions de moitié divise le poids par 8 (les joies de la physique en 3D). Du coup, le robot encaisse mieux les chutes, les erreurs coûtent moins cher, et l'itération est beaucoup plus rapide pour les développeurs. Pour la recherche et l'éducation, c'est donc le format idéal puisqu'il tient dans un grand sac à dos.

Côté fonctionnalités, le Q1 n'est pas qu'une plateforme de dev puisqu'il intègre une IA personnalisée qui lui permet de répondre à des questions, d'enseigner l'anglais avec une prononciation correcte (et une patience infinie, contrairement à votre ancien prof de lycée), ou même de danser avec plus de précision que vous.

C'est le futur qui débarque et le plus cool c'est qu'à l'avenir, ils vont proposer une plateforme no-code qui permettra de créer des comportements facilement. Pour les makers, les chercheurs et les étudiants en robotique, c'est donc potentiellement une belle porte d'entrée vers l'humanoïde à taille humaine... enfin presque.

Reçu avant avant-hier

Ban-Rays - Les lunettes qui détectent les smart glasses

Par :Korben
29 novembre 2025 à 06:42

De nos jours, quand un mec chelou avec des lunettes cheloues nous fixe, on ne sait plus si c’est parce qu’il nous trouve irrésistible ou s’il est en train de balancer notre tronche à une IA pour savoir qui on est. Bon, pour vous, la question se pose peut-être moins, mais vous voyez l’idée ^^.

Heureusement, pour lutter contre ça, y’a maintenant un projet open source pour détecter ces petits curieux équipés de Ray-Ban Meta ou d’autres lunettes-caméras. Ce projet s’appelle Ban-Rays (jeu de mots avec “banned”, roh roh roh) et le but c’est de créer des lunettes capables de repérer les smart glasses équipées de caméras.

Et pour arriver à cela, le dev derrière ce projet utilise deux approches complémentaires.

La première, c’est l’approche optique basée sur un principe physique assez marrant. En effet, mes capteurs CMOS des caméras ont la particularité de renvoyer la lumière infrarouge directement vers sa source. C’est ce qu’on appelle l’effet “cat-eye” ou rétro-réflectivité, du coup, en balançant des impulsions IR vers une paire de lunettes suspecte et en analysant le signal réfléchi, on peut théoriquement détecter la présence d’une caméra. Et les capteurs produisent des pics de signal bien nets et rapides, contrairement aux surfaces réfléchissantes classiques qui génèrent des ondes plus longues.

Pour le moment, les tests avec les Ray-Ban Meta montrent des résultats un peu inconsistants à courte distance (genre 10 cm), mais le principe est là et ça s’améliore. Ah oui et le matos utilisé c’est un Arduino Uno, des LEDs infrarouges (940nm et 850nm), une photodiode et un transistor. Rien de bien méchant donc niveau budget.

Et la deuxième approche, c’est côté réseau avec la détection Bluetooth Low Energy. Les Ray-Ban Meta utilisent un identifiant fabricant spécifique (0x01AB pour Meta) et un Service UUID bien particulier (0xFD5F). Le souci c’est que pour le moment, ça ne détecte les lunettes que pendant l’allumage ou le mode appairage. Pour une détection continue pendant l’utilisation normale, faudrait du matos plus costaud genre modules nRF pour sniffer les paquets CONNECT_REQ. Mais bon, ça viendra puisque c’est dans la roadmap du projet.

Alors oui, vous allez me dire que les Ray-Ban Meta ont une petite LED qui s’allume quand elles filment, donc c’est pas discret. En théorie oui auf que cette LED est tellement minuscule que la Data Privacy Commission irlandaise a carrément remis en question son efficacité comme protection de la vie privée. Et surtout, un bidouilleur propose maintenant de désactiver cette LED pour une soixantaine de dollars. Meta a bien prévu une protection qui empêche les lunettes de fonctionner si on couvre la LED avec du scotch, mais le gars a trouvé comment contourner ça et sa liste de clients s’allonge…

Et l’autre truc que j’ai remarqué avec ces lunettes connectées, c’est qu’elles se déclenchent tout le temps pour tout et n’importe quoi. Comme ça écoute en permanence pour répondre aux commandes vocales, impossible d’avoir une conversation normale sans que le machin réagisse à un mot qui ressemble vaguement à “Hey Meta”. C’est encore pire que Siri ou Alexa qui font déjà des déclenchements intempestifs. Perso, c’est pour ça que je ne veux pas de ce genre de lunettes, même si je reconnais que c’est pratique pour photographier ou filmer des choses (dans le cadre de mon boulot hein…)

Et les inquiétudes sont d’autant plus justifiées qu’une étude de 2024 a montré qu’en combinant des Ray-Ban Meta hackées avec de la reconnaissance faciale en temps réel, on pouvait identifier des inconnus dans la rue. Encore plus récemment, l’Université de San Francisco a dû alerter ses étudiants après qu’une personne mystérieuse ait utilisé ces lunettes pour filmer des femmes sur le campus et partager les vidéos en ligne. Sympa l’ambiance de parano.

Bref, si vous êtes inquiet par ça (ou juste soucieux de votre vie privée), le projet Ban-Rays est sur GitHub avec tout le code en C++, Python et un peu de C. C’est encore expérimental mais les deux approches sont prometteuses et si vous voulez contribuer, y’a plein de trucs à améliorer comme les patterns de balayage IR, la fusion des données multi-longueurs d’onde, l’interrogation active BLE…

Source

AIR SNES - Une Super Nintendo fonctionnelle intégrée dans une paire de Nike Air Max

Par :Korben
27 novembre 2025 à 10:34

Salut les boomers ! Je sais que vous jouez comme des pieds aux jeux vidéo, mais est-ce que vous avez déjà rêvé de jouer aux jeux vidéo avec vos pieds ?

Perso, moi, non. Mais Gustavo Bonzanini , un designer basé à Singapour, l’a quand même fait. Pour célébrer les 35 ans du lancement de la Super Nintendo au Japon, il a créé l’AIR SNES. C’est une paire de Nike Air Max 90 customisées avec une console SNES entièrement fonctionnelle intégrée dedans.

Le mec s’est dit “les collabs entre marques de sneakers et jeux vidéo c’est cool, mais ce serait pas encore plus cool si les chaussures qui ressemblent à des consoles étaient vraiment des consoles ?”.

Ah les artistes 🤪 !

Résultat, un Raspberry Pi Zero W qui tourne sous RetroPie, planqué dans la languette de la basket, et hop, ça va faire le tour du monde !

Niveau specs, on a donc une autonomie d’environ 30 minutes de jeu (oui c’est court, mais c’est une chaussure les gars), un port HDMI intégré pour brancher sur une télé, plus un petit convertisseur RCA pour les écrans vintage. Et côté manettes, ça supporte les pads SNES originaux mais aussi les kits 8BitDo pour du sans fil via le Bluetooth.

Parce que jouer avec des fils qui sortent de sa basket, c’est moyen pratique quand même. Et si vous vous demandiez, oui, c’est vraiment jouable. Le designer a montré des vidéos où il fait tourner Donkey Kong Country sur son pied. C’est clairement un projet artistique complètement barré, et pas un produit commercial viable et c’est exactement pour ça que c’est génial !

Malheureusement c’est une pièce unique, donc c’est pas à vendre sauf si vous êtes prêts à poser quelques millions sur la table car tout homme a un prix (surtout les artistes ^^, rooh ça va je plaisante !!). Donc si vous voulez impressionner vos potes au prochain tournoi rétrogaming en sortant une console de votre pompe, va falloir apprendre à bricoler vous-même parce que n’est pas Bernard Arnault qui veut…

Source

Iteration 3D - Le Netflix du fichier 3D

Par :Korben
25 novembre 2025 à 09:58

On est mardi, il est midi, et vous voulez accrocher un câble USB sur le bord de votre bureau. C’est simple, non ? Vous ouvrez votre dossier “STL-A-TRIER-2024” (anciennement “STL-A-TRIER-2023”, lui-même successeur de “STL-A-TRIER-2022”) avec dedans 47 versions de clips pour câbles.

Mais malheureusement, aucun au bon diamètre. Alors vous pétez un plomb et vous allez sur Thingiverse , vous tapez “cable clip”, et là vous obtenez…. 12 000 résultats. Ouin ! Une heure plus tard, vous avez téléchargé 8 nouveaux clips, vous les réimprimez… Et c’est toujours pas le bon diamètre.

Bref, la vie est dure (surtout la vôtre, c’est vrai).

Et bien figurez-vous qu’un développeur de Rennes a décidé un jour de sauter un apéro ^^ pour s’attaquer à ce problème existentiel qui touche tous les possesseurs d’imprimante 3D : la collectionnite aigüe de fichiers STL. Son truc s’appelle Iteration 3D , et c’est donc une plateforme qui génère des modèles 3D paramétriques à la demande.

Ainsi, au lieu de télécharger 50 versions d’un clip avec des diamètres différents, vous générez LE clip de vos rêves avec VOTRE diamètre. 32mm ? Hop. 47mm ? Hop. 18,5mm parce que vous avez un câble bizarre ? Hop aussi.

Sylvain Judeaux, le créateur, a lancé la version beta début 2025 avec déjà plus de 600 fichiers disponibles gratuitement. Ce sont 600 templates donc 600 familles de pièces différentes et chaque template peut générer des centaines, voire des milliers de variations.

C’est de la modélisation paramétrique qui consiste au lieu de figer un objet 3D avec des dimensions fixes, à définir des variables et des relations mathématiques. L’épaisseur, le diamètre, les angles, la taille des trous, les propriétés du matériau…etc, tout devient ajustable. Vous rentrez vos valeurs, le moteur recalcule le modèle, et vous téléchargez votre STL personnalisé.

L’interface propose 3 grandes catégories : les pièces techniques (clips de tuyaux, supports, adaptateurs), les accessoires (boîtes de rangement, organisateurs, poignées), et les formes de base. Il y a aussi un moteur de recherche multi-critères qui permet d’affiner selon les paramètres et de pondérer les résultats pour obtenir ce qui vous intéresse vraiment du premier coup !

Les formats supportés sont le STL et le 3MF, avec une compatibilité STEP en préparation et en bonus, la plateforme gère déjà le multi-pièces et le multicolore.

Bien sûr, vous l’aurez compris, cette façon de faire, ça marche super bien pour les formes géométriques, les pièces techniques, les trucs fonctionnels, par contre, pour les formes organiques ou les objets avec une vraie dimension esthétique, ça reste compliqué. Un support de téléphone, oui, une figurine de dragon, non !

Toute la plateforme est gratuite et accessible ici : iteration3d.fr !

Merci à B0t_Ox pour l’info !

❌