Quantcast
Channel: Humanoïdes
Viewing all 1675 articles
Browse latest View live

Le nouveau robot Baxter est arrivé : deux fois plus rapide et encore plus simple à utiliser

$
0
0

Le-robot-Baxter-a-été-mis-à-jour

Le robot collaboratif Baxter voit ses performances améliorées. Une récente mise à jour du robot collaboratif le plus avancé de sa génération (voir notre présentation du Baxter ici) vient d'être annoncée par son constructeur Rethink Robotics. Il peut maintenant plier une chemise, préparer le café et même résoudre un Rubik's Cube, et sans oublier sa fonction principale : mieux collaborarer avec les humains. Baxter fait partie de la famille des robots collaboratifs, qui ne nécessitent pas de programmation complexe de la part d'un ouvrier pour être rapidement mis en service sur une chaîne d'emballage par exemple. Les "cobots" (contraction du mot collaboratif et robots) tendent vers une interaction la plus naturelle possible entre l’homme et la machine. La mise à jour logicielle du Baxter va dans ce sens : en plus d'être plus rapide et plus précis qu'avant, le robot de Boston (ville où siège Rethink Robotics) va être plus facile à utiliser par son opérateur. La différence dans la rapidité d'exécution est impressionante. Regardez cette vidéo : En France, Baxter est distribué par la société Génération Robots dans sa version Recherche. Il équipe déjà quatre centres de recherche (CPE Lyon, IRT Jules Verne, Ecole Centrale de Nantes et INRIA Bordeaux). Plus expérimentalement parlant, la pâtisserie Sève, a l'intention de l'utiliser pour automatiser des tâches manuelles pénibles pour ses employés. Le-nouveau-robot-Baxter-est-arrivé-deux-fois-plus-rapide-et-encore-plus-simple-à-utiliser La mise à jour de logiciel, appelée Intera 2.1, va permettre aux utilisateurs de réaliser leurs opérations d'assemblage, de mise en carton, de déchargement de palettes deux fois plus vite qu'avant et encore plus facilement grâce à une fonction de préselection de mouvement "motion present". En appuyant sur ce bouton, la personne pourra paramétrer la vitesse et la précision de Baxter. En outre, Rethink Robotics a également publié une nouvelle mise à jour du logiciel SKD 1.0 pour la version spécifique du robot pour recherche, la version Baxter Research Robot. Cette mise à jour permet aux chercheurs d'accéder à distance à l'unité centrale de Baxter, son cerveau en quelques sortes. Cette mise à jour pourra bénéficier à tous les centres de recherche et développement publics et privés Eckert. Aux Etats-Unis plus de 100 universités utilisent déjà le robot Baxter. Différentes-attitudes-du-cobot-Baxter Rethink Robotics sort régulièrement des mises à jour de son robot environ deux fois par an. Les ingénieurs sont déjà en train de travailler sur la future mise à jour. La start-up de Boston, se donne les moyens de ses ambitions : après avoir licencié un quart de ses effectifs fin 2013, elle a annoncé le mois dernier le recrutement de deux experts en logiciel, Jim Lawton, ex-Dun & Bradstreet, ainsi que Milan Shah, ex-Core Security Technologies, aux postes de Directeur Marketing et Directeur adjoint Développement Logiciel respectivement. Site de Rethink Robotics Site de Génération Robots

Maker Faire 2014 – Compétition de Programmation Robotique

$
0
0

Salon-Maker-Faire-Paris

MathWorks organise une compétition de programmation robotique pendant la Maker Faire Paris qui aura lieu en juin. L'inscription est ouverte aux étudiants, familles et Makers jusqu'au 16 mai. 12 équipes seront retenues pour les finales. Après Saint-Malô, la deuxième Maker Faire en France posera ses valises à Paris les 21 et 22 juin. Maker Faire, c'est l'événement des "Makers" : des inventeurs, bidouilleurs en tous genres et créateurs qui viennent de la France entière dans un seul but : partager avec le public leur passion de la fabrication - impression 3D, robotique, mais aussi cuisine, origami, chimie... Le Samedi 21 Juin, les 12 équipes finalistes s’affronteront en direct au sein d’arènes aux couleurs de la planète Mars. Elles auront, non pas à fabriquer un rover comme celui de la NASA, mais à optimiser sa programmation pour l'exploration d'un maximum de site sur la dite planète. compétition robotique Maker Faire Paris Les organisateurs fourniront un modèle de simulation du fonctionnement du robot développé sous MATLAB/Simulink qui permet d’effectuer la mission sur Mars avec un temps de parcours basique. A partir de votre inscription et d’ici le jour de la compétition, il vous faudra modifier et optimiser ce modèle, en vous montrant créatif et audacieux dans votre programmation. Le jour de la Compétition, des robots Mars Rover, composés de cartes Arduino® et Raspberry Pi®, imprimés en 3D et découpés au laser, seront mis à disposition des équipes. Vous pourrez dès lors tester votre modèle optimisé sur ces robots et affronter vos concurrents dans une course effrénée à l’exploration de la planète Mars. Inscriptions du 10 Avril au 16 Mai 2014 sur le site de Maker Faire Paris : http://www.makerfaireparis.com/?page_id=208 Critères d’inscription : Une équipe doit être constituée de 2 à 4 personnes Tous les membres de l’équipe doivent être âgés de 15 ans et plus Un membre au moins de l’équipe doit posséder le statut d’étudiant Lieu, date et horaires: Le CentQuatre – Paris 19ème, le Samedi 21 Juin de 10h00 à 18h00

Des mini robots pour rendre les écrans tactiles plus intéractifs

$
0
0

Des-mini-robots-pour-rendre-les-écrans-tactiles-plus-intéractifs

Les écrans tactiles sont l'interface physique la plus en vogue ces derniers temps. Smartphones, tablettes, écrans de bureau... des nouveaux types d'appareils ont vu le jour grâce à eux. Mais les consommateurs toujours plus exigeants, aimeraient pouvoir bénéficier de plus de réactivité de leur part, et en particulier, des sensations en retour. Microsoft et d'autres géants s'y intéressent de plus en plus... Les écrans dits haptiques, à retour de force, sont capables de transmettre une interaction avec leur utilisateur, c'est-à-dire, un retour de force. C'est exactement cette interaction qui manque aujourd'hui aux écrans tactiles de nos téléphones... thumbles-interface-tactile-intelligence Pour améliorer cela, un studio de design en interfaces interactives, Patten Studio, originaire de Brooklyn, à New York, a imaginé une interface expérimentale appelée Thumbles, capable d'offrir la notion de retour de force aux écrans. Des mini robots placés sur un écran tactile vont se transformer en interface matérielle de commandes. En les manipulant, l'utilisateur déclenchera des actions sur l'écran tactile en-dessous. Un tout nouveau type d'interactivité physique pour faire de la musique, dessiner, jouer, présenter un document en réunion... Ce qui rend Thumbles unique en son genre est la capacité des robots à être autonomes. Ils peuvent ainsi se déplacer par eux-mêmes et donc fournir un retour de force. Ainsi, ils pourront transmettre au manipulateur une résistance imitant la même sensation que lorsque l'on tourne un potentiomètre, on appuie sur un bouton ou on actionne un joystick. Thumbles permet également de reproduire des objets ou des structures telles que des molécules ou de l'eau. Les robots sont de simples systèmes imprimés en 3D, avec des roues molles, une carte imprimée et une batterie. Nous vous avions parlé d'une équipe de recherche qui arrive à rendre tactile n'importe quelle surface physique ainsi que de cette interface de retour de force grâce à des petite cubes en bois robotisés. La technologie de Patten Studio pourrait intéresser plus d'un laboratoire de recherche... Site de Patten Studio retour-de-force-pour-les-écrans-tactiles robot-imprimé-en-3D

AR.Drone 2.0 : les utilisateurs Windows 8 ont leur appli !

$
0
0

ar.drone-2.0.-et-windows-8

Vous l’attendiez avec une grande impatience depuis l’annonce du partenariat Parrot-Microsoft, l’application AR.FreeFlight est maintenant disponible sur le Windows Store ! Sortie vendredi dernier sur le Store mondial, AR.FreeFlight sur Windows reprend toutes les fonctionnalités qui ont fait le succès de l’application sur iOS et Android. Pilotez le Parrot AR.Drone grâce à une interface tactile et intuitive, filmez vos plus beaux vols et partagez facilement vos vidéos sur les réseaux sociaux. AR-Free-Flight-2.0-parrot-sous-windows-8 Après son arrivée sur Android en 2011, l’AR.Drone 2.0 élargit une nouvelle fois son parc d’appareil compatible. Le drone est désormais contrôlable avec tous les smartphones/tablettes récentes du marché. Dès aujourd’hui, pilotez votre drone préféré avec votre Windows Phone ou votre tablette Microsoft Surface. Site de téléchargement piloter-un-drone-sous-windows-8 AR.Drone-2.0-sous-windows-8 vol-en-immersion-AR.Drone-2.0 paramètres-AR.FreeFlight-2.0

Des images splendides de New-York depuis les airs

$
0
0

un-drone-survole-manhattan

Un photographe a fait voler son DJI Phantom 2 au-dessus des gratte-ciels de New York et le résultat est simplement magnifique. Malgré la dangerosité (et la folie!) de cet acte, nous ne pouvons qu'apprécier les images et contempler Manhattan. Randy Scott Slavin est un photographe et réalisateur de clip de musique. Il vit à New-York, connaît bien sa ville et va peut-être en découvrir un peu plus prochainement. En effet, il risque de connaître les locaux de la police. Le vol en agglomération, surtout au-dessus d'une ville aussi dense que New-York, est fortement déconseillé. Cet homme qui avait fait crasher son drone en plein coeur de Manhattan pourrait en témoigner. dji-phantom-2-survole-new-york Ceci dit, Randy nous offre de belles images tournées avec une Gopro 3 Black : le pont de Brooklyn, le Financial District, Washington Square, la gare Grand Central, Central Park... la Grosse Pomme comme vous ne l'avez jamais vue ! survol-de-new-york-par-un-drone new-york-vu-des-airs

La voiture autonome de Google a parcouru plus d’un million de kilomètres

$
0
0

La-voiture-autonome-de-Google-a-parcouru-plus-d'un-million-de-kilomètres

La Google Car, la voiture autonome développée par Google, vient de passer la barre des 700 000 miles (soit 1 126 541 kilomètres) parcourus sans provoquer un seul accident. Jamais aucune voiture aussi intelligente que celle de Google n'aura été conçue. Et le meilleur reste à venir... Google vient de publier une note sur les avancées de son programme voiture sans conducteur dévoilée publiquement pour la première fois en octobre 2010. Le prototype vient de franchir les 700.000 miles soit plus d'1 millions de km sans avoir à déplorer un seul accident. La voiture continue d'apprendre à naviguer en milieu urbain en évitant les dangers qu'elle rencontre à chaque coin de rue. Si ça se trouve, la Google Car sera bien meilleure que n'importe quel conducteur. A moins que ce ne soit déjà le cas... La-lexus-de-Google-car
Nous avons amélioré notre logiciel afin qu'il puisse détecter des centaines d'objets distincts simultanément - piétons, autobus, panneaux de signalisation brandi par un agent, cycliste tendant le bras pour indiquer sa direction. Un véhicule autonome peut faire attention à tous ces signaux au-delà des capacités physiques d'un humain - il ne se fatigue ou ne se lasse jamais.
google-car-apprend-en-conduisant La Google Car a parcouru en long et en large Mountain View, en Californie, ville où siège le géant du web. La conduite en ville est bien plus complexe que sur une autoroute, avec des centaines de différents objets en mouvement, tous obéissant à des règles différentes et des comportements imprévisibles indépendants de la voiture. Les voitures de Google ne sont pas encore prêtes pour le grand public. Elles sont capables de gérer 90 à 95% des cas de manière autonome. Maintenant, les derniers pour cents seront probablement les plus compliqués à atteindre en termes de recherche, programmation, apprentissage de la machine... Il est impossible pour les ingénieurs Google de planifier à l'avance tous les scénarios que pourra rencontrer une voiture autonome dans son cycle de vie. La solution est donc de créer un système capable d'apprendre par lui-même et de prendre des décisions en temps réel. Des accidents, il y en aura. Comme pour les voitures traditionnelles que nous conduisons. Surtout que les voitures autonomes circuleront sur les mêmes routes et se mélangeront à la circulation normale. Mais une chose est sure, les voitures sans conducteur ont le potentiel de révolutionner notre perception de la conduite, le secteur du transport et les infrastructures urbaines et routières. google-car-dans-mountain-view circulation-de-la-google-car

Lili, une lampe robotisée qui interagit avec son entourage

$
0
0

Arduino-+-lampe-+servomoteurs

Lili est un petit robot de compagnie créé par Johan Berger, passioné de bidouille et DIY en tous genres. Il s'agit d'une petite lampe robotisée capable d'interagir avec les gens qui passent à côté d'elle. Lili est faite de peu de choses, mais de belles choses : une carte Arduino Uno, un écran à 64 LEDs NeoMatrix de Adafruit et deux servomoteurs de la marque Dagu. Un petit robot à mettre sur son bureau pour épater vos collègues ! Lili regarde, s'anime et affiche des images : un cœur, un smiley, un cocktail, un équaliseur… et toute une galerie d’effets visuels. Quand il fait nuit, Lili fait la lampe et éclaire la pièce, puis éclaire le plafond de couleurs pendant quelques minutes dès qu’elle se retrouve seule. Lili est autonome, elle n’a aucun bouton et n’a pas besoin d’être connectée à un ordinateur. Johan Berger, photographe passionné et ingénieur de formation, s'est inspiré de Pixal, Wall-E, La Belle et la Bête ou encore du film Her. Lili nous rappelle évidemment la lampe Pixar Luxo dont nous vous avions parlé ici, que trois étudiants néo-zélandais ont reproduit. Si vous êtes intéressé par Lili, vous pouvez passer commande sur le site de son créateur. Les couleurs et les animations peuvent être adaptées selon votre demande. Elle pourra par exemple servir à accueillir les clients d’un restaurant ou d’une société, de décoration dans une maison ou à mettre de l'animation dans une chambre d'enfant. Lili-vue-de-l'intérieur_2 Lili-vue-de-l'intérieur Lampe-lili-avec-64-leds lampe-autonome-qui-s'anime Une-lampe-robot-à-base-d'Arduino

Giraff, le robot européen qui prend soin des personnes âgées

$
0
0

Le-robot-assitant-Giraff

Une équipe scientifique financée par l'Union Européenne a conçu GiraffPlus, un système d'aide à la personne qui comprend un robot personnel, destiné à prendre soin des personnes âgées chez elles. Combinant robotique et domotique le système devrait être commercialisé d'ici la fin 2015. Il est testé pour le moment dans six foyers européens. Il y a même une mamie italienne qui tient un blog sur son Giraff qu'elle a rebaptisé Mr. Robbin. Giraff fait partie d'un projet plus large, englobant un dispositif connecté pour aider les personnes âgées à mener une vie plus indépendante avec moins de risques. Ce projet financé par la Communauté Européenne à hauteur de 3 millions d'euros s'appelle GiraffPlus. Il n'est pas à confondre avec cet autre projet de robot de téléprésence européen. Il consiste en un réseau de capteurs placés à divers endroits de la maison afin de surveiller l’état de santé des personnes âgées et leurs activités. Ce réseau intelligent peut détecter des visages, mesurer des données comme la pression artérielle, la température corporelle ou le poids, ou permettre d'interagir par la voix avec une personne à distance. Robot-mobile-européen-Giraff Toutes les données collectées par le système sont ensuite envoyées et traitées par une unité centrale pour suivre l'activité du patient, son état de santé et même son bien-être : par exemple il sera capable de comprendre si la personne est fatiguée et lui conseiller d'aller se reposer. Le système intelligent est capable de déclencher des alertes ou des rappels à son utilisateur ou bien à la famille ou aux aides soignants. Le dispositif GiraffPlus est complété par un robot mobile sur roues mesurant la taille d'un humain. Le Giraff est connecté à Internet et peut être contrôlé à distance. Un système intégré de visioconférence permet à la personne âgée de bénéficier de la téléprésence chez elle. C'est l'assurance pour son utilisateur de rester en contact avec sa famille ou son médecin. Inversement, la famille sait qu'elle peut se connecter au Giraff et l'utiliser pour vérifier que la personne âgée se porte bien. Pour le médecin, c'est un bon moyen de faire une consultation sans besoin de se déplacer chez la personne, simplement en prenant le contrôle du robot. Robotique-et-domotique-chez-les-personnes-agees Giraff se déplace dans n'importe quelle direction, même à l'envers, à l'aide de roues propulsées par des moteurs situés sous sa base. Il se base sur des capteurs Kinect pour détecter les obstacles (murs, tapis, personnes...). Le système GiraffPlus sera commercialisé sur la base d'un forfait initial et d'un abonnement mensuel. Ses concepteurs estiment estime que le service pourra concurrencer les services de soins à temps plein traditionnels, qui sont de plus en plus coûteux. Avec GiraffPlus, l'UE souhaite étudier de quelle manière les robots et d'autres dispositifs peuvent aider les personnes âgées à mener une vie plus indépendante avec moins de risques. Selon les estimations, le marché des robots et des dispositifs d'assistance aux personnes âgées devrait représenter 13 milliards d’euros dans l'UE d’ici à 2016.

Une mamie italienne de 94 ans utilise Giraff

Les gens se demandent pourquoi je n'habite pas chez ma fille, mais elle a aussi des petits-enfants et beaucoup de nouvelles responsabilités. Avec ce précieux assistant, que j’appelle “Robin”, je suis moins inquiète pour l'avenir, et mes enfants et petits-enfants sont rassurés.
explique Lea Mina Ralli, 94 ans, ou «nonna» Lea, comme on dit en Italie. Elle utilise le système GiraffPlus depuis 5 mois et parle volontiers de “M. Robin” sur son blog (en italien). Cette mamie fait partie des six personnes âgées qui ont été choisies pour tester le dispositif GiraffPlus chez elles. Parmi elles, deux habitent en Espagne, deux en Suède et deux en Italie. GiraffPlus sera présent dans 15 foyers d'ici à la fin de 2014, on peut lire dans le communiqué publié hier par l'UE. Le consortium GiraffPlus associe des partenaires publics et privés d'Italie, du Portugal, de Slovénie, d'Espagne, de Suède et du Royaume-Uni. Site officiel du projet GiraffPlus

Un magicien s’appuie sur un assistant robot

$
0
0

Un-magicien-utilise-le-robot-Baxter-pour-ses-tours

Les magiciens s'y mettent eux aussi... La robotique a réellement pénétré tous les métiers et nous n'avons encore rien vu. Pendant une conférence TED le célèbre magicien suisse Marco Tempest a présenté son dernier tour avec un assistant un peu particulier : le robot Baxter. Les assistants de prestidigitateurs n'ont qu'à bien se tenir. Les robots débarquent dans la magie ! De plus en plus, les magiciens aiment utiliser la technologie dans leurs tours, toujours plus spectaculaires et grandioses. Marco Tempest vient de le réaliser en direct sur la scène d'une séance TED (Technology, Entertainment and Design) qui s'est tenue à Vancouver en mars dernier. Baxter-a-été-programmé-pour-faire-des-tours-de-magie Le magicien a mis au point ce tour et s'est entraîné pendant plusieurs mois avant de parvenir à un résultat fluide et synchronisé, visible dans la vidéo ci-dessous. Avec le cobot Baxter, rebaptisé EDI (Electronic Deceptive Intelligence, intelligence électronique illusioniste), prononcé "Eddie", l'illusioniste Marco Tempest collabore parfaitement comme s'il s'agissait de son assistante habituelle. Bien qu'il soit conçu pour fonctionner dans un environnement industriel, Baxter a cette facilité à s'adapter à n'importe quel milieu et à n'importe quelle utilisation. C'est magique ! On le branche à une prise murale et le voilà prêt à apprendre des tâches simples et répétitives sans besoin pour l'utilisateur de connaître un langage de programmation en particulier. Pour sa conférence TED, Marco Tempest voulait en mettre plein la vue. Pendant huit mois, il a alors repenser l'usage du Baxter, lui a ajouté des mains imprimées en 3D, l'a habillé avec un chapeau, a changé son avatar, et a programmer les textes à lui faire dire. Et le résultat est vraiment sympathique et drôle. Cela ne va pas révolutionner la robotique, on est d'accord... mais Marco Tempest aura eu le mérite d'être le premier à faire confiance à un cobot en tant qu'assistant. Un-magicien-qui-s'appuie-sur-un-assistant...-robot Illusioniste-et-un-robot

Coca-cola utilise des drones pour la bonne cause

$
0
0

Les-drones-de-coca-cola-à-Singapour

Le géant du soda gazeux flirte avec la robotique depuis quelques temps. On connaissait déjà le robot social de Coca pour rassembler la foule lors d'évènements, il y aura maintenant les drones pour apporter du Coca aux ouvriers sur un chantier ! Cette vidéo virale a été imaginée par une agence de communication pour Coca-Cola Singapour. Plusieurs drones ont été déployés par la marque, pour apporter des milliers de messages de remerciement ainsi que des canettes de Coca aux ouvriers en train de construire les futurs gratte-ciels de la mégalopole asiatique. Les ouvriers, perchés en haut des immeubles, voient arriver droit devant eux des multirotors chargés de boîtes métalliques contenant les canettes. Mais ce qu'ils ne savent pas, c'est que des messages de soutiens et de remerciements écrits par des singapouriens lambdas sont attachés à ces canettes. Les-drones-qui-apportent-du-coca-à-des-ouveirs Coca-Cola a voulu rendre hommage à ces milliers d'ouvriers, souvent dans l'ombre, qui risquent leur vie en haut des gratte-ciels pour une maigre récompense en fin de mois. L'opération de communication a été baptisée Happiness from the Skies, le bonheur depuis les airs, et menée conjointement par le géant américain et Singapore Kindness Movement, un mouvement populaire sans but lucratif, qui prône le bonheur parmi les citoyens de Singapour. Comment joindre l'utile à la technologie...

EasyJet va utiliser des drones pour faire des économies

$
0
0

easyjet-utilise-des-drones-pour-inspection

La compagnie aérienne à bas coûts EasyJet a fait part mercredi de son intention d'utiliser des drones télécommandés pour inspecter certains de ses avions au sol, avec pour double objectif une efficacité accrue et une réduction de ses coûts. Le transporteur a procédé à une démonstration à Luton, dans le sud de l'Angleterre, où se trouve son siège, avec un drone propulsé par six rotors. easy-jet-va-économiser-des-couts-grace-aux-drones EasyJet explique que l'utilisation de drones pourrait, dans le cas d'un appareil touché par la foudre, ramener la durée de l'inspection à quelques heures, contre plus d'une journée actuellement, permettant ainsi d'accélérer la remise en exploitation de l'avion et de réduire le coût de la maintenance. Les drones, qui pourraient être opérationnels d'ici l'année prochaine, seront développés par la société britannique CopterCraft et le laboratoire de Robotique de Bristol. En outre, EasyJet travaille également sur une autre nouvelle technologie : la compagnie réfléchit aussi à l'utilisation de lunettes "3D" à réalité virtuelle. inspecter-un-avion-de-ligne-avec-un-drone Alors que sept décollages sur 1.000 sont aujourd'hui affectés par un problème technique, la compagnie s'est fixée pour objectif de ramener ce ratio à zéro d'ici 2020, a expliqué Ian Davies, le directeur de l'ingénierie du groupe. EasyJet s'est refusé à préciser le montant des économies que pourraient générer les nouvelles technologies d'inspection et de maintenance. avion-de-ligne-dans-hangar-avec-drone Source : Reuters

Une imprimante 3D placée sous un drone pour des situations à hauts risques

$
0
0

drone-et-une-imprimante-3d-qui-vole

Un nouvel usage combinant à la fois une imprimante 3D et un drone pourrait se révéler efficace dans le transport des déchets nucléaires ou la réparation de constructions. Le principe : une imprimante 3D attachée sous un drone disperse une mousse collante sur l'objet à évacuer pendant qu'un deuxième drone vient se coller à cet objet et l'emmène avec lui. Cette expérience a été menée à l'Imperial College à Londres dans le laboratoire de robotique aérienne du Dr. Mirko Kovac. Ce scientifique voulait fabriquer un robot qui puisse construire des structures dans les airs, en s'inspirant du mécanisme de nidification des martinets qui utilisent leur salive pour les consolider. En théorie ce laboratoire britannique vient de mettre au point la première imprimante 3D volante au monde. Mousse-polyuréthane-extrudée-depuis-un-drone

Ménage à trois : chimie, robotique, impression 3d...

Un quadricoptère transporte deux produits chimiques qui, une fois mélangés, créent une mousse polyuréthane, et un système d'impression 3D pour extruder cette mousse. Dans la vidéo, on peut le voir décoller et se positionner au-dessus d'une boîte (supposée être dangereuse ou toxique) avant de tendre un bras par lequel une mousse polyuréthane sort. Pour se placer correctement au-dessus de l'objet les chercheurs ont au préalable renseigné les coordonnées de la cible et le quadricoptère se dirige à l'aide d'un capteur GPS. Un-hexacoptère-qui-décolle-avec-un-déchet-nucléaire Puis, c'est au tour de l'hexacoptère d'aller se poser sur l'objet recouvert de cette mousse et de patienter quelques instants avant qu'elle ne fasse effet. Une fois qu'elle a durci, le drone repart avec l'objet collé sous son support. Cet appareil peut transporter jusqu'à 2,5 kilos, mais les chercheurs pensent que des versions de tailles plus grandes pourront transporter des charges allant jusqu'à 40 kilos. En ce qui concerne l'autonomie de cette solution, les chercheurs prévoient que les drones puissent s'accrocher à une branche d'arbre ou à un câble électrique le temps de recharger ses batteries à l'aide de panneaux solaires. Cette solution existe déjà et est par exemple utilisée sur les drones de Titan Aerospace (racheté par Google il y a peu). Les applications de ce dispositif sont nombreuses : intervention sur site contaminé, transport de déchets radioactifs, réparation de ponts suspendus... tout ce qui est potentiellement dangereux pour l'homme et qui peut être supervisé à distance par un humain mis hors de danger. Traiter-des-zones-polluées-à-l'aide-de-drones Source

Un exosquelette pour commander à distance les robots

$
0
0

Un-exosquelette-pour-commander-à-distance-les-robots

Le laboratoire de robotique téléopérée de l'Agence Spatiale Européenne (ESA) a mis au point un exosquelette pour contrôler à distance un robot qui à son tour réalise des opérations dans l'espace. Une démonstration de ce système vient d'être fait cette semaine. Ce jeudi 8 mai, à la conférence TEDx RocketMinds qui s'est tenue dans le centre des opérations de l'ESA à Darmstadt, en Allemagne, cette équipe de chercheurs en robotique a fait la démonstration d'un exosquelette en liaison directe avec un robot situé à plus de 400 kilomètres de là, à Noordwijk aux Pays-Bas. L'exosquelette, pesant seulement 10 kilos, est alimenté par batteries et envoie des commandes via un réseau cellulaire. Il peut être déployé rapidement et fonctionne tant que le robot est dans une zone couverture par un réseau télécom. L'opérateur revêt l'exosquelette et effectue les gestes qu'il veut faire faire au robot à distance. exosquellete-pour-téléopérer-un-robot Le robot va reproduire ensuite les mouvements du bras et de la main effectués par l'opérateur. L'intérêt de ce système se situe dans sa capacité à transmettre par retour de force les obstacles que le robot rencontre. Ainsi, la personne portant l'exosquelette se rend compte des contraintes du robot et peut le contrôler plus précisément. Bien que l'équipe l'ait développé initialement pour des missions dans l'espace, cette solution peut également être très utile pour des applications terrestres très concrètes. Comme par exemple une situation d'urgence après une catastrophe naturelle. On peut tout à fait imaginer qu'après un tremblement de terre, un robot soit envoyé sur place pour extraire les corps. A distance, à quelques mètres ou à plusieurs centaines de kilomètres, l'opérateur se servira de l'exosquelette pour faire déplacer au robot les rochers et tirer la personne des décombres d'un immeuble effondré. Envoyer des robots dans des zones sinistrées est une quête de longue haleine pour le secteur du secourisme. Avec ce dispositif, fonctionnel même en cas de coupure des réseaux électriques et de télécommunications, l'ESA a sans doute une première réponse. Source

Le site de partage Dronestagr.am fait peau neuve

$
0
0

dronestragram-fait-peau-neuve

Le site de partage d'images et vidéos par drones, Dronestragr.am, lancé en juillet dernier, vient de faire peau neuve. La plateforme internationale de type Instagram permet aux possesseurs de drones de partager en ligne leurs plus belles prises de vue aériennes. Dronestagr.am a été créé par une figure de la blogosphère française, Eric Dupin. Il est notamment le fondateur de Presse Citron, blog sur l’actualité du numérique et high-tech, et plus récemment le site Smartdrones.fr, dédié à l'actualité des drones. Sur Dronestragr.am n'importe quel pilote de drone, amateur ou pro, peut poster ses clichés aériens ou ses vidéos. la communauté des passionnés de photo aérienne par drone. Le site est en anglais uniquement pour le moment car le marché des possesseurs de drones faisant de la photo aérienne est encore très limité (probablement seulement quelques petits milliers de pratiquants dans le monde) et qu’il faut viser l’international si on veut avoir quelques chances que le site vive de façon satisfaisante. Il suffit de se rendre sur la section "World Map" pour se rendre compte que la plateforme est utilisée par des passionnés de drones du monde entier. Les photos et vidéos sont classées par thèmes, ce qui permet d'aller directement vers le type de prises de vue que vous préférez : Urban (milieu urbain), Country (campagne), Industrial (industrie), Pro, Amateur, Sports Shows, Scenery, Others & Crazy stuff. dronestragram-site-de-partage-d'image-par-drone En ce qui concerne le nouveau site Dronestragr.am, il vient de se doter d'un nouveau logo et d'un nouveau design. Eric Dupin précise que de nombreuses nouveautés vont arriver dans les jours qui viennent : un éditeur photo "assez original" (tournure suffisamment intrigante pour attiser notre curiosité...), une application iPhone et une application Android. D’autre part, un concours photo mondial va être lancé la semaine prochaine avec des lots très généreux et un partenaire prestigieux encore secret. Connectez-vous sur Dronestagr.am et si vous avez un drone n'hésitez pas à créer un compte et publier vos images.

Bebop de Parrot : un petit nouveau sur le marché des drones

$
0
0

bebop-drone-parrot-2

On ne l'arrête plus ! Après avoir dévoilé en septembre dernier un AR.Drone avec une plus grande autonomie et un GPS intégré, après avoir lancé au salon CES un quadricoptère miniature, le MiniDrone, Parrot a présenté aujourd'hui une caméra volante compatible avec l'Oculus Rift : le Bebop. Parrot a présenté son nouveau Bebop aujourd'hui lors de l'ouverture du salon UVSI's Unmanned Systems 2014 à Orlando (Floride). Le drone présente des fonctionnalités très intéressantes et surprenantes pour un aéronef d'une si petite taille. bebop-de-parrot La caractéristiques principale du quadrirotor Bebop réside dans sa caméra 14 megapixels équipée d'une lentille fish-eye grand angle. Cette caméra située sur le devant de l'appareil et isolée du châssis et des rotors, peut faire des prises de vue à 180 degrés. Mais pourquoi une si haute définition ? Pour faire à la fois office de stabilisateur numérique et de caméra panoramique. Le drone utilise un accéléromètre 3 axes, un gyroscope 3 axes et un magnétomètre 3 axes qui lui permet de compenser les vibrations en profitant des pixels supplémentaires dont le capteur dispose. En émettant un flux vidéo de 1920 x 1080 pixels (soit environ 2 megapixels sur les 14 disponibles sur la caméra), l'image que reçoit le smartphone ou la tablette iOS ou Android est d'une netteté impressionnante. Avec cette caméra haute définition, au lieu d'avoir à incliner le drone, l'utilisateur peut déplacer dans toutes les directions l'angle de l'image, simplement à partir de l'application dédiée. Bebop mesure 28 x 32 x 3.6 cm et pèse moins de 400 grammes. Il embarque entre autres 4 antennes Wi-FI 2,4 / 5 GHz et un altimètre. La portée initiale du drone est de 300 mètres comme pour les autres modèles de Parrot. parrot-appli-ios L'autre grande nouveauté est la station de contrôle prévue par Parrot et vendue séparément : le Skycontroller. Elle est équipée de deux manettes, une dans chaque main, à la manière d'une radio RC classique. Le dock est surmonté d'une antenne Wi-Fi pour booster la portée du Bebop jusqu'à 2 kilomètres. L'utilisateur introduit dans le Skycontroller son téléphone ou sa tablette pour commencer à piloter l'appareil. station-de-controle-du-bebop-skycontroller Comme si cela ne suffisait pas, Parrot a voulu pousser le vol en immersion à son paroxysme. Pour cela il a rendu possible le contrôle du Bebop avec le casque pour la réalité augmentée Oculus Rift. Une fois sur sa tête, le pilote peut diriger la caméra panoramique du drone rien qu'avec les yeux. bebop-drone-avec-oculus-rift Ce petit bijou technologique ne pouvait pas avoir que des avantages... il pêche par son autonomie qui est de 12 minutes seulement ! Parrot n'a pas encore annoncé de prix pour le Bebop (ni pour le Skycontroller), mais la marque française vise clairement à concurrencer des drones pour les prises de vue comme le Phantom de la marque DJI. Pas de date de sortie officielle non plus. Allez, nous pouvons tabler sur un drone aux alentours de 500 € et une sortie pour cet été. bebop-bientot-disponible

EPFL : Un bras robot qui attrape des objets au vol

$
0
0

Bras-robot-qui-attrape-tout

Un bras robot mis au point par les chercheurs de l'EPFL à Lausanne est capable d'attraper tous les objets qu'on lui lance. Il lui suffit d'une fraction de seconde pour se détendre et se saisir de n'importe quel objet - raquette de tennis, balle, bouteill - lancés dans sa direction. Le bras Kuka est long d’environ 1,5 mètre et se dresse à la verticale. Il est doté de trois degrés de liberté et d’une main sophistiquée à quatre doigts. Programmée par le Laboratoire d’algorithmes et systèmes d’apprentissage de l’EPFL (LASA), cette plateforme est destinée à tester des solutions robotiques pour la capture d’objets en mouvement. Unique, elle a la capacité d’attraper des projectiles de formes diverses et irrégulières en moins de 5 centièmes de secondes. bras-robot-kuka-epfl
De plus en plus présents dans notre quotidien et appelés à assumer des tâches variées, les robots devront notamment être capables de rattraper ou d’éviter des objets de nature complexe et en plein mouvement, commente Aude Billard, qui dirige le LASA. Nous avons donc non seulement besoin de machines pouvant réagir sur le vif, mais également prédire les dynamiques de l’objet et générer un mouvement dans la direction inverse.
Pour qu'un robot puisse attraper un objet en vol de nombreux paramètres sont à à prendre compte et notamment les changements de trajectoires imprévus. Un lancé de bouteille d'eau ne suivra pas la même trajectoire qu'un lancé de raquette de tennis par exemple. Dans la grande majorité des cas, le robot est programmé à l'avance pour pouvoir réagir à un nombre défini de situations.
Les machines d’aujourd’hui ne peuvent pas assimiler rapidement des changements de données, explique Aude Billard. Elles sont donc obligées de recalculer les trajectoires, ce qui leur demande beaucoup trop de temps, dans une situation où la moindre fraction de seconde peut se révéler déterminante.
robot-de-l'epfl-qui-apprend-pour-mieux-se-saisir-des-objets

Un bras robot qui imite et apprend

Fonctionnant sur un principe différent, nous vous avions présenté un robot humanoïde capable de rattraper une balle et la renvoyer, développé par les laboratoires de Disney. A l'EPFL, les chercheurs du LASA se sont inspirés de la manière dont les humains apprennent, pour doter leur bras robot d'une aussi grande capacité d'adaptation : par imitation et tâtonnements. Dénommée Programming by demonstration, cette technique consiste non pas à donner une commande fixe au robot, mais à lui montrer des exemples de trajectoires possibles. Il s’agit de guider le bras manuellement vers la cible qui lui est projetée et à répéter cet exercice à plusieurs reprises. Les chercheurs ont utilisé divers objets qui présentaient des mouvements complexes et des centres de gravité variés et dont la partie que le robot devait saisir était différente selon chaque situation. Une balle, une bouteille vide, une bouteille à moitié pleine, un marteau et une raquette de tennis ont donc été lancés au robot pendant les expériences. Un-bras-robot-qui-peut-attraper-des-objets-au-vol La première phase est la phase d'apprentissage, pendant laquelle on lance les objets en direction du robot plusieurs fois. Le bras Kuka du laboratoire LASA est équipé d'une série de caméras placées tout autour de lui, qui vont lui servir à enregistrer toutes les données dont il aura besoin dans un second temps : trajectoires, vitesses et mouvements rotationnels spécifiques de chaque objet. Toutes ces données forment une dynamique. Les chercheurs vont la traduire en une équation, qui permet ensuite au robot de se positionner très rapidement dans la bonne direction à chaque fois que l’objet lui est relancé. Durant les quelques millisecondes que dure l’approche, la machine affine et corrige la trajectoire pour une capture en temps réel et de haute précision. Une efficacité qui est encore accrue par le développement de contrôleurs qui couplent et synchronisent les mouvements des doigts et de la main. Source

Niwa, pour faire pousser un jardin connecté chez soi

$
0
0

Niwa,-pour-faire-pousser-un-jardin-connecté-chez-soi

Le jardin connecté niwa fait partie de ces solutions connectées ludiques qui mettent la greentech à la portée de tous. Niwa vous permet de faire pousser chez vous plantes, légumes, petits arbres fruitiers et de contrôler tout ce petit monde depuis votre smartphone. Le jardinage n'a jamais été aussi simple ! S'inspirant d'objets connectés comme le Flower Power de Parrot, ce système tout-en-un combine à la fois le milieu dans lequel vont pousser vos plantes et les moyens de les faire grandir. Equipés de capteurs et d'actionneurs, le bac à jardinage niwa est un environnement autonomatisé et interactif qui prend soin de vos cultures. niwa-un-milieu-hydrophonique-pour-la-maison Via une application dédiée sur smartphone, vous pouvez contrôler ses actions et avez accès en temps réel à la température du milieu, son humidité, les cycles de lumière, etc. Un système d'irrigation automatisée arrose les plantes quand elles en ont besoin. La culture se fait hors sol grâce à la technique hydroponique, qui se fait directement dans l'eau. Pour la plupart des citadins, il est très difficile de cultiver quoi que ce soit chez soi, car il faut y consacrer du temps, des connaissances et de la place. Niwa est donc un moyen à la fois utile, pratique et amusant de s'adonner au plaisir du jardinage tout en tenant compte des contraintes d'un appartement en agglomération ne possédant ni balcon ni jardin. faire-pousser-des-tomates-à-la-maison L'équipe derrière niwa cherche actuellement des fonds sur la plateforme Kickstarter. N'hésitez à vous en procurer un à partir de 149 $ (soit un peu plus de 100 €). Existe en deux tailles. faire-pousser-des-plantes-avec-son-smartphone niwa-l'objet-connecté-pour-jardiner caractéristiques-du-niwa-jardin-hors-sol-pour-la-maison

Que le débat sur l’utilisation de robots militaires autonomes commence !

$
0
0

utilisation-de-robots-militaires-autonomes

Quel sera le rôle des robots militaires tueurs dans les conflits du futur ? Pour répondre à cette question, l'ONU a réuni des experts internationaux dans le cadre d'une Convention sur certaines armes classiques (CCAC), qui se tient du 13 au 16 mai 2014 à Genève. Les avancées en matière de robotique militaire inquiètent certains spécialistes... Des groupes industriels qui souhaitent robotiser leur véhicules de combat, des drones toujours plus performants et autonomes, des humanoïdes capables d'accomplir des tâches complexes... les équipes de recherche scientifique de défense poussent vers une guerre technologique, où les pertes humaines seraient diminuées et l'usage des robots autonomes accentué. Cela inquiète quelques experts, dont le professeur Noel Sharkey, du département d'informatique de l'Université de Sheffield, qui va prendre la parole à Genève pour aider les dirigeants mondiaux à comprendre les avantages et les inconvénients des systèmes d'armes autonomes "tueurs". C'est ainsi que sont appelés ces robots de combat, capables de prendre des décisions seuls, sans l'intervention de l'homme, et qui ont le pouvoir de tuer par le simple fait d'une succession d'algorithmes. Une autre vision, celle du Pr. Ronald Arkin, du Georgia Institute of Technology, penche plutôt vers une utilisation raisonnée des robots tueurs afin d'éviter d'exposer les humains aux dangers de la guerre. Ronald Arkin penche plus pour un moratoire plutôt qu'une interdiction de ce type d'armes autonomes. arretez-les-robots-tueurs Les experts des Nations Unies vont donc débattre de l'usage de ces robots mais aussi sur leur fabrication. Une décision sur les prochaines étapes à suivre sera prise lors de la réunion annuelle de la Convention sur les armes classiques à l'ONU au mois de novembre 2014. Pour les opposants, ce sont surtout des considérations éthiques (comment tolérer que le sort d'un humain soit à la merci d'une intelligence artificielle ?) qui les poussent à demander l'interdiction d'une telle technologie avant même qu'elle n'existe. De plus, la possibilité de détournement ou de piratage de ces engins ne les rassurent pas. Pour les partisans des robots tueurs, les lois actuelles régissant les conflits suffisent pour réguler leur utilisation. De plus, les robots présentent plusieurs atouts : ils sont précis, efficaces, rationnels et ne sont pas régis par des émotions (du moins les robots tueurs...). robot-demineur-de-la-darpa Pour les gouvernements, l'efficacité des robots armés par rapport à celle des soldats humains n'est plus à prouver. Les Etats-Unis ont commencé à remplacer ses troupes par des robots et entendent accélérer le mouvement : toujours opérationnels, jamais diminués, les robots sont la solution idéale pour réduire les coûts de la guerre tout en maintenant une efficacité sur le champ de bataille. Quoiqu'il en soit, les robots tueurs sont déjà déployés dans le monde entier (voir cette carte d'utilisation des drones). Certes, la plupart d'entre eux n'est pas complètement autonome puisque la validation de la frappe, bien qu'à distance, reste l'affaire d'un opérateur humain. Mais les drones UCAV en cours de développement par les Etats-Unis, la Chine, la Grande-Bretagne ou la France le sont. Les débats sur la réglementation de l'utilisation des robots tueurs promettent de faire des étincelles.

Un Global Hawk survole le Nigéria à la recherche des lycéennes enlevées

$
0
0

Un-Global-Hawk-déployé-au-Nigéria-à-la-recherche-des-filles-enlevées-par-Boko-Haram

Le Global Hawk, drone de l'armée américaine de type HALE (haute altitude, longue endurance) vient de débuter sa première mission de surveillance sur le Nigeria, à la recherche des 276 jeunes filles enlevées par le groupe terroriste Boko Haram. Ce drone est très intéressant pour ce type de mission car il a la capacité de rester en l'air pendant près de 30 heures avant un réapprovisionnement en carburant. Il est doté de différents systèmes de surveillance dont un puissant radar à antenne active AESA. Le drone a rejoint un avion de surveillance Beechcraft C-12 qui effectue des vols dans la zone depuis le début de l'enlèvement. Selon les responsables nigérians, il semblerait que les filles aient été séparées en trois groupes et pourraient se trouver dans le nord-est du Nigeria entre le Niger et le Cameroun. Global-Hawk-de-l'armée-américaine

Une intelligence artificielle à la tête d’une entreprise

$
0
0

Une-intelligence-artificielle-à-la-tête-d'une-entreprise-asiatique

Comment réagiriez-vous si vous appreniez que votre patron est en fait un robot ? C'est ce que viennent d'apprendre les salariés d'une entreprise basée à Hong Kong, après que le Comité exécutif ait nommé à la tête de Deep Knowledge Ventures, VITAL, une intelligence programmée. Deep Knowledge Ventures est une société de gestion qui gère des fonds à hauts risques relatifs aux biotechnologies et les médicaments contre les maladies liées au vieillissement. VITAL, l'algorithme qui vient tout juste d'être nommé au conseil d'administration, va aider ce dernier à prendre les bonnes décisions en terme d'investissements dans des entreprises du secteur de la santé. L'intelligence artificielle VITAL est capable de croiser un tas de données entre elles et d'analyser les chiffres comme aucun humain ne serait capable de le faire dans un laps de temps si court. VITAL élabore ses décisions en analysant les bilans comptables des entreprises potentiellement intéressantes, les test cliniques, la propriété intellectuelle et les précédents investissements de Deep Knowledge Ventures. Tout comme les cinq autres membres du conseil d'administration, humains, le vote de VITAL comptera comme une voix. Le logiciel VITAL a été développé par une startup britannique qui s'appelle Aging Analytics. VITAL aurait déjà participé dans deux décisions d'investissement. Bien que ce ne soit pas encore à proprement parler une véritable intelligence artificielle, mais plutôt un logiciel d'analyse, les deux entreprises veulent densifier l'algorithme au fur et à mesure pour le rendre le plus autonome possible dans la prise de décision. Un jour, VITAL pourra se charger de faire la présentation des chiffres comme cette intelligence qui va organiser une conférence ou rédiger les rapports annuels, .
Viewing all 1675 articles
Browse latest View live