vendredi 28 octobre 2011

Prospero : Le robot fermier qui va révolutionner l’agriculture

Prospero est un robot en cours de développement qui va permettre de cultiver des champs entier d’une manière autonome. Est ce que cela sera une solution pérenne pour enrayer la crise de nourriture ?


Au fil de l’évolution de l’humanité, l’agriculture a toujours été assisté, que ce soit dans un premier temps avec des animaux, puis des machines. Est ce que les robots fermiers autonomes seront la prochaine évolution de l’agriculture ?
Comme on peut le constater, la production de nourriture croit d’une manière linéaire, tandis que la population humaine croit d’une manière plutôt exponentielle, et tôt ou tard, la demande de nourriture risque d’être supérieure à la production.
Et le point commun de l’agriculture au fil du temps a toujours été l’homme.



C’est donc pour essayer de rendre cette production autonome que Propero a été créé avec 4 phases de développement :
• Phase 1 : Planter des graines.
• Phase 2 : Entretenir la culture.
• Phase 3 : Récolter.
• Phase 4 : Intégrer les 3 phases en un seul robot autonome.
Le robot Propero, n’en ai pour le moment qu’à la phase 1. Ce robot, conçu sur le modèle du robot hexapode Propeller de Parallax, fonctionne en mode essaim, à plusieurs ils couvrent toute une parcelle et discute en eux à l’aide de liaison sans fil.


Chacun scrute le sol pour savoir si une graine n’a pas déjà été planté, puis détermine l’espace optimum pour en planter une à la profondeur encore optimum en fonction de l’état du sol. Il enregistre ensuite précisément cette position afin de pouvoir lui appliquer par la suite (phase 2) différents engrais et insecticide.
Alors, en voyant la vidéo qui suit, on pourrait se croire dans un film de science fiction, et pourtant Prospero fonctionne déjà en mode phase 1.

mardi 25 octobre 2011

Chrysalis- film chorégraphie

À voir aussi le site de Wayne McGregor, son travail sur le rapport au corps est vraiment hors pair (dont Dyad 1929).

«Chrysalis, chorégraphié et interprété par Wayne McGregor et ses danseurs aléatoire est un barrage d'effets spéciaux, le résultat est une mêlée inquiétante du futurisme à un score du même genre que les films d'horreur. McGregor joue le rôle d'un insecte demi, moitié humain de métal-tête plaquée, rampant autour dans un bain, filaire à des dispositifs technologiques futuristes qui semblent nous donner un aperçu de son processus de pensée. Nous sommes pris dans le luminarium de son esprit, où pauvrement vêtu chiffres de danse au milieu des bâches en plastique sale à une cacophonie de sons -. Couinements, drum and base et de sons électroniques, entrecoupées de schémas anatomiques du cerveau humain ».



mercredi 19 octobre 2011

NANOTOPIA / Michael Burton




Utopia for who?

Nanotechnology promises a utopian vision as a result of our future capability of manipulating the world around us on a nanoscale. As presented by Professor Richard Jones, author of Soft Machines: nanotechnology and life, the true potential of this new technology is when it is fused with organic living systems, like viruses, cellular automata and self-replication.

If our production methods shift to simulate organic self-replication what will happen to the global socio-economic balance? How will the gap between rich and poor be affected? How will people dependent on income from manual production survive?

With these questions as a premise, nanotopia presents a future vision for people at the extremities of the social classes. The project references how people currently use their bodies as a last resort, to sell their hair, blood and kidneys. Nanotopia then envisions a future where the poorest utilise new possibilities of fusing nanotechnology and the body as real-estate. In reaction to this use of the body, the film also visualises the changes in bodily aesthetics within the upper classes.


Source: http://www.michael-burton.co.uk/index2.htm

mardi 18 octobre 2011

Insecte télécommandé


Ce scarabée est un espion. Des électrodes dans son cerveau font de lui un insecte téléguidé.


Source: scienceline.org

Electronic prosthesis / Auger-Loizeau


Electronic Leaf

A wireless communications device is attached to a branch of a tree whilst in leaf, a magnet an led and a battery are connected to the leaf. When the leaf falls the magnetic switch is triggered and the user is informed by a mobile telephone message that the leaf has fallen. The led is activated so that the user may distinguish the leaf should it lands in a pile or blow away.
This technological intervention between user and the leaf provides a space where the user through contemplating on the demise of the leaf might find pleasure in celebrating other ‘banalities’.

Source: www.auger-loizeau.com

sixth sense


'SixthSense' is a wearable gestural interface that augments the physical world around us with digital information and lets us use natural hand gestures to interact with that information. By using a camera and a tiny projector mounted in a pendant like wearable device, 'SixthSense' sees what you see and visually augments any surfaces or objects we are interacting with. It projects information onto surfaces, walls, and physical objects around us, and lets us interact with the projected information through natural hand gestures, arm movements, or our interaction with the object itself. 'SixthSense' attempts to free information from its confines by seamlessly integrating it with reality, and thus making the entire world your computer.

'SixthSense' website

SNIFFING OTHERS PROJECT / SUSANA SOARES

Smell augmentation
In humans the vomeronasal organ, used to detect pheromones, regresses as we leave childhood, but if stimulated could become active again. Smell augmentation using a sensory nanoparticles interface stimulates the vomeronasal organ and transmits body odour information, enabling precise pheromone recognition.


Nasal objects start to transform appearance and beauty concepts, Sniffing Others, New organs of perception, prototype.


Nose plugs


Illustration explaining how sensory interfaces can stimulate vomeronasal organ


Source : http://www.susanasoares.com/

Audio Tooth Implant / Auger-Loizeau




"The Audio Tooth Implant is a radical new concept in personal communication. A miniature audio output device and receiver are implanted into the tooth during routine dental surgery. These offer a form of electronic telepathy as the sound information resonates directly into the consciousness.

The tooth implant consists of 3 separate elements.
• A low frequency receiver (150kHz).
• A piezo electric micro vibration device.
• An electro magnetic micro generator."

Source : http://www.auger-loizeau.com/

iPot


"iPot" est une bouilloire qui à chaque utilisation envoie un message à un correspondant choisi au préalable, indiquant que la personne est en bonne santé, ou en tout cas, qu’elle utilise sa bouilloire.

Source : www.mimamori.net

samedi 15 octobre 2011

Bio/Machine systèmes



Breathe




Encore à l’état de concept, Breathe est un système de culture aéroponique d’intérieur de format réduit permettant de cultiver soi même radis, salades et autres plants de basilic. Il ne nécessite que très peu d’entretien puisque le principe même de ce type de culture est de se passer de terre. Une fois branché, l’appareil est à même de gérer l’apport en eau et en nutriments via la racine des plants quelle que soit la saison.

Le petit prince, un robot à la conquête de Mars

vendredi 14 octobre 2011

L’idée de Maurizio Porfiri et de son équipe est de faire un poisson robot qui guiderait les autres loin de tout danger humain !

Pour le moment, son invention marche basiquement, et l’équipe compte bien l’améliorer ( la batterie ne dure pas longtemps et le robot ne se déplace que sur un plan en 2 dimension).



Source : Engadget

mardi 11 octobre 2011

Les robots (vraiment) intelligents arrivent.

Article du 11 octobre 2011 sur Europe 1

Des scientifiques japonais ont réussi à «éduquer» des robots qui pensent avant d’agir.
Un robot qui ne se limite pas à réaliser des missions prédéfinies mais qui réfléchit à la manière de ré- soudre un problème. Telle est l’incroyable prouesse de scientifiques japonais, qui ont réussi à éduquer de nouveaux robots. Osamu Hasegawa, professeur agrégé à l’Institut de Technologies de Tokyo, a conçu un système qui permet à un robot humanoïde de voir son environnement et de résoudre les pro- blèmes auxquels il est soudain confronté.
«La plupart des robots existants sont capables d’exé- cuter des tâches préprogrammées, mais ils savent peu de choses sur le monde réel où nous, humains, vivons» explique le chercheur. «Donc, notre projet consiste à construire un pont entre les robots et le monde réel afin qu’ils se comportent mieux au contact des hommes», poursuit-il.
Accumuler des connaissances pour s’en resservir
Son robot est doté d’un «réseau neuronal incrémen- tal auto-organisé» (SOINN), une structure qui lui permet d’accumuler et utiliser des connaissances pour en «déduire» la façon de remplir des tâches données dans un contexte particulier.
Le robot est notamment apte à reconnaître des images et des sons et à reproduire des actions en analysant l’environnement qui l’entoure. Exemple : si vous lui enseignez comment tenir un verre et y verser de l’eau, il saura retrouver ces objets et re- produire cette action dans diverses circonstances, en reconnaissant les objets en question posés au milieu d’autres et en adaptant sa gestuelle au monde qui l’entoure, tout en vérifiant lui-même à chaque étape les résultats de ses actions.
Ce robot, capable de penser avant d’agir, apprend en demandant de l’aide chaque fois qu’il se trouve face à une tâche qui dépasse ses capacités. Après l’apprentissage des nouvelles connaissances re- quises, le robot peut les réutiliser à d’autres fins si nécessaire, ce qui exige là encore réflexion pour juger quelle compétence peut être utile en fonction du problème rencontré.
Savoir se concentrer et surfer sur l’Internet
Comme les humains, le système peut également faire fi du «bruit» ou des informations insignifiantes qui pourraient confondre les autres robots. Le robot sait trier les informations entre celles dignes d’intérêt et celles qui polluent. Autre innovation, le robot est capable de surfer sur Internet pour emmagasiner de nouvelles in- formations. «Nous pourrions demander à un robot de mettre la sauce à sushi sur la table du dîner. Il pourrait dès lors lancer directement une requête d’image de bouteilles de sauce à sushi sur l’inter- net, identifier l’objet et le trouver dans la cuisine», détaille le professeur.
La progression constante des technologies robo- tiques pose toutefois des problèmes d’ordre éthique, reconnaît le scientifique. Selon lui, il nous faut ré- fléchir aux tâches demandées à ces robots «intelli- gents» afin d’éviter que leurs actions ne se retour- nent contre les humains qui les ont créés, comme dans le film «2001: l’Odyssée de l’espace», insiste Osamu Hasegawa.

Source : Reuters

Les animaux de compagnie : premiers cyborgs

lundi 10 octobre 2011

Hussein Chalayan

"One Hundred and Eleven" Printemps-été 2007



Hussein Chalayan s'est inspiré de la façon dont les événements du monde, y compris les guerres, les révolutions, les changements politiques et sociaux, ont façonné la mode durant un siècle.
Avec One Hundred and Eleven, Chalayan explore le concept du "morphing" et crée une série de robes mécaniques qui se métamorphosent d'un style, d'une époque à l'autre. La bande-son contraste avec la formidable prouesse technologique en rassemblant des fragments audio provenant de réacteurs de jet, d'une guerre des tranchées et de bombardements aériens.

samedi 8 octobre 2011

Electronic Tatoo - Philips




Tattoos and physical mutilation are amongst the oldest forms of personal expression and identity. Subcultures have used tattoos as a form of self representation; a visual language communicating personality and status. Philips Design examined the growing trend of extreme body adornment like tattoos, piercing, implants and scarring.

The Electronics Tattoo film expresses the visual power of sensitive technology applied to the human body. The film subtly leads the viewer through the simultaneous emotional and aesthetic transformations between two lovers.

A voir la vidéo ici

mardi 4 octobre 2011

Plantes nomades




Ce robot nommé Plantas Nomadas a été réalisé par l’artiste mexicain Gilberto Esparza, son objectif : démontrer que l’environnement peut être restauré plutôt que d’être détruit, et cela en toute autonomie.
Un robot écolo totalement autonome grâce à des panneaux solaire et aux bactéries qu’il ingurgite en se promenant dans les rivières et étangs pollués. En effet, grâce à un processus de pile à combustible microbienne, les éléments contenus dans l’eau sont décomposés et transformés en énergie qui alimente ensuite les batteries du robot. L’excédent est ensuite utilisé pour nourrir les plantes qui sont sur sont dos. Un robot infatigable grâce à la pollution…

Source : Plantas Nomadas via Blogbestofrobots

Knock Clock


Knock Clock is a fun little 48-hour project by Gijs Huisman, Giorgio Uboldi, Michael-Owen Liston.

Source : Adafruit Industries

Le dessin mental



Dessiner par la pensée, sans les mains, sans un crayon entre les doigts, mais en engageant son corps d'une autre manière, dessiner avec son esprit, faire surgir des formes visibles ou rêvées par le seul pouvoir de l'imagination, serait-ce donc possible ?

Michel Paysant, dont on peut voir au Louvre l'intérêt pour l'infiniment petit et l'extrêmement grand tels que la science nous permet de les approcher, s'essaie à la galerie Frédéric Giroux (jusqu'au 27 février) à une expérience scientifique d'un tout autre ordre : pendant qu'il regarde un objet, ou, en l'occurence, sa propre image dans un miroir, deux caméras suivent à grande vitesse le mouvement de l'iris de ses yeux pendant 4 longues minutes, mouvement qui est ensuite retranscrit sur papier par de fines lignes de crayon. Là où les lignes sont plus denses, plus nombreuses, c'est que l'oeil s'est reposé plus longtemps; là où la feuille est restée blanche, le regard ne s'est pas attardé. Les angles indiquent les changements abrupts de direction du regard, plus nombreux qu'on ne le croirait. Sans doute faut-il une certaine virtuosité, une certaine gymnastique oculaire consciente pour parvenir à maîtriser suffisamment ses propres mouvements de l'iris afin d'en produire un dessin cohérent : pas de correction possible, et l'incertitude jusqu'à la fin sur la qualité ou non du dessin produit, invisible pendant l'expérience.
Mais le plus intéressant (hélas absent de l'exposition), ce sont les dessins de mémoire : je pense à un être cher ou à un paysage de prédilection, je me le représente mentalement au sens propre, mes yeux le revisitent comme s'il était présent devant moi, et l'apparatus me donne ensuite la trace du dessin que j'ai ainsi "vu" (l'ai-je vu ? recréé visuellement ? rêvé ?). Ce travail sur la représentation de la mémoire par ce procédé scientifique (eyedrawing = oculographie ?) est à la fois fascinant et inquiétant. Je ne sais s'il est promis à un grand avenir, mais il fait rêver, tout en amenant à s'interroger sur la nature même de la vision.

Source : Le Monde du 20 janvier 2010

Augmented contact lens





While many augmented reality application use mobile phones or other interactive devices, university of Washinton professor babak amir parviz and his students want to embed AR technology right into the eye.
Parviz and his students have been working on AR embedded contact lenses that utilize sensors and
wireless technology. right know the technology is in its early days, but researchers hope that one day hundreds of semitransparent LEDs can be embedded onto a thin lens to create a display for  users.
This eye implanted display would most likely rely on an external device for controls and processing.
It could be used for entertainment purposes or even to monitor one’s health. next time you go to get your eyes checked at the doctor, they may also be able to offer you the latest contact lens display. 

Source : Designboom

Benjamin Grosser : Interactive Robotic Painting Machine




The 'interactive robotic painting machine' by american artist benjamin grosser creates paintings 
in response to its aural environment, in a project that investigates the intersections of technology, 
consciousness, art, and interaction in today's increasingly technologically mediated society.

during a performance, sound is captured via a microphone and subjected to fourier analysis to be broken down 
into useful data for the machine. this information is fed into a genetic algorithm that makes decisions about the painting process, 
altering the robot's behaviour in realtime. the functional building blocks of the project are painting 'gestures', 
broken down into data such as the amount of pressure to be used in a brush stroke to the amount of paint to add to the brush.

three networked computers manage the painting system the first runs the central control software, written in python, 
that begins each painting with a randomly selected set of painting gestures and takes audio data as input 
over the course of the painting. a second manages the brush camera and projection, and performs the audio analysis 
whose data is sent as input to the first machine. the third computer manipulates the robot itself, 
accepting movement commands from the control system and activating stepper motors correspondingly.

the genetic decision-making algorithm behind 'interactive robotic painting machine' means that the painting 
is not a direct mapping of what it hears, and that in fact in the presence of the same sound, 
would likely create two similar but not identical works.