The Multi-Sensory Internet Brings Smell, Taste, and Touch to the Web | Motherboard

posted in: Media | 0


November 10, 2013 // 02:02 PM EST


Adrian Cheok, professor of pervasive computing at City University London and director of the Mixed Reality Lab at the National University of Singapore, is on a mission to transform cyberspace into a multi-sensory world. He wants to tear through the audiovisual paradigm of the internet by developing devices able to transmit smells, tastes, and tactile sensations over the web.

Lying on the desk in Cheok’s lab is one of his inventions: a device that connects to a smartphone and shoots out a given person’s scent when they send you a message or post on your Facebook wall. Then there’s a plexiglass cubic box you can stick your tongue in to taste internet-delivered flavours. Finally, a small plastic and silicone gadget with a pressure sensor and a moveable peg in the middle. It’s a long-distance-kissing machine: You make out with it, and your tongue and lip movements travel over the internet to your partner’s identical device—and vice versa.

“It’s still a prototype but we’ll be able to tweak it and make it transmit a person’s odour, and create the feeling of human body temperature coming from it,” Cheok says, grinning as he points at the twin make-out machines. Just about the only thing Cheok’s device can’t do is ooze digital saliva.

I caught up with Cheok to find out more about his work toward a “multi-sensory internet.”

The make-out device, plugged into an iPhone


Motherboard: Can you tell us a bit more about what you’re doing here, and what this multi-sensory internet is all about?

There is a problem with the current internet technology. The problem is that, online, everything is audiovisual and behind a screen. Even when you interact with your touchscreen, you’re still touching a piece of glass. It’s like being behind a window all the time. Also, on the internet you can’t use all your senses—touch, smell and taste—like you do in the physical world.

Here we are working on new technologies that will allow people to use all their senses while communicating through the Internet. You’ve already seen the kissing machine, and the device that sends smell-messages to your smartphone. We’ve also created devices to hug people via the web: You squeeze a doll and somebody wearing a particular bodysuit feels your hug on their body.

What about tastes and smells? How complex are the scents you can convey through your devices?

We’re still at an early stage, so right now each device can just spray one simple aroma contained in a cartridge. But our long-term goal is acting directly on the brain to produce more elaborated perceptions.

We want to transmit smells without using any chemical, so what we’re going to do is use magnetic coils to stimulate the olfactory bulb [part of the brain associated with smell]. At first, our plan was to insert them through the skull, but unfortunately the olfactory part of the brain is at the bottom, and doing deep-brain stimulation is very difficult.

And having that stuff going on in your brain is quite dangerous, I suppose. 

Not much—magnetic fields are very safe. Anyway, our present idea is to place the coils at the back of your mouth. There is a bone there called the palatine bone, which is very close to the region of your brain that makes you perceive smells and tastes. In that way we’ll be able to make you feel them just by means of magnetic actuation.

Cheok demonstrates the taste-transmitter


But why should we send smells and tastes to each other in first place?

For example, somebody may want to send you a sweet or a bitter message to tell you how they’re feeling. Smell and taste are strongly linked with emotions and memories, so a certain smell can affect your mood; that’s a totally new way of communicating. Another use is commercial. We are working with the fourth best restaurant in the worldin Spain, to make a device people can use to smell the menu through their phones.

Can you do the same thing also when it comes to tactile sensations? I mean, can you put something in my brain to make me feel hugged? 

It is possible, and there are scientists in Japan who are trying to do that. But the problem with that is that, for the brain, the boundary between touch and pain is very thin. So, if you perform such stimulation you may very easily trigger pain.

It looks like you’re particularly interested in cuddling distant people. When I used to live in Rome, I once had a relationship with a girl living in Turin and it sucked because, well, you can’t make out online. Did you start your research because of a similar episode?

Well, I have always been away from my loved ones. I was born in Australia, but I moved to Japan when I was very young, and I have relatives living in Greece and Malaysia. So maybe my motivation has been my desire to feel closer to my family, rather than to a girl. But of course I know that the internet has globalized our personal networks, so more and more people have long-distance relationships. And, even if we have internet communications, the issue of physical presence is very relevant for distant lovers. That’s why we need to change the internet itself.

The scent device in action


So far you have worked on a long-distance-hugging device and a long-distance-kissing machine. We also have gadgets that can transmit a person’s body odour. If I connect the dots, the next step will be a device for long-distance sex.

Actually, I am currently doing some research about that. You see, the internet has produced a lot of lonely people, who only interact with each other online. Therefore, we need to create technologies that bring people physically—and sexually—together again. Then, there’s another aspect of the issue…

What’s that?

As you noticed, if you put all my devices together, what you’re going to have soon are sorts of “multi-sensory robots”. And I think that, within our lifetime, humans will be able to fall in love with robots and, yeah, even have sex with them.

It seems to me all the work you’re doing here may be very attractive for the internet pornography business.

Of course, one of the big industries that could be interested in our prototypes is the internet sex industry. And, frankly speaking, that being a way of bringing happiness, I think there’s nothing wrong with that. Sex is part of people’s lives. In addition, very often the sex industry has helped to spur technology.

But so far I haven’t been contacted by anybody from that sector. Apparently, there’s quite a big gap between people working in porn and academia.


On a mission to send smells, tastes virtually | TODAY

posted in: Media | 0


JULY 8, 2016

Visitors can unwrap an Egyptian mummy virtually and even explore amulets buried with the body. Photo: Interspectral


In the third of a series of reports on the highlights of the Singapore Science Festival this year, we look how scientists are making it possible to create virtual worlds real enough to smell and taste.

SINGAPORE — See animals in a zoo that are so real, that you can smell them, when you are merely standing in a room with a video feed. Or send a kiss virtually, one that can be felt.

These are the “realities” Professor Adrian Cheok wants to create, in his mission to make communicating digitally more realistic — by making it possible to send touch, smells and tastes over the Internet.

Prof Cheok, who is from the Imagineering Institute, is among the scientists working in the field of simulation technology, to change the way people experience not just communications, but also science.

For example, children in Spain with certain diseases, who typically spend many hours in the hospital, can now “visit” the zoo virtually through a live 3D video feed, as part of an ongoing study by the Malaysia-based Institute and the University of Valencia to see if virtual zoos have a positive effect on the children.

Unlike sound and light, which are frequency-based and can be sent digitally, taste and smell are chemical-based, so the challenge is in using electrical signals to stimulate these senses, said Prof Cheok, who is working on a device that sends kisses virtually — with the help of a silicon device attached to a mobile phone — and another which artificially produces taste sensations.

Taste and smell are the “most difficult senses” to digitise, said Prof Cheok, and he is working on a project that has electrodes implanted inside the nose to stimulate olfactory receptor neurons to produce a smell.

Another device connects to the tongue to change its temperature, producing a sweet taste through thermal energy.

“In the future it may not be silver electrodes, it could be cutlery which has electrical signals … (with) a tiny wireless electrode in your nose connected to your smartphone,” he said.

Currently, simulation technology in the market is focused on augmented reality, and more widely seen in advertising and entertainment, he said. But researchers focus on inventing new technology and then work with businesses to figure out how it can be made into useful commercial products.

Simulation technology can recreate novel experiences without causing harm, such as allowing people to “unwrap” a mummy — via a visualisation table at the Science Centre Singapore.

Created using X-rays, laser scans and photos of a real mummy, Neswaiu, a wealthy Egyptian priest who lived in the third century BC, visitors can zoom in on the touchscreen to examine Neswaiu’s sarcophagus, and then peel off layers of the body on a touchscreen to study the anatomy, internal organs and even the amulets buried together with him.

The technology behind the Mummy Explorer was originally created for visual medical images so doctors could perform virtual autopsies, but the team “quickly realised there were wider opportunities for the use of the technology”, said Prof Anders Ynnerman, the scientist behind the technology.

The explorer “is a very nice way of being able to engage people … (and let) the general public have a feeling for what scientists are doing and what the scientific exploration process is like”, since they can actively participate and freely explore the mummies themselves.

The first interactive touch table was completed in 2009, and has been used in other museums, like the British Museum and the Museum of Mediterranean and Near Eastern Antiquities in Stockholm.

Prof Ynnerman said the British Museum was initially worried that the dazzle of a digital artefact would leave the real mummy in the cold. But they found that people spent thrice the amount of time at the exhibit, looking at the mummy, his digital counterpart, and then at the mummy again to study it closely.

He hopes that with such interactive visualisations can shorten the distance between scientific research and the general public, so that through exploring, they can feel “part of the scientific discovery”.


How much we need to touch, smell and kiss online? | Xataka

posted in: Media | 0


¿Cuánto nos falta para tocar, oler y besar por internet?


Conseguir transmitir los 5 sentidos a través de una conexión remota. Esa es la obsesión del australiano Adrian David Cheok, profesor de la Universidad de Singapur, quien gira por todo el mundo enseñando sus inventos para probar sabores a través de chips, oler e incluso darse besos. Su tesis es sencilla:convertir Internet en un espacio conectado… emocionalmente. Digitalizar los 5 sentidos —olfato, vista, oído, tacto y gusto— , replicando el complejo mundo real a través de hardware.

Para ello su laboratorio lleva trabajando en proyectos multisensoriales desde hace más de dos años. Ya que nuestra comunicación se fundamenta, en gran medida, en el uso de Internet y el smartphone mediante las redes sociales, Cheok cree que es ahí donde debemos orientar nuestros progresos.

Enviarás besos a través del móvil


Digitalizar los sentidos supondría un cambio radical en nuestra forma de comunicarnos. El primer progreso de Cheok en este campo gira en torno al tacto. Siguiendo los pasos de Kissenger, aquel robot de la compañía Lovotics a través del que podíamos mandar besos, el device de Cheok es un rectángulo de silicona, de color rosado, con una clavija para fijar a la base del smartphone. Mediante conexión WiFi puede comunicarse con un aparato análogo.

El dispositivo dispone de sensores de presión: un algoritmo calcula en tiempo real los índice de presión y dirección cuando se produce el beso. Pero también podemos usarlo, simple y llanamente, para transmitir sentimientos positivos, de buena suerte, para saludar, o para felicitar el cumpleaños a nuestra abuela. Si no queremos cerrar los ojos, a través de la pantalla del móvil vemos la frente o el rostro de la persona besada. El cacharro en cuestión es lavable y tiene la forma de unos labios estándar. No son los de tu pareja ideal, no tienen ningún cálido aroma, pero la textura tampoco se asemeja a una simple tubería de PVC.


Cheok establece un paralelismo interesante: antiguamente copiábamos nuestras canciones favoritas a dos o tres amigos, y las pasábamos en cintas. Ese fue el nacimiento de la digitalización. Pero ahora todo el mundo puede descargar la canción en un par de segundos, podemos chivar un descubrimiento emergente y que se convierta en algo de popularidad mundial en varios días. Cheok persigue esa comunicación, esa forma de transmitir información de forma más directa, a la antigua usanza.

Hay algo psicológico en el contacto. Las relaciones a larga distancia se rompen por esta brecha. Uno puede pasarse horas colgado del Skype y, aunque mejora sobremanera la malinterpretación y deformación de los chats, sigue siendo algo frío. Cuando cuelgas la llamada sientes que un silencio se apodera de ti. La emociones son difíciles de asir. Y llevamos un montón de años intentándolo.


De 100 años a 10: la carrera por digitalizar los sentidos

Como señala el propio Cheok, la digitalización del audio nos tomó un siglo, 50 años hacer lo mismo con el vídeo —y ya hemos llegado hacia la representación realista del mismo, mediante el HDR—. «Digitalizar el olor o el sabor no nos llevará más de 10 o 15 años, debido a la aceleración de la tecnología».

La digitalización de los olores o sabores siempre ha estado ahí de alguna u otra manera. Dejar una rosa disecada entre las páginas de algún pasaje concreto: de las cartas aromáticas a los cuentos de Gerónimo Stilton. En la industria cinematográfica la digitalización de olores fue bastante explícita y caótica. El suizo Hans Laube presentó en la Expo Mundial de Nueva York de 1939 ‘Scentovision’, un sistema que añadía banda aromática a la película. De esta manera, dosificando pequeñas dosis con tubitos escondidos tras las butacas de cada espectador, se amplificaría el poder narrativo de la obra. No llegó a mayores.


El productor de Minneapolis Michael Todd hizo lo propio, siguiendo las pesquisas de su padre, y presentó ‘Smell-O-Vision’ bajo el eslogan «¡Primero se movieron (1895)! ¡Después comenzaron a hablar (1927)! ¡Ahora huelen!». Fue un fracaso que nunca llegó a despegar. Así las cosas, los años siguieron con tibias investigaciones. Terrence Malick apoyó una idea similar para su ‘The New World’ (2005), su relectura del mito de Pocahontas con aromas de tierra labrada y madera recién cortada. En 2013, varios cines de Nagoya (Japón) proyectaron ‘Iron Man 3’ recurriendo la tecnología 4DX o, lo que es lo mismo, una mezcla de vídeo 3D apoyado con efectos físicos —luz estroboscópica, niebla, aire caliente—, junto a olores dispersados por los conductos de ventilación.

Fuera del circuito comercial, la técnica para digitalizar olores (cromatografía) ha evolucionado por dipares derroteros. La empresa californiana Digiscent presentó hace algunos años iSmell, aplicación para incorporar olores a diferentes plataformas tecnológicas, como un simple correo electrónico. Un aparato receptor sintetiza el olor a través de un chip que asimila y analiza la huella que dejan los olores, y otro imprime y reproduce el olor asimilado. La compañía japonesa Chaku hizo algo similar en 2012 con las “narices electrónicas” y desarrolló Chat Perf, una forma de enviar olores a distancia mediante un atomizador conectado al puerto de iPhone, una suerte de smell-o-phone para pequeños consumidores.


Es fácil digitalizar el audio y la visión, son números

El audio y la imagen se miden en frecuencias: espectro visible, audible, y bits de resolución. Ya se sabe: los 8 bits de color hacen referencia a las 256 sombras de cada color primario: 256 de rojo, 256 de verde y 256 de azul. Con el audio sucede algo similar. Medimos la altura dentro del espacio audible —de los 20 Hertzios a los 20.000—, medimos el timbre sonoro, y medimos la intensidad, en decibelios. Con estos tres valores sabemos si el sonido de un fagot es “grave”, “metálico” y “suave”, basándonos en la potencia de la fuente sonora.

El gusto y el olfato se basan en moléculas sensoras. Son como una versión más hormoral y menos cerebral. Para interpretarlas no nos bastan los números, necesitamos una estimulación sensorial, que en el cerebro se traduce en electricidad. Es como enviar pequeños paquetes de datos codificados. El receptor revisa el matasellos y determina «este aroma a cítrico es agradable y fresco». Así que, como apunta Cheok en el vídeo, si queremos sentir esa conjunción aromática-olfativa, necesitamos condensar esa huella en bits de información y transmitirla eléctricamente a nuestro cerebro. Hablar su mismo idioma.


El problema de no poder digitalizar una molécula

El camino usual es acudir a la química. Como decíamos, las imágenes y los sonidos son señales de vibración y luz, mientras que los aromas y sabores son señales químicas. ¿Cómo podemos estimular estos receptores sin usar químicos? No podemos transmitir moléculas ni partículas a través de Internet. ¿O sí? Podemos detectar la diabetes mediante lectores de glucosa. El dulzor se convierte en una señal digital que el lector de insulina interpreta. Esa información la podemos exportar incluso a una tarjeta de memoria.

El problema de digitalizar una molécula deviene no tanto por la información misma de la molécula sino por cómo la interpretamos. Me explico: en el estudio de la cóclea se concluye que podemos detectar frecuencias limitadas, entre 20Hz y 20kHz, como decíamos. En el estudio del ojo sabemos cómo engañar y adaptarnos a sus características, con sus 7-8 millones de conos y 120 millones de bastones —receptores de color y luminancia, respectivamente—.

El olfato es otro cantar. Un humano sano puede detectar unos 1.200 millones de olores distintos. Y se memorizan mejor que cualquier otro recuerdo generado por una sensación. Las posibilidades combinatorias generan una posibilidad combinatoria prácticamente infinita. ¿Cómo sabemos qué moléculas descartar y cuáles seleccionar?

Ni siquiera podríamos construir un modelo estándar: no todas las personas tienen las papilas gustativas iguales. Aunque todo el mundo tiene receptores similares (dulce, salado, amargo, ácido y umami) la forma en la que interpretamos esas moléculas es única, como una huella dactilar.


Solución: estimular al cerebro con electricidad

De igual manera que hacen las conexiones sinápticas de nuestras neuronas, la única forma eficaz de interpretar correctamente estas moléculas a través de miles de kilómetros es mediante la estimulación eléctrica. Tal vez hayáis oído hablar del ‘brain hacking’, una forma de estimulación transcraneal de corriente directa. Consiste en aplicar, de manera controlada, pequeñas descargas con objeto de tratar patologías, estimular la memoria en personas con amnesia, u ordenar que cierta parte del cuerpo ejecute cierta función —como provocar el crecimiento de pelo—.

El profesor de ingeniería biomédica de la Universidad de NYC dejó bien claro, eneste artículo de Nature, que la versión casera y voluntaria de este hackeo es verdaderamente peligrosa. De hecho, aún no se conocen los efectos secundarios a largo plazo de estas prácticas. En este particular no estamos hablando de dopaje, estamos hablando de reinterpretación, de leer los olores como podríamos leer un libro. Y los dispositivos actuales aún no alcanzan esta meta con eficacia.


Cambiarás la manera de relacionarte con las personas

La idea de Cheok es eminentemente social. En el mundo real sólo puedes dar una abrazo a una persona, si logramos compartir los sentidos de manera eficaz podremos dar abrazos a miles, de manera simultánea. Su meta es replicar el comportamiento del mundo real a escala global.

Un ejemplo: la cultura del lenguaje emoji. Lo que en principio era mera anécdota y refuerzo para transmitir un mensaje eminentemente textual se ha convertido en el núcleo del mensaje. Podemos lanzar un emoji tan cargado de significado como cualquier carta. La teoría de Cheok sólo necesita algo de tiempo extra. Como seres emocionales y sociales, la comunicación seguirá más allá de cualquier forma de digitalización, de los implantes cibernéticos o la humanización de Internet.


Tu amigo del futuro no existirá, será un robot

El tiempo es una centrifugadora. Hemos pasado del planteamiento de usar robots para comunicarnos, normalizando su uso en actos cotidianos, a implicarnos en las tareas del hogar y, cómo no, hacerlos partícipes de nuestra infidelidad poniéndolos a repartir abrazos por contrato. ¿Vamos camino, como en la inteligente cinta de Masamune Shirow ‘Ghost in the Shell’ (1995), hacia una dependencia emocional con los robots? ¿O sólo se trata de medir nuestras posibilidades como creadores? Fijaos en el mito de Pinocho: su padre-creador Geppetto no buscan insuflar vida, sino sustituar una serie de querencias afectivas.

‘Her’ (Spike Jonze, 2014) es popularmente conocida por ampliar cierto debate sobre la Inteligencia Artificial. ¿Puede una persona enamorarse de una simple voz, una Inteligencia Artificial intangible? Porque no se trata de ficción, sino de un debate lógico entre lo que podemos tocar y lo que podemos sentir. Y de ahí saltaríamos a otro debate: de volcarse ese cerebro artificial a un cuerpo humanoide, como en la popular ‘Ex Machina’ (Alex Gardland, 2015), ¿tomaría plena consciencia de sus capacidades, sentiría el deseo de satisfacer a su dueño o marchar libremente, con las implicaciones emocionales que implica?


«¿Por qué debería volar en un avión? ¿Por qué debería siquiera salir de casa para ir a trabajar?». El propio Cheok, en el vídeo de cabecera, asume algunos comportamientos: ya que el ser humano parece abocado poco a poco a cierto inmovilismo, a las rutas guiadas por museos virtuales en vez de visitar los reales, ¿preferiremos a un robot antes que una persona, por el simple hecho de resultarnos más cómodo?

Los progresos en Inteligencia Artificial arrojan un futuro híbrido: sólo hay que observar los vehículos autoconducidos. Por un lado tenemos algoritmos de aprendizaje automático, vinculados a la generación procedural, y que procesarán el lenguaje humano de una forma mucho más intuitiva que los asistentes actuales (Cortana, Siri, etcétera). Gracias a la conexión permanente, al “Internet de las cosas”, todo gadget que no incluye cierta tecnología de computación e IA se considerará estúpida, obsoleta.

El análisis visual de datos ha mejorado exponencialmente gracias a los ojos biónicos, e incluso con proyectos como Tango, de Google, los sensores ya analizan e interpretan el volumen de los cuerpos en el espacio.

La industria que más esperaría este cambio no es apta para menores de 18 años

Las salas multisensoriales —que acuñan su nombre holandés “snoezelen” de las palabras “impregnarse” y “soñar”— aparecieron en los años 70 para el desarrollo cognitivo y han ido adaptándose, poco a poco, al mercado de lo sexual. La tecnología Teledildonics es una versión hardcore del Kissenger, donde las sensaciones táctiles se comunican a través de un enlace de datos entre los participantes. Y sí, hace referencia al sexo robótico o, como mínimo, a la estimulación erótica a distancia.

Ex Machina

Un cambio en la comunicación sensorial a distancia revolucionaría de arriba abajo el mercado adulto. Las páginas dedicadas a ello encontrarían un filón para sus clientes o usuarios premium. El mejor ejemplo lo podemos encontrar en la Realidad Virtual: canales, aplicaciones y líneas de venta dedicadas exclusivamente a ello. Ellos fueron los pioneros, los primeros en adaptar los nuevos formatos, del DVD al Blu-Ray, del uso de cierta ropa o implantar comportamientos y lenguajes sociales.

Así pues, si los robots aún se comunican de forma muy aséptica, habrá quien aproveche esa inmersión, afianzando esa conexión entre personas de maneras más literales. Aunque algunas marcas quieran evitarlo por contrato.

Adrian David Cheok, Keynote Speaker of Brainy Tongue Conference

Brainy Tongue

Keynote Speaker, Adrian David Cheok, Brainy Tongue Conference, “Sensory Logic of the Gastronomic Brain”, a workshop to explore the interface between neuroscience and cooking, an exceptional hands-on meeting where the world’s leading scientists and chefs will research the mysteries of perception through interactive seminars and sensory experiments. The event will be co-organised by three Spanish entities: the Centre for Genomic Regulation (Barcelona), Mugaritz (San Sebastian) and the Basque Culinary Center (San Sebastián). The meeting will take place at the Basque Culinary Center in autumn of 2016. The workshop aims to bring the together prominent scientists and chefs for two and a half days, in order to generate hypotheses and new principles to be exploited at the dining table.

Invitation to Contribute to Special Issue “Love and Sex with Robots”

posted in: Research | 0


I recently accepted an invitation to serve as the Guest Editor for a Special Issue of the journal Multimodal Technologies and Interaction on the subject of “Love and Sex with Robots”. It is my pleasure to invite all researchers to submit an article on this topic.

The article may be either a full paper or a communication based on your own research in this area, or may be a focused review article on some aspect of the subject. MTI is an open access, peer-reviewed journal, edited by Professor Adrian David Cheok. You will not be required to pay the usual publication fee (Article Processing Charge) in the first issue of this journal.

All submissions will be subject to peer review. If you plan to submit a review article please provide me with a title and brief description at your earliest convenience, in order to avoid multiple reviews covering the same material.

For more information about the Special Issue, please see:

For information on manuscript preparation and related matters, please see the instructions for authors:

Although the deadline for submission of manuscripts to the Special Issue is 1 October 2016, I would appreciate hearing from you in the next few weeks whether you would be willing to submit a contribution.

Adrian David Cheok Interview on Spanish National Press EL PAIS

posted in: Media | 0


No falta mucho para que algún chef de prestigio mundial -de los de estrellas Michelin, esferificaciones nitrogenadas y platos a 200 euros- comience a enviar sus creaciones por Internet. No hablamos de un servicio a domicilio (¡qué poco glamour!) sino de un envío literal. Es decir, entrar en una web, seleccionar una receta de nombre imposible, conectarse unos sensores y… disfrutar a través de estímulos en tus sentidos del placer de la alta cocina. Tu cerebro interpretará aquello como la más deliciosa de las comidas, aunque en términos nutricionales sea la nada absoluta. Adrian Cheok cree que, al ritmo al que avanzan las nuevas tecnologías, esto será posible en 15 o 20 años. Tal vez menos si los experimentos que su equipo del Imagineering Institute, laboratorio que él mismo dirige, tienen éxito en próximas fechas. De momento ya han conseguido cosas tan asombrosas dentro de este campo como transmitir olores a través de una aplicación móvil, reproducir el sabor dulce mediante un dispositivo que estimula las papilas gustativas o engañar al cerebro haciéndole creer que la cantidad de comida ingerida es mayor que la consumida realmente.

Cheok es uno de los investigadores más importantes del mundo en el terreno de la denominada “realidad mixta”, un concepto que sobrepasa la realidad aumentada y la realidad virtual, puesto que su objetivo es combinar ambos mundos -el físico y el digital- en tiempo real para que puedan convivir e interactuar. El trabajo de Cheok desde el Imagineering Institute es “construir la Internet del futuro” mediante la convergencia de la tecnología, el arte y la creatividad. La idea de transmitir todo tipo de sensaciones a través de Internet se sustenta, según Cheok, en “el deseo de los seres humanos de comunicarse; la tecnología debe orientarse a satisfacer estas necesidades fundamentales, porque es esencial para nuestra felicidad”. Ser feliz, por ejemplo, sintiendo el abrazo o el beso de la persona amada aunque se encuentre a muchos kilómetros de distancia, es uno de los experimentos que ya han llevado a cabo con éxito desde el equipo de Cheok.

Pero sus planes no se detienen en el envío de información digital entre dos seres humanos, por mucho que esto despierte nuestras emociones. Quiere ir mucho más allá: “El siguiente paso es que esa persona no tiene porqué ser real. Puede ser una creación virtual. Tendremos robots o personajes virtuales que serán nuestros amigos y podremos comunicarnos con ellos a través de nuestros cinco sentidos gracias a Internet. La combinación de la inteligencia artificial y la tecnología multisensorial lo hará posible en el futuro. Tendremos amigos e incluso amantes que no serán físicos”.

Texto: José L. Álvarez Cedena


1 2 3 4 5 6 7 19